דרושים » דאטה » דרוש /ה data Engineer בעולמות ה-Splunk לחברה מובילה באזור חפיה

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים ביוניטסק
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה מובילה באזור הצפון דרוש/ה data Engineer מנוסה להצטרפות לצוות דאטה, לעבודה עם טכנולוגיות מתקדמות בסביבת נתונים בזמן אמת.
במסגרת התפקיד:
פיתוח והטמעה של תהליכי data Pipelines והזרמת מידע בין מערכות שונות
עבודה עם לוגים ונתונים ממערכות מגוונות (Machine data )
פיתוח דשבורדים, ויזואליזציות והתראות בפלטפורמת Splunk
עבודה בסביבת Linux כולל התקנות, קונפיגורציה ותחזוקה
התממשקות למערכות חיצוניות באמצעות APIs
דרישות:
ניסיון של 3+ שנים כ- data Engineer (עבודה עם data Pipelines / תהליכי ETL )
שליטה בשפת Python / JAVA / PowerShell
ניסיון בעבודה עם לוגים/ מערכות ניטור/ ניתוח נתונים
ניסיון בעבודה עם Splunk - יתרון משמעותי.
ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) - יתרון.
תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589478
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
התפקיד כולל אחריות על תהליכי קליטה, עיבוד וניתוח נתונים, וכן פיתוח יישומים מבוססי דאטה על גבי פלטפורמת Splunk (כמו דשבורדים, אנליזות והתראות).
דרישות:
-ניסיון מוכח כ- data Engineer תהליכי ETL, עולמות data Pipelines ואינטגרציה בין מקורות מגוונים.
-ידע וניסיון בעבודה עם מערכות לינוקס.
-שליטה בשפות scripting כגון Python וShell.
-הכרות עם מימוש יישומים מבוססי דאטה דשבורדים, דוחות, אנליזות או מערכות ניטור.
-ניסיון בעבודה עם Splunk  יתרון משמעותי.
-ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) יתרון.
-תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8411908
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
קצת על התפקיד
אנו מחפשים מפתח/ת BI  מנוסה עם יכולות אנליטיות גבוהות והבנה טובה של ארכיטקטורת דאטה.
המועמד/ת המתאים/ה ישתלב בקבוצת ה- BI ויהיה אחראי/ת על פיתוח פתרונות אנליטיקה ברמה הארגונית, בעולמות תוכן מגוונים ובטכנולוגיות מתקדמות.             

אופי התפקיד:
- פיתוח ויישום פתרונות BI  מתקדמים ותובנות עסקיות מנתונים מורכבים.
- הגדרת ויישום מטריקות KPI מרכזיים עבור תהליכי פיתוח בעולמות התוכן המגוונים
- גיבוש קונספט ותכנון פתרונות אנליטיים
- עבודה עם טכנולוגיות מובילות בארכיטקטורות  BI וניתוח מידע
דרישות:
מה אנחנו מחפשים:
- תואר ראשון בהנדסת מערכות מידע, תעשייה וניהול, מדעי המחשב או תחום רלוונטי אחר
- 3 שנות ניסיון בפיתוח דוחות ודשבורדים בכלי ניתוח נתונים
- 3 שנות ניסיון מעשי ב-SQL מורכבים, פתרון בעיות וכוונון שאילתות
- כישורים אנליטיים מעולים והתמצאות בנתונים
- הבנה של ארכיטקטורת BI : DWH, ETL  ומידול נתונים
- ניסיון בפיתוח OBIEE או כלי פיתוח BI  אחר (Qlik View, Tableau) - יתרון
- ניסיון בפיתוח ETL - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8576355
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Yokne`am
Job Type: Full Time
we are looking for an expert data engineer to build and evolve the data backbone for our r&d telemetry and performance analytics ecosystem. responsibilities include processing raw, large quantities of data from live systems at the cluster level: hardware, communication units, software, and efficiency indicators. youll be part of a fast paced r&d organization, where system behavior, schemas, and requirements evolve constantly. your mission is to develop flexible, reliable, and scalable data handling pipelines that can adapt to rapid change and deliver clean, trusted data for engineers and researchers.
what youll be doing:
build flexible data ingestion and transformation frameworks that can easily handle evolving schemas and changing data contracts
develop and maintain ETL /elt workflows for refining, enriching, and classifying raw data into analytics-ready form
collaborate with r&d, hardware, DevOps, ml engineers, data scientists and performance analysts to ensure accurate data collection from Embedded systems, firmware, and performance tools
automate schema detection, versioning, and validation to ensure smooth evolution of data structures over time
maintain data quality and reliability standards, including tagging, metadata management, and lineage tracking
enable self-service analytics by providing curated datasets, apis, and databricks notebooks
Requirements:
what we need to see:
b.sc. or m.sc. in Computer Science, computer engineering, or a related field
5+ years of experience in data engineering, ideally in telemetry, streaming, or performance analytics domains
confirmed experience with databricks and apache spark (pyspark or scala)
understanding of streaming processes and their applications (e.g., apache kafka for ingestion, schema registry, event processing)
proficiency in Python and sql for data transformation and automation
shown knowledge in schema evolution, data versioning, and data validation frameworks (e.g., delta lake, great expectations, iceberg, or similar)
experience working with cloud platforms (aws, gcp, or azure) - aws preferred
familiarity with data orchestration tools (airflow, prefect, or dagster)
experience handling time-series, telemetry, or Real-Time data from distributed systems
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8593679
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
19/03/2026
Location: More than one
Job Type: Full Time
We are looking for an expert Data Engineer to build and evolve the data backbone for our R&D telemetry and performance analytics ecosystem. Responsibilities include processing raw, large quantities of data from live systems at the cluster level: hardware, communication units, software, and efficiency indicators. Youll be part of a fast paced R&D organization, where system behavior, schemas, and requirements evolve constantly. Your mission is to develop flexible, reliable, and scalable data handling pipelines that can adapt to rapid change and deliver clean, trusted data for engineers and researchers.

What youll be doing:

Build flexible data ingestion and transformation frameworks that can easily handle evolving schemas and changing data contracts.

Develop and maintain ETL/ELT workflows for refining, enriching, and classifying raw data into analytics-ready form.

Collaborate with R&D, hardware, DevOps, ML engineers, data scientists and performance analysts to ensure accurate data collection from embedded systems, firmware, and performance tools.

Automate schema detection, versioning, and validation to ensure smooth evolution of data structures over time.

Maintain data quality and reliability standards, including tagging, metadata management, and lineage tracking.

Enable self-service analytics by providing curated datasets, APIs, and Databricks notebooks.
Requirements:
What we need to see:

B.Sc. or M.Sc. in Computer Science, Computer Engineering, or a related field.

5+ years of experience in data engineering, ideally in telemetry, streaming, or performance analytics domains.

Confirmed experience with Databricks and Apache Spark (PySpark or Scala).

Understanding of streaming processes and their applications (e.g., Apache Kafka for ingestion, schema registry, event processing).

Proficiency in Python and SQL for data transformation and automation.

Shown knowledge in schema evolution, data versioning, and data validation frameworks (e.g., Delta Lake, Great Expectations, Iceberg, or similar).

Experience working with cloud platforms (AWS, GCP, or Azure) - AWS preferred.

Familiarity with data orchestration tools (Airflow, Prefect, or Dagster).

Experience handling time-series, telemetry, or real-time data from distributed systems.

Ways to stand out from the crowd:

Exposure to hardware, firmware, or embedded telemetry environments.

Knowledge of real-time analytics frameworks (Spark Structured Streaming, Flink, Kafka Streams).

Understanding of system performance metrics (latency, throughput, resource utilization).

Experience with data cataloging or governance tools (DataHub, Collibra, Alation).

Familiarity with CI/CD for data pipelines and infrastructure-as-code practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8585234
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Yokne`am
Job Type: Full Time
join our company outstanding team and contribute to our legacy of innovation in the senior quality data analyst engineer role! at our company, we are dedicated to pushing the boundaries of pioneering technology. the senior data analyst engineer will lead advanced data analysis and optimization for networking products in mass production. the successful candidate will leverage technical expertise and manufacturing experience to deliver actionable insights from complex datasets.
what you'll be doing:
develop automated dashboards, kpis, and reports to monitor production health, yield, TEST results, quality trends and customers satisfaction indicators
identify and drive root cause analysis of anomalies or degradations in key metrics (yield loss, reliability issues, field returns, customers complaints).
collaborate with cross-functional teams in different time zones (such as manufacturing, TEST engineering, r&d, quality and sales).
Requirements:
what we need to see:
bachelors or masters degree in data science, electrical engineering, industrial engineering, Computer Science, or related field or equivalent experience
8+ years of experience in a data analytics role, preferably in a high-volume electronics hardware environment.
5+ years proven experience in data collection and statistical analysis for high-volume products datasets
proficiency in Big Data platforms, and statistical analysis tools; skilled in data visualization (e.g., power BI )
ways to stand out from the crowd:
proven experience with ai-driven tools, llms and Machine Learning
strong integration capabilities
ability to operate independently and influence cross-functional teams without direct authority.
results-oriented, organized, and detail-driven.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8594210
סגור
שירות זה פתוח ללקוחות VIP בלבד