דרושים » דאטה » data Engineer עבור חברה באזור הצפון

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 3 שעות
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה באזור הצפון מגייסת data Engineer
התפקיד כולל: פיתוח והטמעה של תהליכי data Pipeline והזרמת מידע בין מערכות שונות, יישום לוגיקות עסקיות בפלטפורמת Splunk, התממשקות למערכות נוספות ועוד.
דרישות:
- שנתיים ניסיון כ- data Engineer
- ידע וניסיון בעבודה עם מערכות Linux
- שליטה בשפות Scripting כגון: Python וShell
- הכרות עם מימוש יישומים מבוססי דאטה
- ניסיון בעבודה עם Splunk - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8617088
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 23 שעות
דרושים ביוניטסק
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה מובילה באזור הצפון דרוש/ה data Engineer מנוסה להצטרפות לצוות דאטה, לעבודה עם טכנולוגיות מתקדמות בסביבת נתונים בזמן אמת.
במסגרת התפקיד:
פיתוח והטמעה של תהליכי data Pipelines והזרמת מידע בין מערכות שונות
עבודה עם לוגים ונתונים ממערכות מגוונות (Machine data )
פיתוח דשבורדים, ויזואליזציות והתראות בפלטפורמת Splunk
עבודה בסביבת Linux כולל התקנות, קונפיגורציה ותחזוקה
התממשקות למערכות חיצוניות באמצעות APIs
דרישות:
ניסיון של 3+ שנים כ- data Engineer (עבודה עם data Pipelines / תהליכי ETL )
שליטה בשפת Python / JAVA / PowerShell
ניסיון בעבודה עם לוגים/ מערכות ניטור/ ניתוח נתונים
ניסיון בעבודה עם Splunk - יתרון משמעותי.
ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) - יתרון.
תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
חברה חסויה
Location: Haifa
Job Type: Full Time
we are looking for a Data Engineer.
This is a full-time, on-site role for a Data Engineer, located in Haifa.
The Data Engineer will design, build, and maintain scalable data pipelines, implement robust Extract, Transform, Load (ETL) processes, and develop efficient data models to support business intelligence and data analytics needs. The role also involves building and improving data warehousing solutions and collaborating with cross-functional teams to ensure data integrity and optimize workflows.
Requirements:
Core Data Engineering
3+ years of experience as a Data Engineer
Strong hands-on experience with Google Cloud Platform
Advanced SQL (BigQuery performance, partitioning, clustering)
Strong Python (data pipelines, APIs, batch & streaming jobs)
Experience building batch and streaming pipelines
BigQuery
Dataflow / Apache Beam
Pub/Sub
Cloud Storage
Data modeling for analytics and ML use cases
Production troubleshooting, optimization, and cost awareness
ML & GenAI
Experience supporting ML pipelines (training, inference, feature prep)
Hands-on with at least one of:
Vertex AI
Feature stores
Model inference pipelines
Experience working with LLM-based systems, including:
Embeddings generation
Vector databases / similarity search
RAG-style pipelines
Ability to prepare, version, and serve data for GenAI / ML workloads
Platform & Engineering
Experience with Airflow / Cloud Composer or equivalent orchestration
CI/CD pipelines for data & ML workloads
Infrastructure-as-code familiarity (Terraform preferred)
Understanding of IAM, data security, and access controls on GCP
Nice to Have:
Experience with FinOps / cost optimization
Experience with real-time ML or low-latency inference
Experience with monitoring & observability for data/ML pipelines
Google Cloud certifications (Data Engineer / Architect)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8611269
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
26/03/2026
Location: Yokne`am
Job Type: Full Time
we are looking for an expert data engineer to build and evolve the data backbone for our r&d telemetry and performance analytics ecosystem. responsibilities include processing raw, large quantities of data from live systems at the cluster level: hardware, communication units, software, and efficiency indicators. youll be part of a fast paced r&d organization, where system behavior, schemas, and requirements evolve constantly. your mission is to develop flexible, reliable, and scalable data handling pipelines that can adapt to rapid change and deliver clean, trusted data for engineers and researchers.
what youll be doing:
build flexible data ingestion and transformation frameworks that can easily handle evolving schemas and changing data contracts
develop and maintain ETL /elt workflows for refining, enriching, and classifying raw data into analytics-ready form
collaborate with r&d, hardware, DevOps, ml engineers, data scientists and performance analysts to ensure accurate data collection from Embedded systems, firmware, and performance tools
automate schema detection, versioning, and validation to ensure smooth evolution of data structures over time
maintain data quality and reliability standards, including tagging, metadata management, and lineage tracking
enable self-service analytics by providing curated datasets, apis, and databricks notebooks
Requirements:
what we need to see:
b.sc. or m.sc. in Computer Science, computer engineering, or a related field
5+ years of experience in data engineering, ideally in telemetry, streaming, or performance analytics domains
confirmed experience with databricks and apache spark (pyspark or scala)
understanding of streaming processes and their applications (e.g., apache kafka for ingestion, schema registry, event processing)
proficiency in Python and sql for data transformation and automation
shown knowledge in schema evolution, data versioning, and data validation frameworks (e.g., delta lake, great expectations, iceberg, or similar)
experience working with cloud platforms (aws, gcp, or azure) - aws preferred
familiarity with data orchestration tools (airflow, prefect, or dagster)
experience handling time-series, telemetry, or Real-Time data from distributed systems
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8593679
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
01/04/2026
חברה חסויה
Location: Haifa
Job Type: Full Time
seeking a skilled and motivated Data Scientist. This individual will play a pivotal role in identifying key data points for collection, developing strategies to accumulate data and deriving actionable insights an anomaly based on a solid foundation of relevant know-how. Also, will also be responsible for creating, testing, and deploying scripts and methods for data collection and analysis to support decision-making. The Engineer will collaborate with cross-functional teams to identify critical data sources to determine the most effective data collection strategies, will develop automated and scalable data collection pipelines, will ensure data quality, integrity, and consistency across all sources and may use AI techniques to refine the results toward failures predictions.
Requirements:
Bachelors degree in computer science, Data Science, Engineering, Mathematics, or a related field.
Advanced degrees in data science or Machine learning / AI - Advance.
Proficiency in programming languages such as Python, R, or MATLAB.
Strong understanding of data manipulation and analysis tools (e.g., Pandas, NumPy, SQL).
Understanding of high speed interfaces such as Ethernet, PCI-E , WiFi.
Experience with data visualization tools such as Tableau, Matplotlib, Graphana.
Strong analytical and critical-thinking skills to identify patterns and outliers.
Customer-obsession, Think and act with the customer in mind!
Goal-driven, Self-motivated, be able to work independently and with teams with people around the globe.
Entrepreneurial, open-minded behavior and can-do attitude.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8599334
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
19/03/2026
Location: More than one
Job Type: Full Time
We are looking for an expert Data Engineer to build and evolve the data backbone for our R&D telemetry and performance analytics ecosystem. Responsibilities include processing raw, large quantities of data from live systems at the cluster level: hardware, communication units, software, and efficiency indicators. Youll be part of a fast paced R&D organization, where system behavior, schemas, and requirements evolve constantly. Your mission is to develop flexible, reliable, and scalable data handling pipelines that can adapt to rapid change and deliver clean, trusted data for engineers and researchers.

What youll be doing:

Build flexible data ingestion and transformation frameworks that can easily handle evolving schemas and changing data contracts.

Develop and maintain ETL/ELT workflows for refining, enriching, and classifying raw data into analytics-ready form.

Collaborate with R&D, hardware, DevOps, ML engineers, data scientists and performance analysts to ensure accurate data collection from embedded systems, firmware, and performance tools.

Automate schema detection, versioning, and validation to ensure smooth evolution of data structures over time.

Maintain data quality and reliability standards, including tagging, metadata management, and lineage tracking.

Enable self-service analytics by providing curated datasets, APIs, and Databricks notebooks.
Requirements:
What we need to see:

B.Sc. or M.Sc. in Computer Science, Computer Engineering, or a related field.

5+ years of experience in data engineering, ideally in telemetry, streaming, or performance analytics domains.

Confirmed experience with Databricks and Apache Spark (PySpark or Scala).

Understanding of streaming processes and their applications (e.g., Apache Kafka for ingestion, schema registry, event processing).

Proficiency in Python and SQL for data transformation and automation.

Shown knowledge in schema evolution, data versioning, and data validation frameworks (e.g., Delta Lake, Great Expectations, Iceberg, or similar).

Experience working with cloud platforms (AWS, GCP, or Azure) - AWS preferred.

Familiarity with data orchestration tools (Airflow, Prefect, or Dagster).

Experience handling time-series, telemetry, or real-time data from distributed systems.

Ways to stand out from the crowd:

Exposure to hardware, firmware, or embedded telemetry environments.

Knowledge of real-time analytics frameworks (Spark Structured Streaming, Flink, Kafka Streams).

Understanding of system performance metrics (latency, throughput, resource utilization).

Experience with data cataloging or governance tools (DataHub, Collibra, Alation).

Familiarity with CI/CD for data pipelines and infrastructure-as-code practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8585234
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
27/03/2026
Location: Yokne`am
Job Type: Full Time
join our company outstanding team and contribute to our legacy of innovation in the senior quality data analyst engineer role! at our company, we are dedicated to pushing the boundaries of pioneering technology. the senior data analyst engineer will lead advanced data analysis and optimization for networking products in mass production. the successful candidate will leverage technical expertise and manufacturing experience to deliver actionable insights from complex datasets.
what you'll be doing:
develop automated dashboards, kpis, and reports to monitor production health, yield, TEST results, quality trends and customers satisfaction indicators
identify and drive root cause analysis of anomalies or degradations in key metrics (yield loss, reliability issues, field returns, customers complaints).
collaborate with cross-functional teams in different time zones (such as manufacturing, TEST engineering, r&d, quality and sales).
Requirements:
what we need to see:
bachelors or masters degree in data science, electrical engineering, industrial engineering, Computer Science, or related field or equivalent experience
8+ years of experience in a data analytics role, preferably in a high-volume electronics hardware environment.
5+ years proven experience in data collection and statistical analysis for high-volume products datasets
proficiency in Big Data platforms, and statistical analysis tools; skilled in data visualization (e.g., power BI )
ways to stand out from the crowd:
proven experience with ai-driven tools, llms and Machine Learning
strong integration capabilities
ability to operate independently and influence cross-functional teams without direct authority.
results-oriented, organized, and detail-driven.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8594210
סגור
שירות זה פתוח ללקוחות VIP בלבד