דרושים » דאטה » data Engineer

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 8 שעות
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
לחברת סקיוריטי בעולם הרכב דרוש/ה data Engineer
טכנולוגיות מרכזיות:
Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
תיאור המשרה:
תכנון, פיתוח ותחזוקה של צינורות דאטה סקיילביליים לקליטה ועיבוד של נתוני Batch ב- data Lake, תוך הקפדה על איכות נתונים, ממשל נתונים (Governance), נראות (Observability) ו-CI/CD.
פיתוח והרחבת תשתיות הדאטה הבסיסיות, כולל data Lake, מנוע אנליטיקה ומסגרות לעיבוד Batch.
בניית תשתיות יציבות לאוטומציה של תהליכי קליטה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלי Open-Source ופתרונות Cloud-Agnostic.
פיתוח ותחזוקת ארכיטקטורות ומבני data Lake לגישה יעילה לנתונים ואנליטיקה מתקדמת.
פיתוח וניהול כלי אורקסטרציה, Governance, גילוי נתונים ( data Discovery) ועוד.
עבודה שוטפת עם חברי צוות נוספים - ארכיטקטי דאטה, אנליסטים ודאטה סיינטיסטים - בגישה מבוססת Use-Cases לבניית זרימות דאטה טכנולוגיות.
אחריות מקצה לקצה (End-to-End Ownership) וגישה פרואקטיבית
דרישות:
תואר ראשון במדעי המחשב / הנדסה או תחום רלוונטי
לפחות 4 שנות ניסיון בתכנון ובניית צינורות דאטה, כלי אנליטיקה ו- data Lakes
ניסיון בטכנולוגיות data Engineering: כלי ETL ואורקסטרציה (כגון Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כגון Spark, Kafka, Presto)
ניסיון מוכח ב Python - חובה
ניסיון בעבודה עם מוצרי Open-Source - יתרון
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כגון Kubernetes) - יתרון
ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכד) - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8531732
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בפרוסיד
סוג משרה: משרה מלאה ואיקון מתאים גם למגזר הדתימתאים גם למגזר הדתי
פרוסיד מגייסת data Engineer (GCP Focus | data AI Platforms) להובלת פרויקטי דאטה ו- AI חדשניים!

במסגרת התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בסביבת Google Cloud Platform (GCP).
בנייה וניהול של data Pipelines מקצה לקצה - איסוף, עיבוד, טרנספורמציה ואחסון נתונים על גבי GCP.
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים כגון.dbt
עבודה Hands-on עם מחסן נתונים מודרני בענן.BigQuery
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins או GitLab CI בסביבת.GCP
שיתוף פעולה הדוק עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום ארכיטקטורות דאטה ופתרונות.AI
בחינת טכנולוגיות חדשות ב-GCP הובלת PoC והטמעת חדשנות מתמדת בתהליכי הדאטה וה.AI
דרישות:
דרישות:
ניסיון של שנה לפחות כמהנדס/ת דאטה - חובה.
ניסיון מוכח בעבודה עם Google Cloud Platform (GCP) - חובה.
ניסיון Hands-on עם BigQuery - חובה.
שליטה מלאה בSQL וב- Python - חובה.
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt) - חובה.
ניסיון בעבודה עם כלי BI (Looker / Looker Studio / Power BI / Tableau) או רקע קודם כ- BI Developer - חובה.
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI) חובה.
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות בסביבת GCP -חובה.
ידע מעשי בתחום ה,GenAIכולל Prompt Engineering ושימוש בכלי AI - חובה.
יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות כגון data Mesh / data Fabric - יתרון משמעותי
ניסיון בהטמעת פתרונות ML/AI ו MLOps - יתרון משמעותי
רקע בכתיבת אפיונים טכניים ופונקציונליים- יתרון
ניסיון עם כלי data Governance, data Catalog ו- data Quality- יתרון
תואר אקדמי רלוונטי- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527293
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בדאטה קור
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
תיאור המשרה:
אנחנו מחפשים מוביל.ה טכנולוגי.ת יוצא.ת דופן להובלת צוות ה- Data Engineering בחברה קמעונאית מהגדולות בישראל. התפקיד מיועד למנהל.ת מנוסה עם תשוקה לדאטה, יכולת הובלה מוכחת וניסיון עמוק בבניית ארכיטקטורות נתונים מורכבות. זוהי הזדמנות להוביל את אסטרטגיית הנתונים של הארגון, לנהל פרויקטים רחבי היקף ולעבוד עם טכנולוגיות הענן המתקדמות ביותר ב-Scale עצום.

-משרה מלאה
-מיקום המשרדים: הרצליה

תיאור התפקיד:
- ניהול והובלה: ניהול ישיר של צוות ה- Data Engineers (לפחות שנתיים ניסיון), תיעדוף משימות, חניכה מקצועית והובלת ה Roadmap הטכנולוגי.
- תכנון וארכיטקטורה: אפיון ותכנון פרויקטים מקצה לקצה, בניית Data Lakes ותהליכי ETL /ELT מורכבים.
- בקרת איכות: ביצוע Code Reviews,הבטחת ביצועי מערכת (Performance) ושמירה על איכות נתונים גבוהה.
- סמכות מקצועית: מתן פתרונות טכנולוגיים לבעיות מורכבות והטמעת מתודולוגיות עבודה (Agile, CI/CD)
דרישות:
דרישות התפקיד:
- ניסיון ניהולי: ניסיון מוכח בניהול צוות פיתוח/ דאטה - חובה.
- ניסיון ב-GCP: לפחות שנה אחת של ניסיון מעשי עמוק בעבודה עם תשתיות הדאטה של Google Cloud Platform כגון: BigQuery, Dataflow, Cloud Composer/Airflow -חובה.
- מומחיות ב ETL: ניסיון עשיר בתכנון ופיתוח תהליכי ETL /ELT מורכבים מעל Data Lake ו- Data Warehouse
- ידע טכני: שליטה מלאה ב- Python וב SQL ברמה גבוהה מאוד.
- מתודולוגיות: הבנה עמוקה וניסיון עבודה במתודולוגיות פיתוח מקובלות, עבודה עם Git וסביבות ענן.

יתרונות:
- ניסיון מחברה קמעונאית גדולה או עבודה עם נפחי דאטה גבוהים (High Volume)
- היכרות עם כלי Streaming כגון: Kafka, Pub/Sub
- ניסיון בכתיבת תשתיות כקוד (Terraform)
- תואר ראשון במדעי המחשב / הנדסת תוכנה או תחום רלוונטי. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8529760
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 12 שעות
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת SU מצליחה בעולמות הPublic Safety שמפתחת מוצר מציל חיים לשעת חירום דרוש/ה Senior Software data Engineer
דרישות:
7+ שנות ניסיון כמהנדס/ת תוכנה עם מומחיות בהנדסת נתונים (ניסיון בפיתוח Scala או JAVA ).
תואר ראשון בהנדסת תוכנה, מדעי המחשב, מדעי המחשב, סטטיסטיקה, אינפורמטיקה, מערכות מידע או תחום כמותי אחר.
ניסיון בבנייה ואופטימיזציה של צינורות נתונים, ארכיטקטורות ומערכי נתונים של Big Data
ניסיון עם כלי Big Data ועיבוד זרמים (Kinesis, Kafka, Spark, Spark-Streaming, Storm וכו').
ניסיון עם שירותי ענן של AWS (EKS, EMR, RDS, Redshift).
ידע טוב ב-SQL וניסיון בעבודה עם מסדי נתונים יחסיים של SQL ו-NoSQL, כולל MySQL ו-DynamoDB.
ניסיון בביצוע ניתוח גורם שורש על נתונים ותהליכים פנימיים וחיצוניים כדי לענות על שאלות עסקיות ספציפיות ולזהות הזדמנויות לשיפור.
כישורי אנליטיקה חזקים הקשורים לעבודה עם מערכי נתונים לא מובנים וחצי מובנים.
בניית תהליכים התומכים בטרנספורמציה של נתונים, מבני נתונים, מטא- דאטה, תלות וניהול עומסי עבודה.
היסטוריה מוצלחת של מניפולציה, עיבוד והפקת ערך ממערכי נתונים גדולים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8522826
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 12 שעות
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת פלטפורמה מבוססת AI, NLP שסורקת מקורות מידע ברשת במטרה לאתר עבירות והפרות חוק שחברות גדולות ותאגידים עושים כלפי אזרחים.

החברה ממוקמת בתל אביב- קו רכבת, משלבת מודל עבודה היברידי ומונה מאות עובדים גלובלית.

מהות התפקיד: חלק מצוות של 4 עובדים, דיווח לראש צוות, צוות שאחראי על בניית הפלטפורמה מאפס. העבודה כוללת אחריות מלאה על Design, Build ו-Scale של data Platform Cloud Native לפתרונות AI ו-LLM של החברה. הקמה ותחזוקה של data Lakes ו- data Warehouses, פיתוח data Pipelines מורכבים ל-Batch ו-Streaming, חיבור AI/LLM Workloads ל-Production. ניהול ואופטמיזציה של data Bases- Postgres, Elasticsearch, Vector DBs, Graph DBs.
דרישות:
- 7 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח עם AWS
- ניסיון בפיתוח עם data lake- Databricks, Snowflake המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525804
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 13 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתל אביב שגייסה 50 מיליון דולר דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה בצוות data מוביל בחברה, עבודה מורכבת בעיקר ב- Python
בשילוב Spark עבודה ב-Airflow, שימוש בכלים מתקדמים וכן דיווח ישיר ל-Head of data
של החברה
דרישות:
תואר ראשון טכנולוגי - חובה
5-6 שנות ניסיון בפיתוח דאטה
רקע בחברות Start up
ניסיון מעשי ב- Python - חובה
רקע ב-Spark ו-Airflow - חובה
ניסיון בעבודה מול גורמים גלובליים
רמה אישית מעולה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8508865
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בTechTalent
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק מצוינת בתל אביב דרוש/ה data engineer מנוסה.
כחלק מהתפקיד, עבודה במקביל למספר צוותי פיתוח, צוות מגוון ואיכותי,
עבודה שתכלול הרבה מאוד פיתוח Python בשילוב טכנולוגיות דאטה מתקדמות
וכן עבודה מרובה מול מגוון בסיסי נתונים.
דרישות:
תואר ראשון טכנולוגי
רקע מפיתוח backend - יתרון אך לא חובה
ניסיון רב בפיתוח Python - חובה
ניסיון מעשי בתור data engineer - חובה
רקע בעבודה בטכנולוגיות data
אנגלית טובה מאוד
רמה אישית גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525179
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק גלובאלית המתמחה בעולמות ה-AdTech, דרוש/ה data Engineer team lead.
החברה פיתחה פלטפורמת פרסום בווידאו גדולה בזמן אמת המבוססת AI, Machine Learning.
ניהול צוות בעל השפעה גבוהה אשר עובד על מערכת הליבה של החברה, התעסקות עם כמויות אדירות של דאטה. הצוות מונה 9 מפתחים. כ-20% Hands On.
החברה יציבה ומבוססת נסחרת בנסדאק ובלונדון.
יושבים בת"א, מודל עבודה היברידי
דרישות:
4+ שנות ניסיון בניהול צוותי פיתוח
6+ שנות ניסיון כ- data engineer
4+ שנות ניסיון ב- JAVA
ניסיון בארכיטקטורה
pipelines/Vertica/Hadoop/Spark/Kafka - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530653
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
12/01/2026
חברה חסויה
Location: Herzliya
Job Type: Full Time
Required Senior Data Engineer
Description
Join our core platform engineering team, developing our AI-powered automotive data management platform.
We are developing the next generation data-driven products for the Automotive industry, focusing on cybersecurity (XDR) and vehicle quality. Our products monitor and secure millions of vehicles worldwide and help automakers leverage connected vehicle data to deliver cyber resilience, safety, customer satisfaction and increase brand loyalty.
Our Data Engineering & Data Science Group leads the development of our Iceberg-based data platform, including data lake, query engine, and ML-Ops tools, serving as a solid AI-ready foundation for all our products.
At the core of our Engineering Team, you will build and operate scalable, production-grade customer-facing data and ML platform components, focusing on reliability and performance.
Technological background and focus: Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
This role is full-time and is Herzliya, Israel based.
Responsibilities
Design, build, and maintain scalable data pipelines to ingest and transform batch data on our data lake, enabling analytics and ML with strong data quality, governance, observability, and CI/CD.
Build and expand our foundational data infrastructure, including our data lake, analytics engine, and batch processing frameworks.
Create robust infrastructure to enable automated pipelines that will ingest and process data into our analytical platforms, leveraging open-source, cloud-agnostic frameworks and toolsets.
Develop and maintain our data lake layouts and architectures for efficient data access and advanced analytics.
Build our ML platform and automate the ML lifecycle.
Drive business-wide ML projects from an engineering perspective.
Develop and manage orchestration tools, governance tools, data discovery tools, and more.
Work with other team members of the engineering group, including data architects, data analysts, and data scientists, to provide solutions using a use case-based approach that drives the construction of technical data flows.
Requirements:
BSc/BA in Computer Science, Engineering or a related field
At least 6 years of experience with designing and building data pipelines, analytical tools and data lakes
At least 4 years of development experience, using a general purpose programming language (Java, Scala, Kotlin, Go, etc.)
Experience with the data engineering tech stack: ETL & orchestration tools (e.g. Airflow, Argo, Prefect), and distributed data processing tools (e.g Spark, Kafka, Presto)
Experience with Python is a must
Experience working with open-source products - Big advantage
Experience working in a containerized environment (e.g. k8s) - Advantage
End-to-end ownership mindset with a proactive, production-first approach.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8498391
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Herzliya
Job Type: Full Time
We are seeking an experienced Data Engineer with a strong background in BI and Data Engineering, excellent problem-solving skills, and the ability to work independently and learn quickly.
Role Overview
You will join a dynamic team responsible for designing and implementing end-to-end data solutions on the Microsoft Fabric platform. This role involves:
Building and maintaining robust data processes.
Driving adoption of new technology within the organization.
Ensuring scalability, performance, and reliability of data solutions.

Responsibilities:
Collaborate with leaders, stakeholders, and product managers to understand data requirements and deliver effective BI solutions.
Design, develop and maintain robust data pipelines for efficient data ingestion, processing, and storage.
Optimize data storage and retrieval processes for optimal performance.
Monitor data pipelines and systems consistently to identify performance issues, ensuring timely maintenance and troubleshooting.
Create and maintain documentation of data processes and systems.
Requirements:
Minimum of 3 years of experience as a BI Developer or Data Engineer.
Proficient in SQL.
Practical experience with Spark.
Experience with ETL/ELT tools and cloud data platforms, preferably Microsoft Fabric.
Understanding of data warehouse and lake house architectures.
Familiarity with source control systems (e.g., Azure DevOps or equivalent).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8527911
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
08/01/2026
חברה חסויה
Location: Herzliya
Job Type: Full Time
As a Data Engineer , you will own the architecture and optimization of large-scale ETL processes that transform raw heavy-duty vehicle telemetry into production-grade intelligence. You will operate at the intersection of Big Data and AI, building scalable pipelines, enforcing data quality standards, and managing cost-efficiency for a system processing billions of time-series records. You will be a technical owner, collaborating directly with Data Scientists to ensure our fleet intelligence models run reliably in production.
What Youll Do
Architect and build robust ETLs and scalable data pipelines on Databricks and AWS.
Optimize high-throughput ingestion workflows for billions of time-series records, ensuring low latency and data integrity.
Engineer data validation frameworks and automated monitoring to proactively detect anomalies before they impact models.
Drive cost-efficiency by tuning Spark jobs and managing compute resources in a high-volume environment.
Transform raw IoT/telemetry signals into structured, enriched Feature Stores ready for Machine Learning production.
Define best practices for data engineering, CI/CD for data, and lakehouse architecture across the organization.
Requirements:
Production Experience: 3+ years in Data Engineering with strong proficiency in Python, SQL, and PySpark.
Big Data Architecture: Proven track record working with distributed processing frameworks (Spark, Delta Lake) and cloud infrastructure (AWS preferred).
Scale: Experience handling high-volume datasets (TB scale or billions of rows); familiarity with time-series or IoT data is a strong advantage.
Engineering Rigor: Deep understanding of data structures, orchestration (Databricks Workflows), and software engineering best practices (Git, CI/CD).
Problem Solving: Ability to diagnose complex performance bottlenecks in distributed systems and implement cost-effective solutions.
Ownership: A self-starter mindset with the ability to take a vague requirement and deliver a deployed, production-ready pipeline.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8494087
סגור
שירות זה פתוח ללקוחות VIP בלבד