דרושים » ניהול ביניים » data Engineer team lead

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 18 שעות
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק גלובאלית המתמחה בעולמות ה-AdTech, דרוש/ה data Engineer team lead.
החברה פיתחה פלטפורמת פרסום בווידאו גדולה בזמן אמת המבוססת AI, Machine Learning.
ניהול צוות בעל השפעה גבוהה אשר עובד על מערכת הליבה של החברה, התעסקות עם כמויות אדירות של דאטה. הצוות מונה 9 מפתחים. כ-20% Hands On.
החברה יציבה ומבוססת נסחרת בנסדאק ובלונדון.
יושבים בת"א, מודל עבודה היברידי
דרישות:
4+ שנות ניסיון בניהול צוותי פיתוח
6+ שנות ניסיון כ- data engineer
4+ שנות ניסיון ב- JAVA
ניסיון בארכיטקטורה
pipelines/Vertica/Hadoop/Spark/Kafka - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530653
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בפרוסיד
סוג משרה: משרה מלאה ואיקון מתאים גם למגזר הדתימתאים גם למגזר הדתי
פרוסיד מגייסת data Engineer (GCP Focus | data AI Platforms) להובלת פרויקטי דאטה ו- AI חדשניים!

במסגרת התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בסביבת Google Cloud Platform (GCP).
בנייה וניהול של data Pipelines מקצה לקצה - איסוף, עיבוד, טרנספורמציה ואחסון נתונים על גבי GCP.
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים כגון.dbt
עבודה Hands-on עם מחסן נתונים מודרני בענן.BigQuery
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins או GitLab CI בסביבת.GCP
שיתוף פעולה הדוק עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום ארכיטקטורות דאטה ופתרונות.AI
בחינת טכנולוגיות חדשות ב-GCP הובלת PoC והטמעת חדשנות מתמדת בתהליכי הדאטה וה.AI
דרישות:
דרישות:
ניסיון של שנה לפחות כמהנדס/ת דאטה - חובה.
ניסיון מוכח בעבודה עם Google Cloud Platform (GCP) - חובה.
ניסיון Hands-on עם BigQuery - חובה.
שליטה מלאה בSQL וב- Python - חובה.
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt) - חובה.
ניסיון בעבודה עם כלי BI (Looker / Looker Studio / Power BI / Tableau) או רקע קודם כ- BI Developer - חובה.
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI) חובה.
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות בסביבת GCP -חובה.
ידע מעשי בתחום ה,GenAIכולל Prompt Engineering ושימוש בכלי AI - חובה.
יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות כגון data Mesh / data Fabric - יתרון משמעותי
ניסיון בהטמעת פתרונות ML/AI ו MLOps - יתרון משמעותי
רקע בכתיבת אפיונים טכניים ופונקציונליים- יתרון
ניסיון עם כלי data Governance, data Catalog ו- data Quality- יתרון
תואר אקדמי רלוונטי- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527293
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 13 שעות
דרושים בפרוסיד
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
תיאור התפקיד:
הובלה, ניהול והנחיה של צוות מפתחי תוכנה ודאטה, תוך טיפוח מצוינות מקצועית וצמיחה אישית
שילוב Hands-on בפיתוח, Code Reviews וקבלת החלטות ארכיטקטוניות
תכנון, פיתוח ותחזוקה של שירותי תשתית נתונים סקיילביליים, אמינים ובטוחים
הובלת פרויקטים טכנולוגיים מורכבים מקצה לקצה
עבודה שוטפת עם Product Owners, ארכיטקטים וגורמים עסקיים להגדרת Roadmap טכנולוגי
קידום תרבות של חדשנות, שיפור מתמיד ואימוץ טכנולוגיות חדשות
אחריות על זמינות, ביצועים ו-Observability של מערכות הנתונים
זיהוי ופתרון תקלות מערכתיות מורכבות
ניהול תהליכי פיתוח, שגרות צוות, פגישות אישיות והערכות ביצועים
דרישות:
דרישות:
ניסיון של לפחות שנתיים בהובלה וניהול צוותי פיתוח תוכנה -חובה
בפיתוח מערכות נתונים מבוזרות בקנה מידה גדול ( data Engineering)- חובה
ניסיון בעיצוב ארכיטקטורת נתונים ועבודה עם בסיסי נתונים SQL ו-NoSQL- חובה
ניסיון מוכח בהטמעת פתרונות Observability - Metrics, Logging, Distributed Tracing- חובה
היכרות עם data Governance: איכות נתונים, Lineage, אבטחה ועמידה ברגולציה- חובה
ניסיון Hands-on עם DBT / Apache Spark / Kafka- חובה
ניסיון בעבודה עם CI/CD וכלי Infrastructure as Code (IaC)- חובה
היכרות עם Machine Learning Workflows ו-MLOps- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8506845
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 15 שעות
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת פלטפורמה מבוססת AI, NLP שסורקת מקורות מידע ברשת במטרה לאתר עבירות והפרות חוק שחברות גדולות ותאגידים עושים כלפי אזרחים.

החברה ממוקמת בתל אביב- קו רכבת, משלבת מודל עבודה היברידי ומונה מאות עובדים גלובלית.

מהות התפקיד: חלק מצוות של 4 עובדים, דיווח לראש צוות, צוות שאחראי על בניית הפלטפורמה מאפס. העבודה כוללת אחריות מלאה על Design, Build ו-Scale של data Platform Cloud Native לפתרונות AI ו-LLM של החברה. הקמה ותחזוקה של data Lakes ו- data Warehouses, פיתוח data Pipelines מורכבים ל-Batch ו-Streaming, חיבור AI/LLM Workloads ל-Production. ניהול ואופטמיזציה של data Bases- Postgres, Elasticsearch, Vector DBs, Graph DBs.
דרישות:
- 7 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח עם AWS
- ניסיון בפיתוח עם data lake- Databricks, Snowflake המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525804
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 17 שעות
דרושים בmatrix DnA
מיקום המשרה: הרצליה
סוג משרה: משרה מלאה ואקדמאים ללא ניסיון
חברת ה- Data הגדולה בארץ מתרחבת!
MatrixDNA מחפשת Data Engineer לתפקיד ייחודי ומאתגר!
במסגרת התפקיד: פיתוח, שינוע, עיבוד ואינטגרציות של Data.
דרישות:
דרישות:
נדרש ניסיון של 3 שנים לפחות בתפקיד דומה
נדרש ניסיון בפיתוח יכולות ב- Data Pipeline
ניסיון חובה עם Kafka
נדרש סיווג בטחוני בתוקף המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7498061
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת גלובאלית העוסקת בתחום ה-Fintech אשר פיתחה פלטפורמת SaaS הנותנת פתרונות טכנולוגיים לבעיות שהבנקים מעלים מולם דרוש/ה data Operation Specialist. החברה עובדת עם בנקים גדולים מכל העולם.
משרדי החברה נמצאים בהרצליה, קו רכבת, עובדים במודל היברידי.
דרישות:
2+ שנות ניסיון בתפקידי data Operations Specialist or data / system Analyst
ניסיון בכתיבת סקריפטים בPython
ניסיון בבנית תשתית QA
ניסיון עבודה עם databases המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527722
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
סוג משרה: משרה מלאה ועבודה היברידית
לחברת סקיוריטי בעולם הרכב דרוש/ה data Engineer
טכנולוגיות מרכזיות:
Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
תיאור המשרה:
תכנון, פיתוח ותחזוקה של צינורות דאטה סקיילביליים לקליטה ועיבוד של נתוני Batch ב- data Lake, תוך הקפדה על איכות נתונים, ממשל נתונים (Governance), נראות (Observability) ו-CI/CD.
פיתוח והרחבת תשתיות הדאטה הבסיסיות, כולל data Lake, מנוע אנליטיקה ומסגרות לעיבוד Batch.
בניית תשתיות יציבות לאוטומציה של תהליכי קליטה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלי Open-Source ופתרונות Cloud-Agnostic.
פיתוח ותחזוקת ארכיטקטורות ומבני data Lake לגישה יעילה לנתונים ואנליטיקה מתקדמת.
פיתוח וניהול כלי אורקסטרציה, Governance, גילוי נתונים ( data Discovery) ועוד.
עבודה שוטפת עם חברי צוות נוספים - ארכיטקטי דאטה, אנליסטים ודאטה סיינטיסטים - בגישה מבוססת Use-Cases לבניית זרימות דאטה טכנולוגיות.
אחריות מקצה לקצה (End-to-End Ownership) וגישה פרואקטיבית
דרישות:
תואר ראשון במדעי המחשב / הנדסה או תחום רלוונטי
לפחות 4 שנות ניסיון בתכנון ובניית צינורות דאטה, כלי אנליטיקה ו- data Lakes
ניסיון בטכנולוגיות data Engineering: כלי ETL ואורקסטרציה (כגון Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כגון Spark, Kafka, Presto)
ניסיון מוכח ב Python - חובה
ניסיון בעבודה עם מוצרי Open-Source - יתרון
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כגון Kubernetes) - יתרון
ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכד) - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8531732
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 17 שעות
דרושים בנס טכנולוגיות
מיקום המשרה: רעננה
סוג משרה: משרה מלאה ועבודה היברידית
ל NESS דרוש/ה מנהל /ת פרויקט הקמת פלטפורמת data בענן GCP
התפקיד כולל ניהול כולל של פרויקט data Lakehouse רחב- היקף בענן, ניהול של אספקת השירותים End to End Delivery, אחריות על תכנון, ביצוע ובקרה של תוכנית עבודה רב שנתית, ניהול תקציב, ניהול איכות עמידה בSLA, שיפור תהליכים, ניהול והובלת צוותים רב תחומיים.
משרה מלאה והיברידית ברעננה.
דרישות:
בעל/ת תואר ראשון - חובה.
ניסיון של 5 שנים ומעלה בניהול פרויקטים בעולמות הדאטה וה- IT - חובה.
ניסיון מוכח בניהול פרויקטים עתירי תקציב ובעלי ריבוי בעלי עניין - חובה.
ניסיון ניהול דליברי מתמשך ולא רק בפרויקט הקמה - חובה.
ניסיון בעבודה מול לקוחות ממשלתיים / ציבוריים - חובה.
הבנה עמוקה בעולמות data, DWH, Lakehouse, BI - חובה.
ניסיון בניהול פרויקטי דאטה בסביבת ענן ציבורי (עדיפות ל- GCP) - חובה.
ניסיון בניהול תקציב, תמחור, מעקב שעות ורווחיות - חובה.
ניסיון בהגדרת וניהול מדדי איכות, KPI, SLA וניהול סיכונים - חובה.
ניסיון בעבודה עם תוכניות עבודה, גאנטים ודוחות ניהוליים - חובה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8522647
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 17 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתל אביב שגייסה 50 מיליון דולר דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה בצוות data מוביל בחברה, עבודה מורכבת בעיקר ב- Python
בשילוב Spark עבודה ב-Airflow, שימוש בכלים מתקדמים וכן דיווח ישיר ל-Head of data
של החברה
דרישות:
תואר ראשון טכנולוגי - חובה
5-6 שנות ניסיון בפיתוח דאטה
רקע בחברות Start up
ניסיון מעשי ב- Python - חובה
רקע ב-Spark ו-Airflow - חובה
ניסיון בעבודה מול גורמים גלובליים
רמה אישית מעולה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8508865
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
It starts with you - a technical leader whos passionate about data pipelines, data modeling, and growing high-performing teams. You care about data quality, business logic correctness, and delivering trusted data products to analysts, data scientists, and AI systems. Youll lead the Data Engineering team in building ETL/ELT pipelines, dimensional models, and quality frameworks that turn raw data into actionable intelligence.
If you want to lead a team that delivers the data products powering mission-critical AI systems, join mission - this role is for you.
:Responsibilities
Lead and grow the Data Engineering team - hiring, mentoring, and developing engineers while fostering a culture of ownership and data quality.
Define the data modeling strategy - dimensional models, data marts, and semantic layers that serve analytics, reporting, and ML use cases.
Own ETL/ELT pipeline development using platform tooling - orchestrated workflows that extract from sources, apply business logic, and load into analytical stores.
Drive data quality as a first-class concern - validation frameworks, testing, anomaly detection, and SLAs for data freshness and accuracy.
Establish lineage and documentation practices - ensuring consumers understand data origins, transformations, and trustworthiness.
Partner with stakeholders to understand data requirements and translate them into well-designed data products.
Build and maintain data contracts with consumers - clear interfaces, versioning, and change management.
Collaborate with Data Platform to define requirements for new platform capabilities; work with Datastores on database needs; partner with ML, Data Science, Analytics, Engineering, and Product teams to deliver trusted data.
Design retrieval-friendly data products - RAG-ready paths, feature tables, and embedding pipelines - while maintaining freshness and governance SLAs.
Requirements:
8+ years in data engineering, analytics engineering, or BI development, with 2+ years leading teams or technical functions. Hands-on experience building data pipelines and models at scale.
Data modeling - Dimensional modeling (Kimball), data vault, or similar; fact/dimension design, slowly changing dimensions, semantic layers
Transformation frameworks - dbt, Spark SQL, or similar; modular SQL, testing, documentation-as-code
Orchestration - Airflow, Dagster, or similar; DAG design, dependency management, scheduling, failure handling, backfills
Data quality - Great Expectations, dbt tests, Soda, or similar; validation rules, anomaly detection, freshness monitoring
Batch processing - Spark, SQL engines; large-scale transformations, optimization, partitioning strategies
Lineage & cataloging - DataHub, OpenMetadata, Atlan, or similar; metadata management, impact analysis, documentation
Messaging & CDC - Kafka, Debezium; event-driven ingestion, change data capture patterns
Languages - SQL (advanced), Python; testing practices, code quality, version control
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504281
סגור
שירות זה פתוח ללקוחות VIP בלבד