דרושים » דאטה » לחברת טכנולוגיה דרוש /ה data Engineer מנוסה עם ניסיון משמעותי בפיתוח על פלטפורמת Talend

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: מספר מקומות
עבודה מעשית על תהליכי נתונים מורכבים בסביבת פרודקשן, פיתוח תהליכי ETL והובלת פתרונות אינטגרציה מתקדמים כחלק מצוות data מקצועי.

תחומי אחריות:
פיתוח ותחזוקה של תהליכי ETL על גבי Talend
בניית data Pipelines ועבודה עם מקורות נתונים מגוונים
אינטגרציה מול מערכות חיצוניות ו API
שיפור ביצועים ואופטימיזציה של תהליכי נתונים
דרישות:
ניסיון משמעותי בפיתוח על Talend
לפחות שלוש שנות ניסיון כ data Engineer
שליטה גבוהה ב SQL
ניסיון בפיתוח בשפת תכנות אחת לפחות כגון JAVA
ניסיון בעבודה עם תהליכי נתונים בסביבת Production

יתרון
ניסיון עם Hadoop Spark או Kafka
ניסיון בעבודה בענן המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8582785
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
סוג משרה: משרה מלאה ועבודה היברידית
לחברת סקיוריטי בעולם הרכב דרוש/ה data Engineer
טכנולוגיות מרכזיות:
Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
תיאור המשרה:
תכנון, פיתוח ותחזוקה של צינורות דאטה סקיילביליים לקליטה ועיבוד של נתוני Batch ב- data Lake, תוך הקפדה על איכות נתונים, ממשל נתונים (Governance), נראות (Observability) ו-CI/CD.
פיתוח והרחבת תשתיות הדאטה הבסיסיות, כולל data Lake, מנוע אנליטיקה ומסגרות לעיבוד Batch.
בניית תשתיות יציבות לאוטומציה של תהליכי קליטה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלי Open-Source ופתרונות Cloud-Agnostic.
פיתוח ותחזוקת ארכיטקטורות ומבני data Lake לגישה יעילה לנתונים ואנליטיקה מתקדמת.
פיתוח וניהול כלי אורקסטרציה, Governance, גילוי נתונים ( data Discovery) ועוד.
עבודה שוטפת עם חברי צוות נוספים - ארכיטקטי דאטה, אנליסטים ודאטה סיינטיסטים - בגישה מבוססת Use-Cases לבניית זרימות דאטה טכנולוגיות.
אחריות מקצה לקצה (End-to-End Ownership) וגישה פרואקטיבית
דרישות:
תואר ראשון במדעי המחשב / הנדסה או תחום רלוונטי
לפחות 4 שנות ניסיון בתכנון ובניית צינורות דאטה, כלי אנליטיקה ו- data Lakes
ניסיון בטכנולוגיות data Engineering: כלי ETL ואורקסטרציה (כגון Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כגון Spark, Kafka, Presto)
ניסיון מוכח ב Python - חובה
ניסיון בעבודה עם מוצרי Open-Source - יתרון
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כגון Kubernetes) - יתרון
ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכד) - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8531732
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בפרוסיד
סוג משרה: משרה מלאה ואיקון מתאים גם למגזר הדתימתאים גם למגזר הדתי
פרוסיד מגייסת data Engineer (GCP Focus | data AI Platforms) להובלת פרויקטי דאטה ו- AI חדשניים!

במסגרת התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בסביבת Google Cloud Platform (GCP).
בנייה וניהול של data Pipelines מקצה לקצה - איסוף, עיבוד, טרנספורמציה ואחסון נתונים על גבי GCP.
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים כגון.dbt
עבודה Hands-on עם מחסן נתונים מודרני בענן.BigQuery
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins או GitLab CI בסביבת.GCP
שיתוף פעולה הדוק עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום ארכיטקטורות דאטה ופתרונות.AI
בחינת טכנולוגיות חדשות ב-GCP הובלת PoC והטמעת חדשנות מתמדת בתהליכי הדאטה וה.AI
דרישות:
דרישות:
ניסיון של שנה לפחות כמהנדס/ת דאטה - חובה.
ניסיון מוכח בעבודה עם Google Cloud Platform (GCP) - חובה.
ניסיון Hands-on עם BigQuery - חובה.
שליטה מלאה בSQL וב- Python - חובה.
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt) - חובה.
ניסיון בעבודה עם כלי BI (Looker / Looker Studio / Power BI / Tableau) או רקע קודם כ- BI Developer - חובה.
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI) חובה.
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות בסביבת GCP -חובה.
ידע מעשי בתחום ה,GenAIכולל Prompt Engineering ושימוש בכלי AI - חובה.
יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות כגון data Mesh / data Fabric - יתרון משמעותי
ניסיון בהטמעת פתרונות ML/AI ו MLOps - יתרון משמעותי
רקע בכתיבת אפיונים טכניים ופונקציונליים- יתרון
ניסיון עם כלי data Governance, data Catalog ו- data Quality- יתרון
תואר אקדמי רלוונטי- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527293
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 23 שעות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
בתפקיד:
ליווי תהליכי מכירה בהיבט הטכני, ביצוע הוכחות היתכנות והצגת פתרונות נתונים ללקוחות תוך עבודה צמודה עם צוותי מכירות ופיתוח.

תחומי אחריות:
ליווי תהליכי מכירה מהצד הטכנולוגי
ביצוע POC והדגמות פתרון ללקוחות
איסוף דרישות טכנולוגיות ותרגומן לארכיטקטורת data
עבודה שוטפת מול צוותי מכירות ופיתוח
דרישות:
ניסיון כ Pre Sale data Engineer או data Engineer המעוניין להשתלב בתפקיד פריסייל
ניסיון בעבודה עם ETL ו data Pipelines
שליטה גבוהה ב SQL
ניסיון בפיתוח בשפת תכנות אחת לפחות
יכולת עמידה מול לקוחות והצגת פתרונות בצורה מקצועית וברורה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8546601
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
אנו מחפשים data Engineer מוכשר/ת, שרוצה להצטרף למסע טכנולוגי מאתגר ומשמעותי בארגון פיננסי מוביל.
בואו להיות חלק משבט ניהול סיכונים שהוא הגוף האחראי על Delivery של האסטרטגיה, הדרישות הרגולטוריות, ומוביל פיתוח מערכות מתקדמות מבוססות דאטה וטכנולוגיות ענן.

מה מחכה לכם אצלנו:
- פיתוח data Pipeline בסביבת data Lake מקצה לקצה
- פיתוח תהליכי שינוע ועיבוד נתונים במערכות רלציוניות
- כתיבת סקריפטים ב- Python / PySpark ותחקור נתונים ב-SQL
- ביצוע בדיקות Unit / Integration
- עבודה בסביבות CI/CD וחשיפה למוצרים מתקדמים בתחומי ציות, הלבנת הון והלימות הון
דרישות:
- מעל שנתיים ניסיון ב- Python
- מעל שנתיים ניסיון ב- Big Data (SPARK / HIVE)
- ניסיון בכתיבת שאילתות SQL מורכבות
- לפחות 3 שנות ניסיון בעולמות data של מיקרוסופט (SSIS, SQL server )
- הכרות עם DWH, DL ותהליכי ETL / ELT
- ניסיון בעבודה מול CTRLM המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8578816
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בלוגיקה IT
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
לארגון ממשלתי גדול ויציב, דרוש מנהל או מנהלת פרויקטים להובלת פרויקט דאטה אסטרטגי של מעבר מתשתיות מקומיות לפלטפורמת דאטה מתקדמת בענן GCP.

מדובר בתפקיד ליבה עם השפעה רחבה על הארגון, המשלב הובלה טכנולוגית, ניהול פרויקט מורכב ועבודה עם צוותי דאטה וארכיטקטורה.

ניתן לעבוד מתל אביב או מירושלים

משרה היברידית עם שילוב עבודה מהבית

תחומי אחריות
הובלת פרויקט מיגרציית דאטה מקצה לקצה משלב התכנון ועד עלייה לייצור
ניהול ישיר של צוות data Engineers והובלת העבודה השוטפת
עבודה צמודה עם ארכיטקטים, צוותי תשתיות, BI ואבטחת מידע
הובלה מקצועית של פיתוח תהליכי דאטה, בניית טבלאות ומידול נתונים
תכנון והטמעת פלטפורמת דאטה בענן GCP כולל BigQuery ו Dataform
ניהול לוחות זמנים, תעדוף משימות, פתרון חסמים והובלת Delivery
אחריות גם על שלב הייצוב והמשך הפיתוח לאחר המיגרציה
דרישות:
ניסיון מוכח בניהול פרויקטים טכנולוגיים מורכבים או ניסיון ניהול צוות - חובה
רקע קודם כ data Engineer עם ניסיון Hands On חובה
ניסיון בעבודה עם DWH, תהליכי ETL או ELT ומידול נתונים
ניסיון בהובלת פרויקטי מיגרציה לענן יתרון משמעותי
ניסיון בענן GCP או ניסיון בענן אחר עם נכונות לעבוד ב GCP
תואר אקדמי בהנדסה / מדעי המחשב או תואר אקדמי אחר עם קורסים טכנולוגיים מתקדמים או בוגר/ת צה"ל יחידה טכנולוגית - חובה
היכרות עם BigQuery, Dataform, Snowflake או Databricks יתרון
יכולת הובלה, ראייה מערכתית ותקשורת בין אישית גבוהה

אופי התפקיד
תפקיד הובלה והכוונה מקצועית ללא פיתוח יומיומי
עבודה מול ממשקים רבים בסביבה ארגונית מורכבת
ניהול ישיר של צוות data Engineers ועבודה עם ארכיטקטים
שילוב בין אחריות על Delivery לבין עומק טכנולוגי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8583940
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים ביוניטסק
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
לארגון רפואי מוביל דרוש/ה איש דאטה לצוות BI חזק, לתפקיד מגוון המשלב BI קלאסי, הנדסת דאטה וליווי מחקרים קליניים.
תחומי אחריות:
פיתוח ותחזוקת דשבורדים בQlik (Cloud/Sense) לצוותים עסקיים וקליניים
בניית תהליכי ETL מורכבים ממקורות מידע מגוונים
Preprocessing והכנת נתונים לצרכים אנליטיים ומחקריים
עבודה בפרויקטים מתקדמים הכוללים כלי AI/ML
דרישות:
לפחות 3 שנות ניסיון בפיתוח Qlik Cloud או Qlik Sense
לפחות 3 שנות ניסיון בSQL
לפחות 3 שנות ניסיון בתהליכי ETL מורכבים וPreprocessing
ניסיון בעבודה עם כלי AI/ML כגון TensorFlow, PyTorch, Hugging Face
ניסיון במחקר רפואי/קליני - יתרון משמעותי
תואר מתקדם במדעי החיים או רקע משמעותי בסטטיסטיקה - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8567802
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
ארגון רפואי באזור השרון מגייס מפתח/ת BI ומהנדס/ת data
התפקיד כולל: עבודה עם פיתוח ותחזוקה של דשבורדים במערכת Qlik Cloud ו-Qlik Sense עבור צוותים עסקיים וקליניים, פיתוח תהליכי ETL מורכבים ממקורות מידע מגוונים, הכנה ועיבוד נתונים לצרכים אנליטיים, ליווי מחקרים קליניים כולל הגדרת אוכלוסיות ובניית מודלים סטטיסטיים, התאמת תשתיות נתונים ופתרונות BI לדרישות משתנות של גורמים עסקיים וחוקרים, השתתפות בפרויקטים מתקדמים בתחום הדאטה והאנליטיקה ועוד.
דרישות:
- 3 שנות ניסיון בפיתוח Qlik Cloud או Qlik Sense
- 3 שנות ניסיון בעבודה עם SQL
- 3 שנות ניסיון בתהליכי ETL מורכבים וPreprocessing
- שנה ניסיון עם שפת Python המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8572127
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 18 שעות
דרושים במקדונלדס
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
פיתוח מקצה לקצה של מערכות מתקדמות מבוססות ML DL ו AI, החל משלבי האפיון ועד להעלאה לסביבת ייצור. העבודה תתבצע עם מודלים מתקדמים, תשתיות דאטה וארכיטקטורות סקיילביליות בסביבות ענן.

תחומי אחריות עיקריים:

- פיתוח והטמעת מודלים מבוססי ML DL ו AI.
- ניתוח נתונים מורכבים והסקת מסקנות עסקיות קריטיות
- יישום מודלים מתקדמים כגון Boosting, Random Forest, GLM, Regression, Clustering, PCA
- פיתוח והטמעת שירותים סביב LLMs, Data pipelines, APIs ותשתיות ליבה

מסגרת המשרה:

- משרה מלאה
- ימי ראשון- חמישי
- גמישות אפשרית בשעות (לא קיימת עבודה מרחוק)
- ישיבה במשרדי החברה - געש, הגעה עצמאית
- עבודה בצוות
- עבודה בכפיפות למנהלת מחלקה.
דרישות:
השכלה:
- תואר ראשון רלוונטי.

ניסיון מקצועי (חובה):

- 2+ שנות ניסיון בפיתוח פתרונות AI
- ניסיון עם LLM, כולל עבודה מול OpenAI וAzure OpenAI
- ניסיון בפיתוח Backend וAPI
- ניסיון בעבודה בסביבות ענן
- ניסיון ב-RAG וVector Databases

כישורים טכניים (חובה):
- יכולת אנליטית גבוהה וחשיבה יצירתית לפתרון בעיות עסקיות
- הבנה מעמיקה בעולמות ML, Deep Learning, AI, דאטה וSQL
- פיתוח ב-Python ושימוש בספריות Numpy, Pandas, Scikit-Learn, PyTorch
- ניהול prompting מתקדם: safety filters, guardrails, versioning וארכיטקטורה מותאמת לניסויים
- עבודה מול ספקי מודלים שונים, Caching, Fallbacks ואופטימיזציית עלות מול ביצועים
- ראייה תצפיתית (observability): לוגים, מטריקות, ודשבורדים
- ידע באבטחה: Authorization and Authentication
- ניסיון עם MCP, בניית Tools ועבודה עם מודלים מולטימודליים
- אנגלית ברמה גבוהה - חובה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8552468
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתחום ה-Fintech דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה שכוללת פיתוח בעולמות ה- data, שימוש ב- Python
שימוש ב-Airflow כלי data מתקדמים וכן עבודה בצוות חוד בחברה.
דרישות:
תואר ראשון טכנולוגי
לפחות 6 שנות ניסיון בעולמות data - חובה
רקע בפיתוח backend - יתרון אך לא חובה
ניסיון ב- Python - חובה
ניסיון ב-Air Flow
ניסיון בכלי data נוספים
אנגלית טובה מאוד המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8580111
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
24/02/2026
חברה חסויה
Location: Herzliya
Job Type: Full Time
Required Data Engineer
Description
Join our core platform engineering team, developing our AI-powered automotive data management platform.
We are developing the next generation data-driven products for the Automotive industry, focusing on cybersecurity (XDR) and vehicle quality. our products monitor and secure millions of vehicles worldwide and help automakers leverage connected vehicle data to deliver cyber resilience, safety, customer satisfaction and increase brand loyalty.
Our Data Engineering & Data Science Group leads the development of our Iceberg-based data platform, including data lake, query engine, and ML-Ops tools, serving as a solid AI-ready foundation for all our products.
At the core of our Engineering Team, you will build and operate scalable, production-grade customer-facing data and ML platform components, focusing on reliability and performance.
Technological background and focus: Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
This role is full-time and is Herzliya, Israel based.
Responsibilities
Design, build, and maintain scalable data pipelines to ingest and transform batch data on our data lake, enabling analytics and ML with strong data quality, governance, observability, and CI/CD.
Build and expand our foundational data infrastructure, including our data lake, analytics engine, and batch processing frameworks.
Create robust infrastructure to enable automated pipelines that will ingest and process data into our analytical platforms, leveraging open-source, cloud-agnostic frameworks and toolsets.
Develop and maintain our data lake layouts and architectures for efficient data access and advanced analytics.
Develop and manage orchestration tools, governance tools, data discovery tools, and more.
Work with other team members of the engineering group, including data architects, data analysts, and data scientists, to provide solutions using a use case-based approach that drives the construction of technical data flows.
End-to-end ownership mindset with a proactive, production-first approach.
Requirements:
BSc/BA in Computer Science, Engineering or a related field
At least 4 years of experience with designing and building data pipelines, analytical tools and data lakes
Experience with the data engineering tech stack: ETL & orchestration tools (e.g. Airflow, Argo, Prefect), and distributed data processing tools (e.g Spark, Kafka, Presto)
Experience with Python is a must
Experience working with open-source products - Advantage
Experience working in a containerized environment (e.g. k8s) - Advantage
Development experience, using a general purpose programming language (Java, Scala, Kotlin, Go, etc.) - Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560068
סגור
שירות זה פתוח ללקוחות VIP בלבד