רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
Location: Dimona
Job Type: Full Time and Hybrid work
OneDatAI is a leading consulting company in the field of data & AI. for one of our big client located in Dimona (Hybrid model) we are looking for data Engineer to work E2E close with the client.
Gather, analyze, and define business requirements
Work closely with stakeholders to translate business needs into technical solutions
Hands-on development using DBT
Design and develop dashboards and reports using Power BI
Work with large-scale data in a cloud environment
Design, develop, and maintain data pipelines to support BI and analytics use cases
Requirements:
Strong SQL skills
Hands-on experience with dbt
Proven experience with Power BI and DAX
Strong service-oriented mindset
Can-do approach and high level of ownership
Advantages:
Good business understanding, especially in manufacturing/production environments
Familiarity with SAP and/or PI
Familiarity with AWS data services
Experience working with Git
Knowledge of Python, including PySpark
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8540846
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
אנחנו מחפשים אנליסט/ית נתונים מנוסה להובלת תהליכי ניתוח, תכנון והטמעת פתרונות דאטה מתקדמים בעולמות השירות!

התפקיד כולל: ביצוע וליווי של האחדה, קישור וארגון מקורות נתונים מגוונים, הגדרה וביצוע תהליכי גישה, הפקה, זרימה, תכלול וקליטה בין מקורות נתונים,
תכנון data Pipeline, תכנון ומידול ארכיטקטורות מידע, איפיון ותכנון תהליכי מחקר נתונים מתקדם ותכנות מודלים
דרישות:
- לפחות 5 שנות ניסיון בתחום ניתוח הנתונים.
- לפחות 3 שנות ניסיון Hands-On ב-SQL
- ניסיון באפיון: הגדרת KPI, בניית מודלים לוגיים וטבלאות אגרגטיביות לעולמות השירות
- ניסיון בפיתוח BI, בפרט Tableau. 
- ניסיון עם Google Analytics / HotJar / GlassBox או כלים דומים
- היכרות עם שיטות וכלים סטטיסטיים ובניית מודלים
- ניסיון בהטמעה ותמיכה ב-Self Service והסברת נתונים למשתמשים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8564818
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק גלובאלית המתמחה בעולמות ה-AdTech, דרוש/ה data Engineer team lead.
החברה פיתחה פלטפורמת פרסום בווידאו גדולה בזמן אמת המבוססת AI, Machine Learning.
ניהול צוות בעל השפעה גבוהה אשר עובד על מערכת הליבה של החברה, התעסקות עם כמויות אדירות של דאטה. הצוות מונה 9 מפתחים. כ-20% Hands On.
החברה יציבה ומבוססת נסחרת בנסדאק ובלונדון.
יושבים בת"א, מודל עבודה היברידי
דרישות:
4+ שנות ניסיון בניהול צוותי פיתוח
6+ שנות ניסיון כ- data engineer
4+ שנות ניסיון ב- JAVA
ניסיון בארכיטקטורה
pipelines/Vertica/Hadoop/Spark/Kafka - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530653
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: יקום
סוג משרה: משרה מלאה
אנחנו מחפשים מפתח/ת ETL מנוסה להצטרף לצוות האוטומציה והאינטגרציה שלנו, לתפקיד מאתגר ודינמי הכולל פיתוח ותחזוקה של תהליכי העברת נתונים מורכבים בין מערכות ובסיסי נתונים, כחלק ממערכת האוטומציה הארגונית של החברה, תוך שימוש בApache NiFi, Oracle וSQL מתקדם.
התפקיד משלב עבודה אינטנסיבית עם שאילתות SQL מורכבות, טרנספורמציות נתונים, גזירות לוגיות ומניפולציות על מידע, המועבר בין מערכות שונות כחלק מתהליכי אוטומציה ואינטגרציה ארגוניים.
דרישות:
לפחות שנה ניסיון בפיתוח ETL או תהליכי data Integration
ניסיון בפיתוח Apache NiFi ותהליכי data Flow
היכרות טובה עם Linux ועבודה בCLI
ניסיון חזק בSQL: Join-ים מורכבים, Subqueries, Aggregations וTransformations המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525495
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
שכר: 12,000-15,000
התפקיד כולל בין היתר:
- עבודה מול מנכ"ל החברה
- עבודה שוטפת על אקסל
- הפקת דוחות בקרה ממערכות החברה
- ייעול תהליכי הפצה
- עבודה מול מנהלי סניפים
משרה מלאה בפתח תקווה, בקרבה לרכבת הקלה
דרישות:
אוריינטציה אנליטית גבוהה
ניסיון ושליטה מלאה באקסל, כולל נוסחאות - חובה
ניסיון מעולם ההפצה/לוגיסטיקה
תואר ראשון בלוגיסטיקה/ הנדסת תעשייה וניהול - יתרון
אסרטיביות, יכולת עמידה בריבוי משימות ויכולת למידה עצמאית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8558714
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה גדולה ויציבה באזור הצפון מגייסת data Engineer
התפקיד כולל: פיתוח והטמעה של תהליכי data Pipeline והזרמת מידע בין מערכות שונות, יישום לוגיקות עסקיות בפלטפורמת Splunk, התממשקות למערכות נוספות ועוד.
דרישות:
- שנתיים ניסיון כ- data engineer
- ידע וניסיון בעבודה עם מערכות Linux
- שליטה בשפות Scripting כגון: Python וShell
- הכרות עם מימוש יישומים מבוססי דאטה
- ניסיון בעבודה עם Splunk - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8575189
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל במרכז דרוש/ה data ENGINEER
התפקיד כולל ניהול תהליכי הסבת נתונים ממערכות המקור לבסיסי נתונים ו/או מאגרי אחסון בסביבת הענן.
הובלת תהליכי פיתוח, ניטור ובקרה על תהליכי עיבוד נתונים וניהול ממשקי עבודה מול הגורם העסקי
דרישות:
תואר ראשון במדעי המחשב / הנדסת תוכנה / תחום רלוונטי
מינימום 3 שנות ניסיון מוכח כ- data Engineer
היכרות עם כלי AWS: Glue, Lambda, EMR/Spark
היכרות עם כלי CI/CD: Jenkins / GitLab CI / GitHub Actions, Harness
אורקסטרציה: Apache Airflow (DAG design, XCom, pools)
שפות תכנות: JAVA / Python
יתרונות:
היכרות עם DB מבוססי ענן (PostgreSQL, DocumentDB, OpenSearch)
היכרות עם Apache Kafka
ניסיון בKubernetes / EKS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355779
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בקבוצת Aman
מיקום המשרה: רמת גן
פיתוח ותחזוקה של תהליכים בסביבת ענן (Azure) עם DataBricks ו- DataFactory לעיבוד נתונים בקנה מידה גדול, אופטימיזציה של ביצועים וניהול נתונים בקבצי Parquet בענן.
עצמאות ועבודה שוטפת מול משתמשים.
קבלת הדרישה מהמשתמשים, כתיבת אפיונים טכניים וליווי הפיתוח כולל בדיקות, עלייה לייצור והטמעה מול המשתמשים.
הגדרת ממשקים מול מערכות בארגון ומחוצה לו
דרישות:
ניסיון של 3 שנים לפחות ב Python - חובה
ניסיון בכתיבת שאילתות SQL ברמה מורכבת - חובה
ניסיון בSpark - חובה
ניסיון בעבודה עם בסיסי נתונים גדולים, כולל אופטימיזציה של שאילתות - יתרון
ניסיון פיתוח בReact - יתרון
תואר ראשון במדעי המחשב - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8376478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים ביוביטק סולושנס
Job Type: Full Time and Hybrid work
UBTECH is hiring data Tech Lead in Netanya.

We are seeking a highly skilled and experienced Azure data Expert to join our team.
In this role, you will be responsible for designing, implementing, and managing advanced data solutions using Microsoft Azure's cloud platform.
Requirements:
- Deep expertise in Azure data services.
- Proven ability to deliver data -driven solutions that enable business insights, improve operations, and drive innovation.

This position is open to both genders.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8500828
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בHMS - הלפרין יועצים
מיקום המשרה: באר שבע ובני ברק
חברת hms מגייסת data Engineer להשתלבות בצוות דאטה, לעבודה על מוצר בתחום הרפואי.
התפקיד כולל פיתוח, תחזוקה ואופטימיזציה של תהליכי עיבוד נתונים מורכבים, עבודה עם בסיסי נתונים גדולים ונפחי מידע גבוהים, תכנון ויישום פתרונות data מתקדמים ושיפור ביצועים במערכות מידע מורכבות.
העבודה מתבצעת בצוות מקצועי ודינמי, ודורשת יכולת עבודה עצמאית לצד שיתוף פעולה מלא עם גורמים טכנולוגיים ועסקיים.

מיקום: באר שבע / בני ברק
דרישות:
- מעל 4 שנים ניסיון משמעותי בפיתוח ותחזוקת בסיסי נתונים MSSQL ( SQL server ).
- ניסיון בעבודה עם מערכות מידע מורכבות ובסיסי נתונים בנפחים גדולים.
- ניסיון בפיתוח ותחזוקת תהליכי ETL מורכבים.
- הבנה וניסיון בעבודה עם מודלי DWH ומודלים רב-מימדיים.
- תואר רלוונטי/ קורסים מקצועיים בתחום
יתרון משמעותי:
- ניסיון בעבודה עם SSIS ו-Stage data.
- ניסיון עם ElasticSearch (שאילתות, אופטימיזציה וניהול אינדקסים).
- ניסיון ב-MongoDB כולל Aggregation Pipelines. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8568246
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
חברת טכנולוגיה מובילה מגייסת data Engineer מנוסה בעולמות Microsoft Fabric להקמה, פיתוח ותחזוקה של פתרונות data מקצה לקצה בסביבה היברידית (On-Prem + Cloud).

התפקיד משלב data Engineering, BI ו-Analytics עם עבודה Hands-On ב- Python, Power BI ו-Power Automate.

?? תחומי אחריות

תכנון והטמעה של Lakehouse Architecture על Microsoft Fabric

בניית data Pipelines מקצה לקצה

חיבור מקורות מידע On-Prem ו-Cloud

עבודה עם Fabric data Factory ו-Notebooks

יישום Medallion Architecture (Bronze / Silver / Gold)

כתיבת Python Notebooks ( ETL / ELT, data Enrichment)

הכנת נתונים לאנליטיקה ו-AI

עבודה עם Power BI :

Semantic Models

DAX

Power Query

אופטימיזציית ביצועים

שימוש ב-Power Automate לאוטומציות, טריגרים והתראות

הקמת On-Premises data Gateway

ניטור תהליכים ויציבות מערכות

תיעוד תהליכים ו-Best Practices

עבודה שוטפת מול גורמי Business ו-Stake
דרישות:
דרישות חובה

לפחות 3 שנות ניסיון כ- data Engineer או BI Developer מתקדם

ניסיון מעשי מוכח עם Microsoft Fabric

ניסיון בהובלת תהליכי data מקצה לקצה

שליטה גבוהה ב-SQL

ניסיון ב- Python (Notebooks, Pandas)

ניסיון חובה ב-Power BI (DAX, Power Query, Semantic Models)

ניסיון ב-Power Automate

ניסיון ב- ETL / ELT

הבנה מעמיקה ב- data Warehouse ו-Lakehouse Architecture

ניסיון בעבודה עם Git / Azure DevOps

? יתרון משמעותי

ניסיון עם Apache Spark / PySpark

ניסיון עם Azure Synapse או Databricks

עבודה עם Streaming / EventHub

פרויקטי Greenfield

ניסיון בהכנת נתונים ל-AI / Copilot

CI/CD ל- data Pipelines

היכרות עם תחום Energy / Utilities / SCADA

?? ניסיון ב-Spark אינו חובה אך ייחשב כיתרון משמעותי.

?? מאפיינים אישיים

עצמאי/ת, יוזם/ת ו-Hands-On

יכולת עבודה בצוות ובאופן עצמאי

תקשורת מצוינת בעברית ובאנגלית

סדר, אחריות ועמידה ביעדים

?? סביבת עבודה טכנולוגית מתקדמת
?? עבודה על מערכות data מורכבותת המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530078
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים באסם
מיקום המשרה: שוהם
חטיבת ה IT של קבוצת אסם Nestl? מגייסת data Analyst טכני לצוות הדאטה.
בתפקיד זה תהיה לך הזדמנות להוביל את פיתוח מוצרי הדאטה של הארגון - החל מניתוח הצורך העסקי, דרך פיתוח תהליכי עיבוד דאטה בסביבת Databricks, ועד יצירת שכבות נתונים ופתרונות BI שמונגשים לביזנס.
תחומי אחריות
פיתוח מקצה לקצה של data Products ופתרונות דאטה עבור יחידות עסקיות שונות
הבנה ותרגום של צרכים עסקיים לתהליכי דאטה ישימים - כולל אפיון לוגיקות עסקיות, מודלים אנליטיים, תמיכה שוטפת ועובדה מול גורמים שונים בחברה
פיתוח תהליכי עיבוד נתונים ( ETL /ELT) בסביבת Databricks / PySpark על בסיס מקורות דאטה קיימים
יצירת שכבות נתונים אנליטיות ו semantic layers עבור BI ומערכות תפעוליות
עבודה צמודה עם data Engineering לשדרוג תהליכים קיימים והתאמתם לצרכים עסקיים
פיתוח דוחות ודשבורדים ב Power BI
אחריות על איכות, דיוק, זמינות ותיעוד תהליכי הדאטה והמוצרים
זיהוי הזדמנויות לייעול ואוטומציה של תהליכים עסקיים באמצעות דאטה
ה
דרישות:
דרישות תפקיד
2-4 שנות ניסיון בפיתוח פתרונות דאטה BI / data Product / data Analyst
ניסיון מעשי ב SQL ברמה גבוהה - חובה
ניסיון מעשי ב Python אוPySpark - חובה
הבנה טובה בפיתוח מודלים ו semantic layers ל Power BI - חובה
ניסיון בעבודה מול משתמשים עסקיים ואפיון צרכים - חובה
ניסיון מוכח ב Databricks - יתרון משמעותי
ניסיון בעבודה עם Microsoft Azure - - יתרון משמעותי
הבנה עסקית במוצרי צריכה FMCG - יתרון
אנגלית ברמה גבוהה - קריאה, כתיבה ודיבור
המשרה באור תעשיה חבל מודיעין, שוהם המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525307
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
התפקיד כולל אחריות על תהליכי קליטה, עיבוד וניתוח נתונים, וכן פיתוח יישומים מבוססי דאטה על גבי פלטפורמת Splunk (כמו דשבורדים, אנליזות והתראות).
דרישות:
-ניסיון מוכח כ- data Engineer תהליכי ETL, עולמות data Pipelines ואינטגרציה בין מקורות מגוונים.
-ידע וניסיון בעבודה עם מערכות לינוקס.
-שליטה בשפות scripting כגון Python וShell.
-הכרות עם מימוש יישומים מבוססי דאטה דשבורדים, דוחות, אנליזות או מערכות ניטור.
-ניסיון בעבודה עם Splunk  יתרון משמעותי.
-ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) יתרון.
-תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8411908
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Experienced Data Engineer? Excellent team player?

Come join a great team to overcome meaningful cyber challenges!

Our Data Solutions Group is looking for an exceptional Python developer with Data Engineering experience.
Requirements:
Requirements:
Excellent team player.
Excellent Python developer.
BSc Computer Science or similar.
2+ years of experience with big data frameworks such as Spark or Hadoop.
2+ years of experience in managing ETLs in AirFlow or similar, multi-source data flows and processing of large data sets.
3+ years of experience with SQL.
Attention to details, high responsibility and open minded.
Ability to take initiative with a self-motivated attitude and reliability.
Critical thinker and problem-solving skills.

Advantages:
Proven capabilities in data analysis and data-driven conclusions.
Experience with the ElasticSearch suite.
Java development experience.
Experience with Linux environment.
Background in the cyber domain.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566408
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Responsibilities:
Provide the direction of our data architecture. Determine the right tools for the right jobs. We collaborate on the requirements and then you call the shots on what gets built.
Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Optimize and monitor the team-related cloud costs.
Design and construct monitoring tools to ensure the efficiency and reliability of data processes.
Implement CI/CD for Data Workflows.
Requirements:
5+ Years of Experience in data engineering and big data at large scales. - Must
Extensive experience with modern data stack - Must:
1. Snowflake, Delta Lake, Iceberg, BigQuery, Redshift.
2.Kafka, RabbitMQ, or similar for real-time data processing.
3.Pyspark, Databricks.
Strong software development background with Python/OOP and hands-on experience in building large-scale data pipelines. - Must.
Hands-on experience with Docker and Kubernetes. - Must.
Expertise in ETL development, data modeling, and data warehousing best practices.
Knowledge of monitoring & observability (Datadog, Prometheus, ELK, etc).
Experience with infrastructure as code, deployment automation, and CI/CD.
Practices using tools such as Helm, ArgoCD, Terraform, GitHub Actions, and Jenkins.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566263
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
02/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
M:AD Growth is looking for an experienced Delivery Leader to head our analytics and data engineering team. You will be responsible for the end-to-end execution of complex data projects, ensuring technical excellence and driving measurable impact for our enterprise clients. This role is ideal for a leader with a strong background in Digital or Product Analytics, experienced in measuring and optimizing user behavior across large-scale digital products and ecommerce platforms. This role is ideal for a builder-manager who can translate high-level strategy into high-performance data operations while leading, mentoring, and developing a team of analysts and data engineers.

Responsibilities:

* Lead and develop a multidisciplinary data team. Manage and grow a team of Analysts Data Engineers and while driving advanced AI methodologies and analytical standards.
* Measure and optimize digital user journeys across enterprise websites, applications, and ecommerce platforms. Define tracking strategies and analytical frameworks for key digital processes such as acquisition flows, onboarding journeys, service requests, and ecommerce funnels.
* Drive data-driven optimization by identifying performance gaps, user friction points, and growth opportunities through behavioral data and funnel analysis.
* Own the full analytics lifecycle, from building robust data foundations and tracking architectures to delivering dashboards, deep analyses, predictive models, and automated insights.

* Define and enforce analytics architecture standards for GA4 tracking, BigQuery data modeling, and Looker Studio reporting.
Requirements:
* 8+ years of experience in Marketing Analytics, Product Analytics, or Digital Analytics.
* Strong experience analyzing digital products and user behavior, including measuring and improving processes such as onboarding flows, ecommerce funnels, lead generation, or service journeys.
* Proven experience managing a team of 5 or more direct reports within a large enterprise organization, global agency, or high-growth consultancy.
* Deep hands-on expertise in GA4 and the Google Cloud ecosystem including BigQuery, Looker Studio, and ideally Vertex AI.
* A strong track record of leading complex analytics and data initiatives and translating data insights into measurable business impact.
* Experience helping organizations evolve from static reporting environments to fast, data-driven decision making.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566235
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Temporary
We are looking for an Analytics Engineer to join Orcas next-generation big data platform. In this role, you will play a significant part in implementing algorithms and AI-driven logic into our product, helping notify customers about ocean dangers and making maritime voyages safer worldwide.

You will play a central role in building the semantic tables and business logic layer that power advanced product capabilities, real-time notifications, and data-driven decision-making across our platform. Working closely with the Data Science team, you will define high-impact features for their models and integrate algorithms directly into the semantic layer.

This is a temporary position (Maternity leave replacement)

What Youll Do

Design and implement business logic and semantic tables that serve as the foundation for advanced platform features.
Build robust, scalable services that generate real-time notifications for hundreds of ships and fleet managers worldwide.
Deliver high-quality data products that serve operational systems, algorithms, and human-facing applications.
Quickly learn Orcas maritime domain and turn complex data into reliable semantic tables that power product features
Collaborate closely with data scientists, product teams, and engineers to embed algorithms and AI capabilities into production systems.
Be a pivotal contributor in a highly professional, impact-driven data team.
Requirements:
B.Sc. / B.Eng. in Computer Science, Engineering, or an equivalent background.
3+ years of experience as an Analytics Engineer or Data Engineer.
Strong proficiency in Python.
Advanced SQL skills.
Ability to translate complex business logic into scalable, maintainable data models.
Fast learner with the ability to understand complex domains.
Strong team player with a collaborative mindset.

Nice to Have

Experience with cloud-based data solutions.
Hands-on experience with Snowflake.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8565985
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
01/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Were looking for a Senior Data Architect to help shape how high-growth startups build and scale on AWS. In this role, youll design and deliver end-to-end data and analytics solutions - from architecture and pipelines to visualization and insights - guiding customers from concept through production. Youll work closely with startup founders, technical leaders, and account executives to create scalable, cost-efficient architectures that drive real business impact.
📍 Work location - hybrid from Tel Aviv
If you are interested in this opportunity, please submit your CV in English.
Responsibilities:
Design, develop, and implement data & analytics solutions to meet business requirements and create cost-efficient, highly available, and scalable customer solutions, including Well-Architected reviews and SoW.
Research and analyze current solutions and initiate improvement plans.
Collaborate with other engineers and stakeholders to ensure solutions are designed and developed according to best practices.
Lead workshops, POCs, and architecture reviews with startup customers, conferences, webinars, and more.
Stay up to date on Data Engineering and Analytics trends and contribute to internal enablement.
Frequent travels - locally (on-demand to meet with customers and partners and attend local events) and abroad (at least once a quarter).
Requirements:
3+ years of hands-on experience in AWS, including solution design, migration, and maintenance
2+ years in customer-facing technical roles (e.g., SRE, Cloud Architect, Customer Engineer)
Production experience with AWS infrastructure, data services, and real-time data processing
Proficiency in a wide range of AWS services (e.g., EC2, S3, RDS, Lambda, IAM, VPC, CloudFormation, DynamoDB)
Skilled in AWS analytics tools (Glue, Athena, Redshift, EMR, Kinesis, MSK, QuickSight, dbt)
Understanding of information security best practices
Strong verbal and written communication in English and local language
Ability to lead end-to-end technical engagements and work in fast-paced environments
AWS Solutions Architect - Associate certification
Experience with Iceberg- an advantage
Experience with Kubernetes, CI/CD, and DevOps tools - an advantage
Experience with ETL processes, data lakes, and pipelines - an advantage
Experience writing SOWs, HLDs, and effort estimates - an advantage
AWS Professional or Data Analytics/Data Engineer certifications - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8565491
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for an Experienced Big Data Engineer who loves solving complex problems at an extreme scale. In this role, you arent just building "internal pipelines"-you are developing the actual product our clients interact with. You will write high-performance code, optimize your own Spark processes for client freshness, and own features end-to-end. We need a "problem solver by nature, optimizer in their soul" who brings both technical depth and a great personality to a high-speed, deep technical team.

What youll do
Build Client-Facing Features: Design and implement high-scale product features for premium clients - from architecture to production deployment.
Performance Engineering: Optimize scalable data pipelines and distributed processes to meet strict client SLAs. Every millisecond of freshness matters.
System Integrity: Ensure uncompromising data accuracy and performance across massive, complex datasets.
Strategic Collaboration: Partner with upstream data providers, client-side teams, and Product Managers to turn raw events into production-grade features.
Requirements:
The Foundation: B.Sc. in Computer Science or an equivalent.
Relevant Track Record: 3+ years in Big Data Engineering (Backend experience is a plus, provided youve worked at scale).
Spark Mastery: 1+ years of deep, hands-on experience with Spark (or equivalent). You should understand "under the hood" complexities like memory management and execution plans.
Engineering Craft: Strong programming skills (Ideally Scala) with a deep understanding of distributed programming paradigms. You write clean, production-ready code that is optimized for execution across large-scale clusters.
The Scale Mindset: A natural obsession with high-scale problem solving and system optimization.
The Right DNA: A pragmatic, ownership-driven mindset with a personality that thrives in a collaborative environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8564986
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
01/03/2026
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced Data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data-driven solutions for the business. Key Responsibilities:
* Design, develop, and optimize ETL/ELT pipelines for large-scale data processing.
* Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
* Troubleshoot and optimize queries and jobs for performance improvements.
* Implement best practices for data governance, security, and monitoring.
* Stay updated with industry trends and emerging technologies in data engineering. If you're passionate about building scalable data solutions and thrive in a fast-paced environment, we’d love to hear from you!
Requirements:
* 4 years of experience in data engineering or related fields.
* Proficiency in Python for data processing and automation (mandatory).
* Deep understanding of Apache Spark and Databricks for big data processing (mandatory).
* Experience with Git (mandatory).
* Expertise in Apache Airflow for workflow orchestration.
* Familiarity with cloud-based environments, particularly Azure.
* Advanced proficiency in SQL and query optimization.
* Familiarity with data modeling, ETL/ELT principles, and performance tuning.
* Knowledge of CI/CD and containerization (Docker).
* An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8500308
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
26/02/2026
Location: Jerusalem
Job Type: Full Time
We're looking for a Data Engineer with 4+ year experience to join our Data Engineering team and help us build and scale our production-grade data platform. You'll work on high-performance systems built on self-hosted ClickHouse, optimize complex data pipelines, and collaborate closely with Product, Analytics, and Infrastructure teams to deliver reliable, fast, and scalable data solutions.

This is a hands-on technical role where you'll have a significant impact on how we ingest, model, store, and serve data that powers our analytics and AI-driven products.
Youll play a key role in shaping the direction of our data platform and have meaningful ownership over critical components of our architecture.

What You'll Do:
Data Modeling & Architecture
Design and evolve data models that reflect business logic and support analytical use cases
Collaborate with the BI and Analytics teams to understand data requirements and translate them into efficient schemas
Performance Optimization
Optimize ClickHouse schemas, partitioning strategies, indexing, and compression
Profile and tune slow queries to improve performance and reduce costs
Implement systems that ensure data quality, consistency, and operational efficiency (e.g., deduplication, validation, anomaly detection)
Monitor pipeline health, data freshness, and query performance with appropriate alerting mechanisms
SQL Compiler Development
Develop and maintain the SQL Compiler layer that translates high-level queries into optimized ClickHouse execution plansImplement query optimization and rewriting strategies to improve performanceDebug and resolve compiler issues to ensure accurate and efficient query translation

Data Pipeline Development & Collaboration
Review and advise the Integration team on pipeline architecture, performance, and best practices.
Provide guidance on data modeling, schema design, and optimization for new data sources.
Troubleshoot and maintain existing pipelines when issues arise or optimization is needed
Ensure data freshness, reliability, and quality across all ingestion pipelines.
Collaboration & Support
Work closely with the Integration team to ensure smooth data ingestion from new sources.
Partner with Infrastructure to support high availability and disaster recovery
Support other teams across the company in accessing and using data effectively.
Requirements:
Excellent communication and collaboration skills
English at a high level, written and spoken required
Ability to work from our Jerusalem office (located in the Central Bus Station next to the train) 2 times a week (Monday & Wednesday) is required
Strong attention to detail, ownership mentality, and ability to work independently
Quick learner who can dive into new codebases, technologies, and systems independently
Hands-on mentality - not afraid to roll up your sleeves, dig into unfamiliar code, and work across the stack (including backend when needed)
4+ years of experience as a Data Engineer
Strong problem-solving skills for complex data challenges at scale - ability to debug performance issues, data inconsistencies, and system bottlenecks in high-volume environments
Experience with data modeling and schema design for analytical workloads
Strong proficiency in SQL and experience with complex analytical queries
Hands-on experience building and maintaining data pipelines (ETL/ELT)
Ability to troubleshoot and optimize systems handling large data volumes (millions+ rows, complex queries, high throughput)
Knowledge of query optimization techniques and execution planning
Familiarity with columnar databases (ClickHouse, BigQuery, Redshift, Snowflake, or similar). Columnar DB experience is a big plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8563430
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for an Experienced Data Engineer to join our marketing team and take end-to-end ownership of our data platform and production data pipelines. In this role, you will be responsible for building robust, scalable, and observable data systems that power analytics, reporting, and downstream business use cases. You will work deeply hands-on with data infrastructure, modeling, and orchestration, and act as a key technical partner to Marketing, Sales Product and Business and Finance teams.
This role suits someone who enjoys working close to the metal, designing systems that scale, and solving ambiguous data problems in a dynamic startup environment. You will play a critical role in shaping how data flows through the company, setting engineering standards, and ensuring data is trustworthy, performant, and ready for growth.
What You'll Do:
Design, build, and maintain scalable, reliable data pipelines and data warehouse architectures to support analytics and business intelligence needs.
Own the end-to-end ETL/ELT processes - ingesting data from internal and external sources, transforming it, and making it analytics-ready.
Model and optimize data structures (fact tables, dimensions, semantic layers) to support performant querying and reporting.
Ensure high standards of data quality, integrity, observability, and reliability across all data assets.
Partner closely with Analytics, Product, Marketing, and Finance teams to understand data requirements and deliver robust data solutions.
Implement monitoring, alerting, and testing frameworks to proactively identify data issues.
Optimize warehouse performance and cost efficiency (query optimization, partitioning, clustering, etc.).
Identify gaps in data collection and work with engineering teams to improve instrumentation and data availability.
Support experimentation and analytics use cases by enabling clean, trustworthy datasets for A/B testing and analysis.
Document data models, pipelines, and best practices to support scale and knowledge sharing.
Requirements:
Bachelors or Masters degree in Computer Science, Data Engineering, Software Engineering, or a related technical field.
3-5 years of hands-on experience as a Data Engineer, preferably in a SaaS or technology-driven environment.
Strong experience designing and maintaining data warehouses (e.g., Snowflake, BigQuery, Redshift).
Proven expertise with ETL/ELT tools and frameworks (e.g., Airflow, dbt, Talend, SSIS, Informatica, or similar).
Advanced SQL skills and solid proficiency in Python (or similar languages) for data processing and orchestration.
Strong understanding of data modeling, warehousing best practices, and analytics engineering concepts.
Experience integrating data from business systems such as Salesforce, HubSpot, or other SaaS platforms.
Familiarity with SaaS metrics and business concepts (ARR, churn, LTV, CAC) - from a data modeling perspective.
Experience supporting BI tools and analytics consumers (Tableau, Looker, Power BI, etc.).
Strong problem-solving skills, attention to detail, and a passion for building reliable data foundations.
Excellent communication skills and the ability to collaborate across technical and non-technical teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8563348
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
Job Type: Full Time
Youll work in an awesome environment alongside some of the most innovative people in the industry, using cutting-edge technologies and tools (video editing, Gen AI, data, etc.). At our company, you have the opportunity to directly influence the products and tools used by our clients, including sports giants such as the NBA, Bundesliga, LaLiga, ESPN - and thats just the beginning of what our company has to offer! Join us and be a part of the best team in tech as we Fuel the Fandom worldwide.
What youll do:
Design and develop scalable, efficient services, APIs, and automations as founder of this area
Build data pipelines, ETL processes, and integrations that power products and internal tools
Own features end-to-end: design, implementation, CI/CD, monitoring, and observability
Develop and optimize data models, ensuring high-performance data infrastructure
Build and schedule workflows with python orchestrator and integrate with data platforms
Optimize performance, reliability, and security across services
Write high-quality, maintainable code in a rich data environment
Collaborate with Product, R&D, Operations, and Business to deliver impactful data-driven solutions
Work with SAAS environments and containerized deployments.
Requirements:
BSc in Computer Science or an equivalent background
5+ years of professional experience as a Python Developer / Software Engineer
Strong proficiency in Python; experience with frameworks such as FastAPI, Django, or Flask
Solid software engineering fundamentals: OOP, design patterns, testing, debugging
Strong SQL skills and experience with analytical databases (Snowflake or similar)
Experience with REST APIs and asynchronous programming
Proficiency with Git and CI/CD practices
Experience with Docker and/or Kubernetes
Experience with Airflow - advantage
Excellent communication and collaboration skills with the ability to work across multiple stakeholders and business units
Node js - experience is advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8562977
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
25/02/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
It starts with you - an engineer driven to build modern, real-time data platforms that help teams move faster with trust. You care about great service, performance, and cost. Youll architect and ship a top-of-the-line open streaming data lake/lakehouse and data stack, turning massive threat signals into intuitive, self-serve data and fast retrieval for humans and AI agents - powering a unified foundation for AI-driven mission-critical workflows across cloud and on-prem.
If you want to make a meaningful impact, join our companys mission and build best-in-class data systems that move the world forward - this role is for you.
The Responsibilities
Build self-serve platform surfaces (APIs, specs, CLI/UI) for streaming and batch pipelines with correctness, safe replay/backfills, and CDC.
Run the open data lake/lakehouse across cloud and on-prem; enable schema evolution and time travel; tune partitioning and compaction to balance latency, freshness, and cost.
Provide serving and storage across real-time OLAP, OLTP, document engines, and vector databases.
Own the data layer for AI - trusted datasets for training and inference, feature and embedding storage, RAG-ready collections, and foundational building blocks that accelerate AI development across the organization.
Enable AI-native capabilities - support agentic pipelines, self-tuning processes, and secure sandboxing for model experimentation and deployment.
Make catalog, lineage, observability, and governance first-class - with clear ownership, freshness SLAs, and access controls.
Improve performance and cost by tuning runtimes and I/O, profiling bottlenecks, planning capacity, and keeping spend predictable.
Ship paved-road tooling - shared libraries, templates, CI/CD, IaC, and runbooks - while collaborating across AI, ML, Data Science, Engineering, Product, and DevOps. Own architecture, documentation, and operations end-to-end.
Requirements:
6+ years in software engineering, data engineering, platform engineering, or distributed systems, with hands-on experience building and operating data infrastructure at scale.
Streaming & ingestion - Technologies like Flink, Structured Streaming, Kafka, Debezium, Spark, dbt, Airflow/Dagster
Open data lake/lakehouse - Table formats like Iceberg, Delta, or Hudi; columnar formats; partitioning, compaction, schema evolution, time-travel
Serving & retrieval - OLAP engines like ClickHouse or Trino; vector databases like Milvus, Qdrant, or LanceDB; low-latency stores like Redis, ScyllaDB, or DynamoDB
Databases - OLTP systems like Postgres or MySQL; document/search engines like MongoDB or ElasticSearch; serialization with Avro/Protobuf; warehouse patterns
Platform & infra - Kubernetes, AWS, Terraform or similar IaC, CI/CD, observability, incident response
Performance & cost - JVM tuning, query optimization, capacity planning, compute/storage cost modeling
Engineering craft - Java/Scala/Python, testing, secure coding, AI coding tools like Cursor, Claude Code, or Copilot.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8561478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Data Engineer II - GenAI
20718
Leadership/Team Quote:
This opening is for the Content Intelligence team within the Marketplace AI department.
The Content Intelligence team is at the forefront of Generative AI innovation, driving solutions for travel-related chatbots, text generation and summarization applications, Q&A systems, and free-text search. Beyond this, the team is building a cutting-edge platform that processes millions of images and textual inputs daily, enriching them with ML capabilities. These enriched datasets power downstream applications, helping personalize the customer experience-for example, selecting and displaying the most relevant images and reviews as customers plan and book their next vacation.
Role Description:
As a Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspects-ensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and more.
Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.
Key Job Responsibilities and Duties:
Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.
Dealing with massive textual sources to train GenAI foundation models.
Solving issues with data and data pipelines, prioritizing based on customer impact.
End-to-end ownership of data quality in our core datasets and data pipelines.
Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.
Providing tools that improve Data Quality company-wide, specifically for ML scientists.
Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.
Acting as an intermediary for problems, with both technical and non-technical audiences.
Promote and drive impactful and innovative engineering solutions
Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation
Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.
Minimum of 3 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions.
You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.
You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)
Strong programming skills in languages such as Python and Java.
Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.
Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems.
Experience with Data Warehousing and ETL/ELT pipelines
Experience in data processing for large-scale language models like GPT, BERT, or similar architectures - an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560110
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Senior Data Engineer I - GenAI Foundation Models
21679
Leadership/Team Quote:
This opening is for the Content Intelligence team within the Marketplace AI department.
The Content Intelligence team is at the forefront of Generative AI innovation, driving solutions for travel-related chatbots, text generation and summarization applications, Q&A systems, and free-text search. Beyond this, the team is building a cutting-edge platform that processes millions of images and textual inputs daily, enriching them with ML capabilities. These enriched datasets power downstream applications, helping personalize the customer experience-for example, selecting and displaying the most relevant images and reviews as customers plan and book their next vacation.
Role Description:
As a Senior Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspects-ensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and more.
Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.
Key Job Responsibilities and Duties:
Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.
Dealing with massive textual sources to train GenAI foundation models.
Solving issues with data and data pipelines, prioritizing based on customer impact.
End-to-end ownership of data quality in our core datasets and data pipelines.
Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.
Providing tools that improve Data Quality company-wide, specifically for ML scientists.
Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.
Acting as an intermediary for problems, with both technical and non-technical audiences.
Promote and drive impactful and innovative engineering solutions
Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation
Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.
Minimum of 6 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions.
You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.
You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)
Strong programming skills in languages such as Python and Java.
Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.
Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems.
Experience with Data Warehousing and ETL/ELT pipelines.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560108
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
24/02/2026
Location: Herzliya
Job Type: Full Time
Required Senior Data Engineer
Join our core platform engineering team, developing our AI-powered automotive data management platform.
We are developing the next generation data-driven products for the Automotive industry, focusing on cybersecurity (XDR) and vehicle quality. Our products monitor and secure millions of vehicles worldwide and help automakers leverage connected vehicle data to deliver cyber resilience, safety, customer satisfaction and increase brand loyalty.
Our Data Engineering & Data Science Group leads the development of our Iceberg-based data platform, including data lake, query engine, and ML-Ops tools, serving as a solid AI-ready foundation for all our products.
At the core of our Engineering Team, you will build and operate scalable, production-grade customer-facing data and ML platform components, focusing on reliability and performance.
Technological background and focus: Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
This role is full-time and is Herzliya, Israel based.
Responsibilities
Design, build, and maintain scalable data pipelines to ingest and transform batch data on our data lake, enabling analytics and ML with strong data quality, governance, observability, and CI/CD.
Build and expand our foundational data infrastructure, including our data lake, analytics engine, and batch processing frameworks.
Create robust infrastructure to enable automated pipelines that will ingest and process data into our analytical platforms, leveraging open-source, cloud-agnostic frameworks and toolsets.
Develop and maintain our data lake layouts and architectures for efficient data access and advanced analytics.
Develop and manage orchestration tools, governance tools, data discovery tools, and more.
Work with other team members of the engineering group, including data scientists, data architects, and data analysts, to provide solutions using a use case-based approach that drives the construction of technical data flows.
Requirements:
BSc/BA in Computer Science, Engineering or a related field
At least 6 years of experience with designing and building data pipelines, analytical tools and data lakes
Experience with the data engineering tech stack: ETL & orchestration tools (e.g. Airflow, Argo, Prefect), and distributed data processing tools (e.g Spark, Kafka, Presto)
Experience with Python is a must
Experience working in a containerized environment (e.g. k8s)
Experience working with open-source products
End-to-end ownership mindset with a proactive, production-first approach
Development experience, using a general purpose programming language (Java, Scala, Kotlin, Go, etc.) - An advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560075
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
24/02/2026
Location: Herzliya
Job Type: Full Time
Required Data Engineer
Description
Join our core platform engineering team, developing our AI-powered automotive data management platform.
We are developing the next generation data-driven products for the Automotive industry, focusing on cybersecurity (XDR) and vehicle quality. our products monitor and secure millions of vehicles worldwide and help automakers leverage connected vehicle data to deliver cyber resilience, safety, customer satisfaction and increase brand loyalty.
Our Data Engineering & Data Science Group leads the development of our Iceberg-based data platform, including data lake, query engine, and ML-Ops tools, serving as a solid AI-ready foundation for all our products.
At the core of our Engineering Team, you will build and operate scalable, production-grade customer-facing data and ML platform components, focusing on reliability and performance.
Technological background and focus: Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
This role is full-time and is Herzliya, Israel based.
Responsibilities
Design, build, and maintain scalable data pipelines to ingest and transform batch data on our data lake, enabling analytics and ML with strong data quality, governance, observability, and CI/CD.
Build and expand our foundational data infrastructure, including our data lake, analytics engine, and batch processing frameworks.
Create robust infrastructure to enable automated pipelines that will ingest and process data into our analytical platforms, leveraging open-source, cloud-agnostic frameworks and toolsets.
Develop and maintain our data lake layouts and architectures for efficient data access and advanced analytics.
Develop and manage orchestration tools, governance tools, data discovery tools, and more.
Work with other team members of the engineering group, including data architects, data analysts, and data scientists, to provide solutions using a use case-based approach that drives the construction of technical data flows.
End-to-end ownership mindset with a proactive, production-first approach.
Requirements:
BSc/BA in Computer Science, Engineering or a related field
At least 4 years of experience with designing and building data pipelines, analytical tools and data lakes
Experience with the data engineering tech stack: ETL & orchestration tools (e.g. Airflow, Argo, Prefect), and distributed data processing tools (e.g Spark, Kafka, Presto)
Experience with Python is a must
Experience working with open-source products - Advantage
Experience working in a containerized environment (e.g. k8s) - Advantage
Development experience, using a general purpose programming language (Java, Scala, Kotlin, Go, etc.) - Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560068
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו