רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 22 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון טכנולוגי באזור המרכז מגייס data Engineer
התפקיד כולל: פיתוח, הקמה ותחזוקה של תשתיות דאטה מתקדמות בסביבת ענן, בדגש על עבודה עם Databricks, אחריות על בניית תהליכי data Pipelines מקצה לקצה, עיבוד כמויות דאטה גדולות (Batch ו-Streaming), שיפור ביצועים ואיכות נתונים ושיתוף פעולה צמוד עם צוותי BI, אנליסטים ו- data Scientists ועוד.
דרישות:
- שלוש שנות ניסיון data Engineering
- ניסיון מעשי בעבודה עם Databricks
- שליטה ב-SQL ברמה גבוהה
- ניסיון בפיתוח תהליכי ETL / ELT
- עבודה בסביבת ענן AWS / Azure / GCP המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8516275
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 22 שעות
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת פלטפורמה מבוססת AI, NLP שסורקת מקורות מידע ברשת במטרה לאתר עבירות והפרות חוק שחברות גדולות ותאגידים עושים כלפי אזרחים.

החברה ממוקמת בתל אביב- קו רכבת, משלבת מודל עבודה היברידי ומונה מאות עובדים גלובלית.

מהות התפקיד: חלק מצוות של 4 עובדים, דיווח לראש צוות, צוות שאחראי על בניית הפלטפורמה מאפס. העבודה כוללת אחריות מלאה על Design, Build ו-Scale של data Platform Cloud Native לפתרונות AI ו-LLM של החברה. הקמה ותחזוקה של data Lakes ו- data Warehouses, פיתוח data Pipelines מורכבים ל-Batch ו-Streaming, חיבור AI/LLM Workloads ל-Production. ניהול ואופטמיזציה של data Bases- Postgres, Elasticsearch, Vector DBs, Graph DBs.
דרישות:
- 7 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח עם AWS
- ניסיון בפיתוח עם data lake- Databricks, Snowflake המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525804
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
התפקיד כולל אחריות על תהליכי קליטה, עיבוד וניתוח נתונים, וכן פיתוח יישומים מבוססי דאטה על גבי פלטפורמת Splunk (כמו דשבורדים, אנליזות והתראות).
דרישות:
-ניסיון מוכח כ- data Engineer תהליכי ETL, עולמות data Pipelines ואינטגרציה בין מקורות מגוונים.
-ידע וניסיון בעבודה עם מערכות לינוקס.
-שליטה בשפות scripting כגון Python וShell.
-הכרות עם מימוש יישומים מבוססי דאטה דשבורדים, דוחות, אנליזות או מערכות ניטור.
-ניסיון בעבודה עם Splunk  יתרון משמעותי.
-ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) יתרון.
-תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8411908
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים באיילת אלבז
Job Type: Full Time
לחברה יזמית מובילה בתחום האנרגיה,
דרוש/ה EMS data Analyst.
משרה מלאה במרכז הארץ.


Job Description -
Analyze operational and market data to identify performance gaps, inefficiencies, and optimization opportunities across the portfolio.
Investigate root causes of deviations in production, availability, and revenue, and translate insights into clear, actionable recommendations.
Own end-to-end reporting, dashboards, and automated data pipelines across EMS, SCADA, and external data sources.
Support and optimize EMS decision-making workflows to improve site efficiency, stability, and energy output.
Execute and monitor intraday EMS optimization strategies to maximize energy revenues.
Collaborate with engineering, operations, and commercial teams to turn analytics into measurable performance improvements.
Requirements:
Bachelors degree in Engineering, data Science, or a related quantitative field.
2-3 years of experience as a data Analyst or BI Analyst.
Strong Python and SQL skills ( SQL server preferred).
Experience with BI tools such as Power BI or Tableau.
Familiarity with APIs, automation, and data pipelines.
Strong analytical mindset, attention to detail, and sense of ownership.
Excellent communication skills and ability to work cross-functionally.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8500816
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 23 שעות
Location: Beit She'An
Job Type: Full Time
DRS RADA is a global pioneer of RADAR systems for active military protection, counter-drone applications, critical infrastructure protection, and border surveillance.

manufacturing performance.
Collect, process, and report on key performance indicators (KPIs); conduct ongoing monitoring of production processes.
Provide recommendations for process optimization, cost savings, and quality improvement.
Build reports, presentations, and analytical models to support decision-making.
Collaborate with various departments: engineering, operations, procurement, logistics, and quality.
Requirements:
Requirements:
Relevant academic degree (e.g., Industrial Engineering and Management, Economics, Statistics, Mathematics, Computer Science ).
High-level proficiency in Excel, as well as experience with Python and Power BI - Mandatory
Previous experience in a manufacturing company- Mandatory:
Prior experience in analytics/control/production planning control ( PPC )/Industrial Engineering - an advantage.
Experience with BI and ERP systems ( SAP / Oracle )- Advantage
Understanding of production processes and familiarity with industrial environments - significant advantage.
Analytical skills, systems thinking, quantitative approach, attention to detail.
Ability to work independently and in a team, manage multiple tasks, and meet tight deadlines.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8494164
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 23 שעות
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
לארגון ממשלתי משמעותי דרוש/ה מהנדס/ת נתונים למתן פתרונות לבעיות ברמת מורכבות גבוהה העולות בשימושים במסד הנתונים.
בדיקת איכות הנתונים וה- pipelines.
הבנת מודלים אנליטיים מורכבים ברמה גבוהה.
ניהול והרצת שאילתות מורכבות לרבות אופטימיזציה.
הבנה טכנית גבוהה של אופרציות ומורכבויות הקשורות בתשתיות של מאגרי מידע.
תנאים מצוינים למתאימים/ות!
דרישות:
4 שנות ניסיון ומעלה בהנדסת נתונים
ניסיון מוכח רב בניתוח ואפיון מערכות מורכבות
ניסיון בפרויקטים במגזר הממשלתי
ניסיון בתכלול כלל הגורמים בפרויקט: אפיון, פיתוח, QA ותשתיות
ניסיון בפרויקט במתודולוגית אגייל
ניסיון בתכנון ועיצוב מבנה נתונים
ניסיון מוכח במערכות כספיות ועיבוד נתונים
יכולות אישיות: נכונות לעבודה מאומצת בסביבה מורכבת המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8522908
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת SU מצליחה בעולמות הPublic Safety שמפתחת מוצר מציל חיים לשעת חירום דרוש/ה Senior Software data Engineer
דרישות:
7+ שנות ניסיון כמהנדס/ת תוכנה עם מומחיות בהנדסת נתונים (ניסיון בפיתוח Scala או JAVA ).
תואר ראשון בהנדסת תוכנה, מדעי המחשב, מדעי המחשב, סטטיסטיקה, אינפורמטיקה, מערכות מידע או תחום כמותי אחר.
ניסיון בבנייה ואופטימיזציה של צינורות נתונים, ארכיטקטורות ומערכי נתונים של Big Data
ניסיון עם כלי Big Data ועיבוד זרמים (Kinesis, Kafka, Spark, Spark-Streaming, Storm וכו').
ניסיון עם שירותי ענן של AWS (EKS, EMR, RDS, Redshift).
ידע טוב ב-SQL וניסיון בעבודה עם מסדי נתונים יחסיים של SQL ו-NoSQL, כולל MySQL ו-DynamoDB.
ניסיון בביצוע ניתוח גורם שורש על נתונים ותהליכים פנימיים וחיצוניים כדי לענות על שאלות עסקיות ספציפיות ולזהות הזדמנויות לשיפור.
כישורי אנליטיקה חזקים הקשורים לעבודה עם מערכי נתונים לא מובנים וחצי מובנים.
בניית תהליכים התומכים בטרנספורמציה של נתונים, מבני נתונים, מטא- דאטה, תלות וניהול עומסי עבודה.
היסטוריה מוצלחת של מניפולציה, עיבוד והפקת ערך ממערכי נתונים גדולים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8522826
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: יקום
סוג משרה: משרה מלאה
אנחנו מחפשים מפתח/ת ETL מנוסה להצטרף לצוות האוטומציה והאינטגרציה שלנו, לתפקיד מאתגר ודינמי הכולל פיתוח ותחזוקה של תהליכי העברת נתונים מורכבים בין מערכות ובסיסי נתונים, כחלק ממערכת האוטומציה הארגונית של החברה, תוך שימוש בApache NiFi, Oracle וSQL מתקדם.
התפקיד משלב עבודה אינטנסיבית עם שאילתות SQL מורכבות, טרנספורמציות נתונים, גזירות לוגיות ומניפולציות על מידע, המועבר בין מערכות שונות כחלק מתהליכי אוטומציה ואינטגרציה ארגוניים.
דרישות:
לפחות שנה ניסיון בפיתוח ETL או תהליכי data Integration
ניסיון בפיתוח Apache NiFi ותהליכי data Flow
היכרות טובה עם Linux ועבודה בCLI
ניסיון חזק בSQL: Join-ים מורכבים, Subqueries, Aggregations וTransformations המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525495
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בNishapro
איסוף, ניתוח ועיבוד של נתונים פיננסיים והתנהגותיים לצורך הבנה, מדידה וניהול של האשראי.
פיתוח ויישום מודלים סטטיסטיים ואלגוריתמים מתקדמים לניבוי סיכון, דירוג אשראי, סיווג לקוחות וזיהוי מגמות חריגות.
ביצוע ניתוחים אנליטיים לצורך תמיכה בהחלטות עסקיות, רגולטוריות וניהול סיכונים.
עבודה עם מאגרי נתונים גדולים ( Big Data ), תוך שימוש בכלי BI, SQL ושפות תכנות רלוונטיות (כגון Python / R).
בדיקות תקופתיות לבחינת ביצועי המודלים (Model Monitoring Validation) ושיפורם בהתאם לצורך.
משרה היברידית- יום 1 מהבית
מיקום- לוד
דרישות:
תואר ראשון לפחות בסטטיסטיקה / מתמטיקה / כלכלה / מדעי המחשב / הנדסה תעשייה וניהול או תחום רלוונטי - חובה
ניסיון של שנתיים לפחות כאנליסט/ית נתונים או מפתח/ת מודלים חובה
עדיפות לניסיון בתחום הפיננסים/בנקאות.
שליטה גבוהה ב- SQL - חובה - שנתיים אחרונות לפחות
ניסיון בעבודה עם Python או SAS לצורך ניתוח סטטיסטי ופיתוח מודלים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8471406
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בפרוסיד
מיקום המשרה: מספר מקומות
תיאור התפקיד:
הובלה, ניהול והנחיה של צוות מפתחי תוכנה ודאטה, תוך טיפוח מצוינות מקצועית וצמיחה אישית
שילוב Hands-on בפיתוח, Code Reviews וקבלת החלטות ארכיטקטוניות
תכנון, פיתוח ותחזוקה של שירותי תשתית נתונים סקיילביליים, אמינים ובטוחים
הובלת פרויקטים טכנולוגיים מורכבים מקצה לקצה
עבודה שוטפת עם Product Owners, ארכיטקטים וגורמים עסקיים להגדרת Roadmap טכנולוגי
קידום תרבות של חדשנות, שיפור מתמיד ואימוץ טכנולוגיות חדשות
אחריות על זמינות, ביצועים ו-Observability של מערכות הנתונים
זיהוי ופתרון תקלות מערכתיות מורכבות
ניהול תהליכי פיתוח, שגרות צוות, פגישות אישיות והערכות ביצועים
דרישות:
דרישות:
ניסיון של לפחות שנתיים בהובלה וניהול צוותי פיתוח תוכנה -חובה
בפיתוח מערכות נתונים מבוזרות בקנה מידה גדול ( data Engineering)- חובה
ניסיון בעיצוב ארכיטקטורת נתונים ועבודה עם בסיסי נתונים SQL ו-NoSQL- חובה
ניסיון מוכח בהטמעת פתרונות Observability - Metrics, Logging, Distributed Tracing- חובה
היכרות עם data Governance: איכות נתונים, Lineage, אבטחה ועמידה ברגולציה- חובה
ניסיון Hands-on עם DBT / Apache Spark / Kafka- חובה
ניסיון בעבודה עם CI/CD וכלי Infrastructure as Code (IaC)- חובה
היכרות עם Machine Learning Workflows ו-MLOps- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8506845
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתל אביב שגייסה 50 מיליון דולר דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה בצוות data מוביל בחברה, עבודה מורכבת בעיקר ב- Python
בשילוב Spark עבודה ב-Airflow, שימוש בכלים מתקדמים וכן דיווח ישיר ל-Head of data
של החברה
דרישות:
תואר ראשון טכנולוגי - חובה
5-6 שנות ניסיון בפיתוח דאטה
רקע בחברות Start up
ניסיון מעשי ב- Python - חובה
רקע ב-Spark ו-Airflow - חובה
ניסיון בעבודה מול גורמים גלובליים
רמה אישית מעולה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8508865
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באסם
מיקום המשרה: שוהם
חטיבת ה IT של קבוצת אסם Nestl? מגייסת data Analyst טכני לצוות הדאטה.
בתפקיד זה תהיה לך הזדמנות להוביל את פיתוח מוצרי הדאטה של הארגון - החל מניתוח הצורך העסקי, דרך פיתוח תהליכי עיבוד דאטה בסביבת Databricks, ועד יצירת שכבות נתונים ופתרונות BI שמונגשים לביזנס.
תחומי אחריות
פיתוח מקצה לקצה של data Products ופתרונות דאטה עבור יחידות עסקיות שונות
הבנה ותרגום של צרכים עסקיים לתהליכי דאטה ישימים - כולל אפיון לוגיקות עסקיות, מודלים אנליטיים, תמיכה שוטפת ועובדה מול גורמים שונים בחברה
פיתוח תהליכי עיבוד נתונים ( ETL /ELT) בסביבת Databricks / PySpark על בסיס מקורות דאטה קיימים
יצירת שכבות נתונים אנליטיות ו semantic layers עבור BI ומערכות תפעוליות
עבודה צמודה עם data Engineering לשדרוג תהליכים קיימים והתאמתם לצרכים עסקיים
פיתוח דוחות ודשבורדים ב Power BI
אחריות על איכות, דיוק, זמינות ותיעוד תהליכי הדאטה והמוצרים
זיהוי הזדמנויות לייעול ואוטומציה של תהליכים עסקיים באמצעות דאטה
ה
דרישות:
דרישות תפקיד
2-4 שנות ניסיון בפיתוח פתרונות דאטה BI / data Product / data Analyst
ניסיון מעשי ב SQL ברמה גבוהה - חובה
ניסיון מעשי ב Python אוPySpark - חובה
הבנה טובה בפיתוח מודלים ו semantic layers ל Power BI - חובה
ניסיון בעבודה מול משתמשים עסקיים ואפיון צרכים - חובה
ניסיון מוכח ב Databricks - יתרון משמעותי
ניסיון בעבודה עם Microsoft Azure - - יתרון משמעותי
הבנה עסקית במוצרי צריכה FMCG - יתרון
אנגלית ברמה גבוהה - קריאה, כתיבה ודיבור
המשרה באור תעשיה חבל מודיעין, שוהם המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525307
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
מיקום המשרה: רחובות
סוג משרה: משרה מלאה
תכנון, פיתוח ותחזוקה של תהליכי ETL /ELT בהיקפים גדולים עבור נתוני חיישנים, וידאו ותמונות
פיתוח ואופטימיזציה של תהליכי עיבוד נתונים עבור מידע מובנה ולא-מובנה
תחזוקה ושדרוג של מסדי נתונים, data Lakes ומערכות אחסון
הבטחת איכות, אמינות וביצועי הנתונים לאורך כלל צנרת הדאטה
עבודה צמודה עם צוותי אלגוריתמאים, בינה מלאכותית, תוכנה והנדסת מערכת
תמיכה בתהליכי דאטה סיינס ולמידת מכונה כולל הכנת דאטה וחילוץ פיצ'רים
הובלת הכנסת טכנולוגיות חדשות, כלי דאטה וסטנדרטים מתקדמים
איתור ופתרון תקלות בסביבות עיבוד ואחסון
לקיחת Ownership מלאה על מערכות הדאטה והובלת שיפורים
דרישות:
תואר ראשון/שני במדעי המחשב, הנדסת מערכות מידע, הנדסת חשמל או תחום רלוונטי
ניסיון של 3+ שנים כ data Engineer בסביבות עתירות דאטה
ניסיון משמעותי בפיתוח תהליכי ETL
שליטה ב Python
ניסיון מעשי ב Apache Airflow או כלי Orchestration מקבילים
ניסיון עם מסדי נתונים SQL ו NoSQL
היכרות עם מסגרות עיבוד דאטה ושיטות עבודה יעילות
ניסיון בעבודה בסביבות Linux ותחזוקת שרתים
ניסיון בתמיכה ב data Science / Machine Learning - יתרון
חשיבה מערכתית, יכולות פתרון בעיות ויכולת עבודה עצמאית בצוות רבתחומי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8483720
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק מצוינת בתל אביב דרוש/ה data engineer מנוסה.
כחלק מהתפקיד, עבודה במקביל למספר צוותי פיתוח, צוות מגוון ואיכותי,
עבודה שתכלול הרבה מאוד פיתוח Python בשילוב טכנולוגיות דאטה מתקדמות
וכן עבודה מרובה מול מגוון בסיסי נתונים.
דרישות:
תואר ראשון טכנולוגי
רקע מפיתוח backend - יתרון אך לא חובה
ניסיון רב בפיתוח Python - חובה
ניסיון מעשי בתור data engineer - חובה
רקע בעבודה בטכנולוגיות data
אנגלית טובה מאוד
רמה אישית גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525179
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Ra'anana
Job Type: Full Time
We seek a skilled Senior Infra Backend Engineer to join our R&D office in Tel Aviv, working in a hybrid and flexible model.
Youll collaborate with a top-tier R&D team and take your professional growth to the next level. Our backend infra teams work mainly with Python and Go, but we welcome talented backend engineers from any language background.

Example Projects

Researching and running POCs of new technologies to select the optimal solution for system requirements.

Migrating massive amounts of user-level data into Iceberg, while keeping scale and cost efficiency in mind.

Designing and implementing a robust pipeline capable of ingesting billions of real-time events daily (hundreds of thousands per second).

Exploring and choosing database and streaming technologies to support a rapidly growing clientele base.

Leading the design and development of a new streaming ETL product with low memory footprint and efficient processing.


Key Responsibilities

Design and build scalable pipelines processing billions of events daily.

Dive deep into infra technologies and optimize them at scale.

Lead major efforts from idea initiation → design → implementation.

Tackle complex challenges in scalable architecture within our AWS environment.

Integrate and leverage top industry technologies such as Kafka, Iceberg, DynamoDB, Postgres, EMR, Kubernetes, Druid, Snowflake, and more.
Requirements:
5+ years of hands-on experience in backend development.

Extensive experience building scalable, high-performance systems.

Experience with AWS, Kubernetes, and large-scale environments is a plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8518662
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Job Type: Full Time and Hybrid work
A fast-growing fintech AI start-up company, focused on eliminating fraud and chargebacks in online commerce, is looking for an experienced Senior Data Engineer.
In this Roll, you will build large-scale, cutting-edge data solutions for fraud prevention, with the potential to grow into a technical leadership role.
The company is located in Modi'in, central Israel. Hybrid work model.
Responsibilities
Build and maintain scalable data pipelines and ETL processes.
Design complex data models and optimize data architecture.
Collaborate with teams to deliver high-quality, compliant solutions.
Troubleshoot production issues and implement best practices.
Recommend new technologies to enhance the data infrastructure.
Requirements:
Must Haves:
5+ years in data engineering with strong Python & software engineering skills
Extensive experience with cloud platforms (AWS, GCP, Azure) and cloud-native architectures
Deep knowledge of relational (PostgreSQL) and NoSQL databases
Experience designing and implementing data warehouses and data lakes
Strong understanding of data modeling techniques
Expertise in data manipulation libraries (e.g., Pandas) and big data frameworks
Experience with data validation tools (Pydantic, Great Expectations)
Proficiency in writing and maintaining unit and integration tests (e.g., Pytest)
Nice to Haves / Advantage:
Apache Iceberg, Apache Spark, or modern data stack tools (DBT, DuckDB, Dagster, Airflow, Prefect)
Backend system design: RESTful APIs, microservices, event-driven systems, RabbitMQ, Kafka
Containerization & IaC: Docker, Kubernetes, Terraform
Stream processing: Kafka, Flink
Knowledge of compliance (GDPR, CCPA)
Mentoring or leading small teams
Excellent communication and ability to explain technical concepts clearly
Relevant cloud or data certifications.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8518234
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Rishon Letsiyon
Job Type: Full Time
Were looking for an experienced Data Engineer to join our DEX Platform and help drive the next stage of our growth. In this role, youll design, build, and scale data infrastructure and advanced processing pipelines that power real-time insights and intelligent automation across our platform.
As a senior data engineer, youll own the full service lifecycle-from architecture and development to deployment, monitoring, and scaling-while ensuring data quality, reliability, and compliance. Youll work closely with backend, AI, and data teams to deliver robust, production-ready systems that support our AI-first strategy and our mission to make the workplace run itself.
Requirements:
5+ years of backend/data engineering experience
Proficiency with Java (Vert.x, Spring or similar) - a must
Hands-on experience with Kafka and streaming frameworks like Kafka Streams, Flink, Spark, or Beam - a must
Solid understanding of microservices architecture and cloud platforms (Azure/AWS/GCP)
Familiarity with AI-first development tools (GitHub Copilot, Cursor) - an advantage
Experience working in production-aware, observability-driven environments - monitoring troubleshooting, and optimizing
Knowledge of Postgres, Redis, MySQL or similar, Clickhouse
Experience in Node.js (NestJS/Express) - a big advantage
Strong foundation in object-oriented design, design patterns, and clean code practices
Comfortable designing, deploying, and maintaining backend services and data flows
Passion for learning, experimenting with new tech, and building reliable systems at scale
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8517958
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Haifa
Job Type: Full Time
we are looking for a Data Engineer.
This is a full-time, on-site role for a Data Engineer at WideOps Ltd., located in Haifa.
The Data Engineer will design, build, and maintain scalable data pipelines, implement robust Extract, Transform, Load (ETL) processes, and develop efficient data models to support business intelligence and data analytics needs.
The role also involves building and improving data warehousing solutions and collaborating with cross-functional teams to ensure data integrity and optimize workflows.
Requirements:
3+ years of experience as a Data Engineer
Strong hands-on experience with Google Cloud Platform
Advanced SQL (BigQuery performance, partitioning, clustering)
Strong Python (data pipelines, APIs, batch & streaming jobs)
Experience building batch and streaming pipelines
BigQuery
Dataflow / Apache Beam
Pub/Sub
Cloud Storage
Data modeling for analytics and ML use cases
Production troubleshooting, optimization, and cost awareness
ML & GenAI"
Experience supporting ML pipelines (training, inference, feature prep)
Hands-on with at least one of:
Vertex AI
Feature stores
Model inference pipelines
Experience working with LLM-based systems, including:
Embeddings generation
Vector databases / similarity search
RAG-style pipelines
Ability to prepare, version, and serve data for GenAI / ML workloads
Platform & Engineering:
Experience with Airflow / Cloud Composer or equivalent orchestration
CI/CD pipelines for data & ML workloads
Infrastructure-as-code familiarity (Terraform preferred)
Understanding of IAM, data security, and access controls on GCP
Nice to Have:
Experience with FinOps / cost optimization
Experience with real-time ML or low-latency inference
Experience with monitoring & observability for data/ML pipelines
Google Cloud certifications (Data Engineer / Architect)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8516690
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Jerusalem
Job Type: Full Time and Temporary
We are seeking a skilled and motivated Data Engineer to join our dynamic team. The ideal candidate will have extensive experience in building and optimizing data pipelines, handling large datasets, and working within cloud-based and on-premise environments.
You will be responsible for designing and implementing efficient, scalable solutions to manage, process, and analyze high volumes of data, ensuring the reliability and performance of our data infrastructure.
What will your job look like:
Design, build, and maintain scalable data pipelines to process large datasets efficiently
Develop and implement data models and architectures that support both real-time and batch data processing
Ensure data integrity, security, and accuracy across all systems
Collaborate with data scientists, analysts, and other engineers to ensure data availability and quality
Optimize data retrieval and storage processes to handle large volumes of data seamlessly
Work with structured, semi-structured, and unstructured data, integrating various data sources
Troubleshoot and resolve data issues, ensuring continuous operation of the data infrastructure
Maintain and enhance ETL processes, ensuring scalability and performance in handling large datasets
Stay up-to-date with industry best practices and emerging technologies related to big data engineering
Requirements:
Bachelors degree in Computer Science, Engineering, or a related field
At least 4 years experience in data engineering, with a focus on large-scale data processing and big data technologies
Strong proficiency in Python
Experience with data pipeline and workflow management tools
Hands-on experience with large-scale data processing frameworks like Apache Spark, Hadoop, or similar
Familiarity with data modeling, ETL processes, and data warehousing concepts like Table formats. Apache Iceberg, or similar
Good knowledge of relational databases (e.g., PostgreSQL, MySQL) and NoSQL databases (e.g., Cassandra, MongoDB)
Experience with AWS-based data lakes, including working with Amazon S3 for storage, querying data using Amazon Athena, and managing datasets stored in Parquet format
Significant ownership ability
Nice to have:
Knowledge of machine learning frameworks and integrating data pipelines for model training and deployment
Experience with version control systems (e.g., Git), CI/CD pipelines, and automation tools
Experience with containerization (Docker, Kubernetes)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8516430
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Jerusalem
Job Type: Full Time
We are looking for a Data Engineer to join our Object Detection group and play a key role in managing and enabling data workflows that power our computer vision algorithms. Our team generates and processes large volumes of diverse data from multiple sources, and we need someone who can bridge the gap between raw data and algorithmic innovation.
Working alongside algorithm developers and researchers, you'll be responsible for building robust data pipelines, ensuring data quality, and making complex datasets accessible and actionable for our detection models.
This role requires both strong coding abilities and a deep understanding of data - you'll need to think like an engineer while understanding the unique needs of a research and development-focused algorithmic group.
What will your job look like:
Work on large-scale systems handling diverse data from multiple sources
Build and maintain robust data pipelines that enable algorithmic development
Evaluate various optional technologies and take part in decision-making
Own key features and services within the data infrastructure
Ensure data quality and accessibility for detection models and research needs
Work onsite in Jerusalem at least 3 days a week
Requirements:
BSc. in Computer Science or equivalent - must
3+ years of software development experience
Strong skills in Python and data-related libraries
Solid understanding of data structures and workflows
Experience with databases (SQL/NoSQL)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8515988
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a talented Data Engineer to join our Data team and spread our power. The Data team develops and maintains the infrastructure for internal data and product analytics. We are looking for data enthusiasts, independent, logical thinkers with a can-do approach and a passion for problem-solving. We run a SaaS-based stack using BigQuery, Snowflake and dbt.
WHAT YOU'LL DO
Design, build, and maintain data pipelines, datasets and catalogs for fast-growing products and business groups.
Develop self-service data analytics solutions and infrastructure.
Support ad hoc needs and requests of internal stakeholders.
Collaborate with analysts, engineers, and internal customers from Product, Finance, Revenue, and Marketing.
Requirements:
Bachelors or Masters degree in a relevant technical field, or equivalent hands-on experience in software development or DevOps.
3+ years of experience working as a Data Engineer, including end-to-end designing, orchestrating, and building cloud-based data pipelines (e.g., Airflow, Prefect, Dagster).
3+ years of experience with dimensional data modeling and data warehouse implementation, specifically MPP databases like BigQuery, Snowflake, and Redshift.
Strong knowledge of Python and Python-based data analysis tools such as Jupyter Notebooks and pandas.
Strong SQL writing skills. Ability to write highly performant queries.
Strong track record of executing projects independently in dynamic environments.
Fast understanding of data and business needs and ability to translate them into data models.
Team player with excellent communication skills.
Containerization (Docker): Essential for reproducible environments.
Knowledge of software engineering best practices: CI/CD concepts, code reviews, and unit testing.
ADVANTAGE
Production-level experience with dbt, including project design, transformation, testing, and documentation.
Infrastructure-as-Code (Terraform): Managing cloud resources (S3 buckets, IAM roles) via code.
CI/CD pipelines (GitHub Actions/Jenkins): Automating the testing and deployment of data models.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8515929
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ramat Gan
Job Type: Full Time
Were looking for a Senior Data Engineer to lead the architecture and development of large-scale, production-grade data pipelines supporting ML inference systems.
What will your job look like:
Architect and own end-to-end data pipelines for large-scale model inference
Design high-throughput, scalable data streaming to the cloud
Integrate data conversion into data collection and inference pipelines
Drive performance, scalability, and reliability across distributed systems
Partner with ML, platform, and infrastructure teams
Requirements:
5+ years of experience as a Data Engineer in production environments
Strong Python expertise
Hands-on experience with Spark, Polars, Pandas, DuckDB, AWS
Proven experience designing distributed data architectures
Strong understanding of data performance, I/O, and scalability
Experience working with ML or inference pipelines
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8515746
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a Principal Data Engineer to join our Engineering team. This is a hybrid role based in Israel, reporting to the Senior Manager, Software Development Engineering. You will play a key role in designing, building, and maintaining the data pipelines that fuel business insights for the worlds largest cloud security platform. You will bring vision and passion to a team of experts enabling organizations worldwide to harness speed and agility through a cloud-first strategy.
What youll do (Role Expectations):
Design, develop, and implement scalable resilient data pipelines using Apache Spark, Databricks, and Delta Lake
Lead projects end-to-end through implementation, testing, deployment, and monitoring while collaborating with engineering teams across the organization
Research and investigate new SaaS platforms and APIs to uncover opportunities for new security detections
Optimize data infrastructure to ensure smooth operation, performance efficiency, and data integrity throughout the data lifecycle
Act as a force multiplier by mentoring senior engineers and setting high technical standards across the team.
Requirements:
Who You Are (Success Profile):
You thrive in ambiguity. You're comfortable building the path as you walk it. You thrive in a dynamic environment, seeing ambiguity not as a hindrance, but as the raw material to build something meaningful.
You act like an owner. Your passion for the mission fuels your bias for action. You operate with integrity because you genuinely care about the outcome. True ownership involves leveraging dynamic range: the ability to navigate seamlessly between high-level strategy and hands-on execution.
You are a problem-solver. You love running towards the challenges because you are laser-focused on finding the solution, knowing that solving the hard problems delivers the biggest impact.
You are a high-trust collaborator. You are ambitious for the team, not just yourself. You embrace our challenge culture by giving and receiving ongoing feedback-knowing that candor delivered with clarity and respect is the truest form of teamwork and the fastest way to earn trust.
You are a learner. You have a true growth mindset and are obsessed with your own development, actively seeking feedback to become a better partner and a stronger teammate. You love what you do and you do it with purpose.
What Were Looking for (Minimum Qualifications):
7+ years of experience in data engineering with a proven track record of designing and building large-scale data systems
Demonstrated mastery of Apache Spark (PySpark preferred) and a deep architectural understanding of distributed data processing frameworks
Expert-level proficiency in SQL, data modeling, and the principles of modern data warehousing and data lake architecture
What Will Make You Stand Out (Preferred Qualifications):
Direct experience working in cybersecurity, threat intelligence, or a related security-focused domain
Proven experience building production-grade data solutions specifically using Databricks
A security-first mindset and a strong curiosity for understanding how systems can be monitored and secured.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8515641
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/01/2026
Location: Herzliya
Job Type: Full Time
were looking for skilled professionals to help shape our data platform and drive the next generation of trading technology.

In this role you will:
Design, implement, and maintain scalable data pipelines using Python and orchestration tools like Apache Airflow.

Take a leading role in evaluating and selecting foundational components of our data stack (e.g., Databricks vs. Snowflake).

Architect and optimize data workflows across AWS and on-premise environments.

Work with modern file formats (Iceberg, Parquet, ORC) and understand their trade-offs for performance, cost, and scalability.

Collaborate with analysts, engineers, and stakeholders to provide accessible and reliable datasets.

Help assess and implement frameworks such as DBT for data transformation and modeling.

Develop best practices and internal standards for data engineering, monitoring, and testing.

Contribute to the long-term vision and roadmap of Fin-on-exs data infrastructure.
Requirements:
5+ years of hands-on experience as a Data Engineer or similar role.

Strong proficiency in Python for data processing and workflow automation.

Experience with Apache Airflow (managed or self-hosted).

Experience with Data Platform (e.g. snowflake, databricks).

Solid understanding of data lake and table formats like Iceberg, Parquet, Delta Lake, and their use cases.

Familiarity with big data processing (e.g., Apache Spark) and query engines (e.g., Trino).

Experience working in AWS environments, and comfort with hybrid cloud/on-premise infrastructure.

Proven ability to work independently, drive decisions, and evaluate technologies with minimal oversight.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8514476
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are Crafting Tomorrow's Retail Experience
We started with a simple question: How can vision AI make shopping better for everyone? Today, our team of passionate experts is transforming how people shop and how retailers operate, one store at a time.
Our goal is to solve real retail challenges by developing advanced computer vision AI that prevents loss, enables grab-and-go shopping, and turns store data into valuable insights, all while delivering clear value from day one.
With multiple global deployments, deep partnerships with leading retailers, and a product suite thats proving its impact every day, our company isnt just imagining the future of retail, were building it.
We are looking for a Data Engineer to join our Customer Performance team and help shape the foundation of our companys data platform.
You will own the data layer, evolve our BI semantic layer on a modern BI platform, and enable teams across the company to access and trust their data. Working closely with analysts and stakeholders in Operations, Product, R&D, and Customer Success, youll turn complex data into insights that drive performance and customer value.
A day in the life
Build and expand our companys analytics data stack
Design and maintain curated data models that power self-service analytics and dashboards
Develop and own the BI semantic layer on a modern BI platform
Collaborate with analysts to define core metrics, KPIs, and shared business logic
Partner with Operations, R&D, Product, and Customer Success teams to translate business questions into scalable data solutions
Ensure data quality, observability, and documentation across datasets and pipelines
Support complex investigations and ad-hoc analyses that drive customer and operational excellence.
Requirements:
6+ years of experience as a Data Engineer, Analytics Engineer, or similar hands-on data role
Strong command of SQL and proficiency in Python for data modeling and transformation
Experience with modern data tools such as dbt, BigQuery, and Airflow (or similar)
Proven ability to design clean, scalable, and analytics-ready data models
Familiarity with BI modeling and metric standardization concepts
Experience partnering with analysts and stakeholders to deliver practical data solutions
A pragmatic, problem-solving mindset and ownership of data quality and reliability
Excellent communication skills and ability to connect technical work with business impact
Nice to have
Experience implementing or managing BI tools such as Tableau, Looker, or Hex
Understanding of retail, computer vision, or hardware data environments
Exposure to time-series data, anomaly detection, or performance monitoring
Interest in shaping a growing data organization and influencing its direction.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8514427
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/01/2026
Location: Petah Tikva
Job Type: Full Time
Our team is responsible for the data and data infrastructure that processes billions of records daily, driving critical business insights for both internal and external customers across the organization.
Our Data team consists of highly skilled senior software and data professionals who collaborate to solve complex data challenges. We process billions of records daily from multiple sources using diverse infra and multi-stage pipelines with intricate data structures and advanced queries, and complex BI.
A bit about our infrastructure. Our main databases are Snowflake, Iceberg on AWS, and Trino. Spark on EMR processes the huge influx of data. Airflow does most of the ETL.
The data we deliver drives insights both for internal and external customers. Our internal customers use it routinely for decision-making across the organization, such enhancing our product offerings.
What Youll Do
Build, maintain, and optimize data infrastructure.
Contribute to the evolution of our AWS-based infrastructure.
Work with database technologies - Snowflake, Iceberg, Trino, Athena, and Glue.
Utilize Airflow, Spark, Kubernetes, ArgoCD and AWS.
Provide AI tools to ease data access for our customers.
Integrate external tools such as for anomaly detection or data sources ingestion.
Use AI to accelerate your development.
Assures the quality of the infra by employed QA automation methods.
Requirements:
5+ years of experience as a Data Engineer, or Backend Developer.
Experience with Big Data and cloud-based environments, preferably AWS.
Experience with Spark and Airflow.
Experience with Snowflake, Databrick, BigQuery or Iceberg.
Strong development experience in Python.
Knowledge of Scala for Spark is a plus.
A team player that care about the team, the service, and his customers
Strong analytical skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8514322
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/01/2026
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
מפתח/ת אינטגרציה Hands-On לצוות טכנולוגיות ודיגיטל, לפיתוח ותחזוקת ממשקי API (REST/SOAP) ותהליכי data בין מערכות ליבה, מערכות חיצוניות ו- BI, כולל עבודה עם SQL, CI/CD וסטנדרטים מעולם הבריאות.
תל אביב.
קו"ח למייל. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8513265
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Operate and debug object store-backed data lake infrastructure, enabling schema-on-read access, high-throughput ingestion, advanced searching strategies, and performance tuning for large-scale workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8512434
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
21/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Your Mission As a Senior Data Engineer, your mission is to build the scalable, reliable data foundation that empowers us to make data-driven decisions. You will serve as a bridge between complex business needs and technical implementation, translating raw data into high-value assets. You will own the entire data lifecycle-from ingestion to insight-ensuring that our analytics infrastructure scales as fast as our business.

Key Responsibilities:
Strategic Data Modeling: Translate complex business requirements into efficient, scalable data models and schemas. You will design the logic that turns raw events into actionable business intelligence.
Pipeline Architecture: Design, implement, and maintain resilient data pipelines that serve multiple business domains. You will ensure data flows reliably, securely, and with low latency across our ecosystem.
End-to-End Ownership: Own the data development lifecycle completely-from architectural design and testing to deployment, maintenance, and observability.
Cross-Functional Partnership: Partner closely with Data Analysts, Data Scientists, and Software Engineers to deliver end-to-end data solutions.
Requirements:
What You Bring:
Your Mindset:
Data as a Product: You treat data pipelines and tables with the same rigor as production APIs-reliability, versioning, and uptime matter to you.
Business Acumen: You dont just move data; you understand the business questions behind the query and design solutions that provide answers.
Builders Spirit: You work independently to balance functional needs with non-functional requirements (scale, cost, performance).
Your Experience & Qualifications:
Must Haves:
6+ years of experience as a Data Engineer, BI Developer, or similar role.
Modern Data Stack: Strong hands-on experience with DBT, Snowflake, Databricks, and orchestration tools like Airflow.
SQL & Modeling: Strong proficiency in SQL and deep understanding of data warehousing concepts (Star schema, Snowflake schema).
Data Modeling: Proven experience in data modeling and business logic design for complex domains-building models that are efficient and maintainable.
Modern Workflow: Proven experience leveraging AI assistants to accelerate data engineering tasks.
Bachelors degree in Computer Science, Industrial Engineering, Mathematics, or an equivalent analytical discipline.
Preferred / Bonus:
Cloud Data Warehouses: Experience with BigQuery or Redshift.
Coding Skills: Proficiency in Python for data processing and automation.
Big Data Tech: Familiarity with Spark, Kubernetes, Docker.
BI Integration: Experience serving data to BI tools such as Looker, Tableau, or Superset.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8511741
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו