רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 22 שעות
דרושים בפרוסיד
אנחנו ב-Proceed מחפשים ארכיטקט/ית data AI לתפקיד בכיר ומשמעותי, עם אחריות על עיצוב והובלת פתרונות דאטה ו-AI עבור לקוחות אנטרפרייז מהמובילים במשק.
התפקיד מתאים למי שמביא/ה עומק טכנולוגי אמיתי, חשיבה עסקית ויכולת להוביל פתרונות מורכבים מקצה לקצה.

במסגרת התפקיד:

הובלת ארכיטקטורת data AI מבוססת AWS
תכנון והקמה של פלטפורמות דאטה מודרניות בענן
הובלת פרויקטי AI ו-GenAI משלב ה-Design ועד יישום בפועל
בנייה והובלה של data Pipelines ותהליכי ETL /ELT
עבודה עם מחסני נתונים מודרניים בענן
תרגום צרכים עסקיים לפתרונות טכנולוגיים
הצגת פתרונות ללקוחות, מנהלים ו-Stakeholders
עבודה מול לקוחות אנטרפרייז וארגונים גדולים ומורכבים
דרישות:
דרישות מרכזיות:
ניסיון משמעותי כארכיטקט/ית data / AI / Cloud או data Engineer בכיר/ה- חובה
מומחיות Hands-on בסביבת AWS- חובה
ניסיון מעשי בהקמת פרויקטי data - חובה
ניסיון בתכנון data Platforms וארכיטקטורות דאטה מודרניות- חובה
ניסיון עם data Pipelines, ETL /ELT ומחסני נתונים בענן- חובה
שליטה טובה ב-SQL ו- Python - חובה
יכולת הצגת נושאים טכנולוגיים וחשיבה עסקית- יתרון משמעותי
יכולת עבודה מול לקוחות אנטרפרייז / ארגונים גדולים- יתרון

מי אנחנו מחפשים?
איש מקצוע בכיר/ה עם שילוב של עומק טכנולוגי, ראייה ארכיטקטונית ויכולת עסקית. מישהו/י שיודע/ת לקחת צורך מורכב, לבנות סביבו פתרון נכון ולהוביל אותו מול לקוחות גדולים, ממשקים מרובים וסביבה טכנולוגית מתקדמת. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8637952
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בהמרכז הרפואי תל אביב (איכילוב)
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
אגף מערכות מידע מגייס data Engineer עם רקע חזק בעולמות ה- BI, להצטרפות לצוות דאטה מרכזי העוסק בהקמה והובלה של פלטפורמת נתונים מודרנית.
התפקיד כולל עבודה על דאטה קליני ותפעולי בהיקפים גדולים, תוך שילוב בין עולמות DWH קלאסיים לבין ארכיטקטורות data Lake / Lakehouse מתקדמות.

במסגרת התפקיד:
תכנון והקמה של data Pipelines מקצה לקצה עבור דאטה רפואי ותפעולי
פיתוח מודלים אנליטיים ( data Modeling) לתמיכה בקבלת החלטות קליניות ועסקיות
עבודה עם data Lake / Lakehouse לניהול נתונים בהיקפים גדולים
אינטגרציה של מקורות מידע מגוונים (מערכות רפואיות, מערכות תפעוליות, APIs)
שיפור data Quality, ניטור תהליכים והתמודדות עם data Gaps (חוסרים, עיכובים, טעויות)
עבודה צמודה עם אנליסטים, חוקרים, צוותי BI וגורמים קליניים
הובלת Best Practices בתחום ניהול נתונים בארגון
דרישות:
דרישות חובה
ניסיון של 3+ שנים כ- BI Developer או data Engineer
שליטה גבוהה ב-SQL וניסיון מוכח ב- data Modeling (Star Schema / Snowflake)
ניסיון בפיתוח תהליכי ETL /ELT מורכבים
ניסיון בעבודה עם Python (או שפה דומה)
הבנה מעמיקה של DWH קלאסי
ניסיון בעבודה עם סביבת Microsoft ( SQL server / Power BI )

יתרון משמעותי
ניסיון עם כלים מודרניים כגון: dbt Apache Airflow Airbyte Trino
ניסיון בעבודה עם Object Storage (כגון Amazon S3) ו- data Lake
היכרות עם Apache Iceberg
ניסיון בארכיטקטורת data Lakehouse
ניסיון בעבודה עם דאטה רפואי / קליני (EMR / EHR)
היכרות עם תקני מידע רפואיים (HL7 / FHIR)
ניסיון בעבודה בסביבות ענן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8632501
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בOne DatAI
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
A leading company is looking for a Mid-Senior BI Developer to join a strong and dynamic BI team.


The team is responsible for delivering end-to-end BI solutions across the organization, transforming data into actionable insights and enabling data -driven decision-making at scale.


This role involves working with a wide range of technologies in both Cloud and On-Prem environments, supporting thousands of users.

?? Responsibilities

* Lead end-to-end BI projects - from business requirements gathering, through design and ETL / data preparation, to dashboard development, testing, and deployment
* Work in a hybrid environment combining Cloud and On-Prem tools and services
* Develop using tools such as Power BI, Qlik (View & Sense), Power Apps, and Semantic Layers
* Collaborate closely with business stakeholders to translate requirements into data models, reports, dashboards, and KPI's
Requirements:
?? Requirements


* B.Sc in Computer Science, Industrial Engineering, Information Systems, or a related field
* 4+ years of hands-on experience in BI development (including ETL and dashboard development)
* Strong experience with Power BI - (Must)
* Expert-level SQL - Must
* Experience working with data Warehouses ( DWH ) - Must


?


? Advantages


* Experience with Qlik
* Experience with Cloud environments
* Experience with ETL tools
* Knowledge of Python and/or Splunk
* Experience working with Agile methodologies
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8639916
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
ארגון רפואי באזור המרכז מגייס data Engineering Tech Lead
התפקיד כולל: עבודה עם פלטפורמות data & AI מתקדמות, הובלה מקצה לקצה של יישום Databricks, פיתוח תשתיות data Pipelines לסביבת Production, בניית Frameworks ותשתיות reusable עבור צוותי data ו-Analytics, הגדרת Best Practices ו-Design Patterns, הובלה מקצועית והכוונת צוותים, אחריות על תהליכי CI/CD, DevOps, ניהול עלויות בסביבת ענן ועוד.
דרישות:
- 3 שנות ניסיון עם Databricks ו-Apache Spark
- ניסיון Hands-on בפיתוח תשתיות data לצד הובלה טכנולוגית
- ניסיון עם Apache Spark כולל Performance Tuning ועבודה בסביבות
Production
- ניסיון בעבודה עם סביבות ענן Azure / AWS ותהליכי CI/CD
- תואר רלוונטי - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8638940
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
חברה חסויה
Location: Tel Aviv-Yafo
e are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive - someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.

This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
3-5 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch - including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS/AZURE based data technologies.
Experience in building and maintaining advanced data pipelines from various data sources.
Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams - including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI,
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8526604
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בTechTalent
ארגון מוצר מתקדם מעולמות ה-Fintech מגייס data Engineer בכיר/ה להשתלבות במערך טכנולוגי מוביל.
הזדמנות לקחת חלק בפיתוח פתרונות data מתקדמים בסביבה חדשנית ובקבוצה מקצועית בחזית הטכנולוגיה.

תחומי אחריות:
תכנון ובנייה של פתרונות data מתקדמים
עבודה Hands-on בפיתוח באמצעות Python
שימוש והטמעה של תהליכי data Pipelines תוך עבודה עם Airflow
עבודה עם כלים מתקדמים בעולמות ה- data
שיתוף פעולה עם ממשקים טכנולוגיים כחלק מצוות מוביל
דרישות:
תואר ראשון בתחום טכנולוגי
לפחות 6 שנות ניסיון בעולמות ה- data
ניסיון מעשי בפיתוח ב- Python
ניסיון בעבודה עם Airflow
ניסיון בכלי data נוספים
אנגלית ברמה גבוהה מאוד
רקע קודם בפיתוח backend - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.
This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
35 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS-based data technologies.

Experience in building and maintaining advanced data pipelines from various data sources.

Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI, Tableau.
Experience with scripting/coding languages such as Python.
Ability to work independently, with attention to detail and strong initiative.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8629743
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We're hiring a data Engineering Tech Lead to lead and scale our Azure-based data platform while managing a team of 5 data engineers in an Agile environment.
This role combines hands-on development (~50%) with technical leadership. You will own a modern data platform built on Azure (Synapse, data Factory) and support enterprise BI solutions based on Qlik (QlikView, Qlik Sense, NPrinting) - ensuring reliable, scalable, and business-ready data across the organization. 

Lead, mentor, and grow a team of 5 data engineers in an Agile (Scrum/Kanban) environment
Own the architecture of an Azure-based data platform (Synapse, data Factory)
Design and build ETL /ELT pipelines using Azure data Factory
Manage Agile ceremonies (sprint planning, standups, retrospectives) and delivery cadence
Define and prioritize backlog in collaboration with stakeholders
Requirements:
7+ years of experience in data engineering
2+ years of leadership / tech lead experience in Agile teams
Strong hands-on experience with: Azure Synapse Analytics, Azure data Factory (ADF)
Proven experience working in Agile methodologies (Scrum / Kanban)
Deep SQL expertise and experience in data modeling for BI tools
Proven experience supporting Qlik environments (QlikView / Qlik Sense)
Experience designing scalable cloud-based data architectures on Azure
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8630662
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בNishapro
סוג משרה: משרה מלאה
דרוש/ה טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -

בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה - חובה.

שליטה ב- Python - חובה.

ניסיון בעבודה עם בסיסי נתונים (SQL) - חובה.

הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים


מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית

יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות

גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519703
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בבינת תקשורת מחשבים
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
תנאים נוספים:קרן השתלמות
אנו מחפשים איש data מנוסה להצטרפות לצוות הדאטה שלנו, להובלה של פיתוח, תפעול ואופטימיזציה של פלטפורמות נתונים מתקדמות.
התפקיד כולל עבודה עם מחסני נתונים, תהליכי עיבוד נתונים מורכבים, ופלטפורמות מבוססות קונטיינרים.

תחומי אחריות:
- תכנון, פיתוח ותחזוקה של תשתיות data ו- data Pipelines.
- עבודה עם מחסני נתונים גדולים וביצוע אופטימיזציה לשאילתות וביצועים.
- עבודה עם פלטפורמות data מבוססות Kubernetes כגון VMware Tanzu.
- עבודה עם מערכות data Warehouse כגון Greenplum Database.
- פיתוח תהליכי ETL /ELT ועבודה עם נתונים בהיקפים גדולים.
- שיתוף פעולה עם צוותי פיתוח, אנליטיקה ו- DevOps.
דרישות:
- סיווג ביטחוני (רמה 3 לפחות).
- ניסיון של 5+ שנים בתפקידי data Engineer / data Platform.
- ניסיון בעבודה עם SQL ברמה גבוהה.
- ניסיון עם data Warehouses.
- ניסיון עם Kubernetes או פלטפורמות מבוססות קונטיינרים.
- ניסיון בפיתוח pipelines לעיבוד נתונים.

יתרון משמעותי:
- ניסיון עם VMware Tanzu.
- ניסיון עם Greenplum Database.
- ניסיון עם Spark / Airflow / Kafka.
- ניסיון עם ענן (AWS / GCP / Azure).
- ניסיון בעבודה עם data Lake.
- ניסיון בסביבות air gapped.

המשרה פונה לנשים וגברים כאחד. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8630409
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
ארגון ממשלתי באזור המרכז מגייס אנליסט/ית נתונים
התפקיד כולל: עבודה עם עיבוד והסבת קבצי CAD ו-GIS למאגרי תשתיות לאומיות, פיתוח סקריפטים ב- Python להסבות נתונים חצי אוטומטיות ואוטומטיות, ביצוע בקרות איכות, ניתוח וקליטת מידע ממקורות מגוונים לבסיסי נתונים ועבודה בצוות רב-תחומי לשיפור תהליכי עבודה ועוד.
דרישות:
- שנתיים ניסיון כאנליסט/ית נתונים
- ניסיון בעבודה עם מערכות GIS כגגון: ArcGIS, ArcPro, QGIS
- ניסיון בעבודה עם בסיסי נתונים SQL / NoSQL
- ניסיון בפיתוח Python בסביבת GIS
- יכולת ניתוח נתונים והבנה של מפרטי מיפוי וקליטת נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8624729
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Engineer.
As a Data Engineer, you will provide data-driven decision making support for ' merchants. You will deliver an improved understanding of the merchants metrics and improve service and customer satisfaction.
Youll work closely with various teams, including Analytics & Research, Finance, Account Management, and Product Management.
What You'll Be Doing:
Work with various teams to define key metrics (KPIs) and provide the methodologies to accurately measure performance
Create new ETL processes and optimize existing ones
Create smart, innovative and effective visualization methods, and promote engagement and implementation of them
Requirements:
Bachelors Degree in Science/Data Systems Management/Industrial Engineering and Management
3+ years of experience as a Data Engineer - must
Experience with SQL - must
Experience with BI tools such as Tableau, Looker or similar - must
Knowledge in data modeling and DWH design - must
Experience in developing ETL processes - must
Experience with business requirements gathering - must
Experience with scripting languages - an advantage
Good comprehension of data, and how to tell the story behind it
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8642045
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Data Engineer to join our Data Labs (DL) department, which specializes in professional services for our super-premium customers. This role will report to our DL (Datalabs) Data Science Team Manager in the R&D.
So, what will you be doing all day?
Building and maintaining our big-data pipelines
Take a major part in designing and implementing complex high-scale systems using a large variety of technologies
Be part of a team with smart and motivated engineers, and data scientists, to collaborate on the planning, development, and maintenance of our products
Implement solutions in the AWS cloud environment, and work in Databricks with PySpark
Requirements:
Holds a BSc degree in Computer Science or equivalent practical experience.
You love building robust, fault-tolerant, and scalable systems and products
You are a go-getter and a team player with a sense of ownership.
Has at least 3+ years of server-side software development experience in one or more general-purpose programming languages (C#, Go, Python, etc.)
Experience building large-scale web APIs: advantage for working with Microservices architecture, AWS, and databases (Redis, PostgreSQL, Firebolt)
Familiarity with Big Data technologies: A familiarity with Spark, Databricks, and Airflow is a big advantage.
Worked in a cloud environment such as AWS or GCP, and is familiar with its different services.
Familiarity with ML pipelines and applications
Familiarity with LLM tools and frameworks
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8641955
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Senior Analytics Engineer.
On a day-to-day basis, we transform raw data into clean, structured models using tools like SQL, Python, and dbt. We build and maintain modern BI platforms, develop reporting systems, and design AI-driven analytics that surface valuable insights quickly and reliably.
Our team is hands-on with building reusable metrics, defining source-of-truth data models, and ensuring consistency through a strong semantic layer. Whether were shipping a new dashboard, debugging a dbt model, or refining how a metric is defined across the business, our focus is always on clarity, scalability, and enabling smarter, faster decisions.
Requirements:
Strong proficiency in SQL with hands-on experience building data pipelines (4+ years)
Experience with modeling data using dbt or similar tools.
Proficiency in Python
Solid grasp of software engineering best practices, including query optimization, version control (e.g. Git), code reviews, and documentation.
Analytical mindset with strong problem-solving skills, the ability to manage multiple priorities independently and a proactive approach to improving data processes and tools.
Comfortable in a fast-paced, cross-functional environment; able to collaborate with teams across Product, BizOps, and Marketing.

This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8641859
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Backend Engineer to join our MLOps team and help build the infrastructure that powers cutting-edge AI models.
In this role, youll manage the end-to-end MLOps lifecycle, designing event-driven systems that handle massive video data and moving compute-intensive, generative models from research to production.
You'll collaborate closely with AI researchers and video-processing teams to ensure our AI services are scalable, reliable, and performant.
Requirements:
6+ years of production-grade Python development experience.
Strong background in distributed systems: Youve built and debugged complex, event-driven architectures (e.g., Kafka, microservices).
Expertise in Data Engineering at scale: Experience building massive data pipelines and architecting Data Lakes (S3) with compute layers like Athena for large-scale analysis.
Deep understanding of the MLOps lifecycle: Experience taking models from training to deployment, including versioning and performance monitoring.
Experience with containerized environments, microservices, and Kubernetes.
Experience with workflow management frameworks (Temporal, Airflow) and asynchronous programming.
Experience with cloud platforms (AWS preferred) and model-serving frameworks (Triton, VLLM/SGLang, Ray Serve).
A love for exploring new tech and the drive to implement modern frameworks that move the needle.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8641560
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a strong, hands-on Data Engineer to join our team and play a key role in building our data infrastructure from the ground up. In this role, you will design and implement scalable data pipelines and platforms, supporting both batch and real-time use cases. You will work closely with analysts and stakeholders to deliver reliable, high-quality data solutions, and take full ownership of data flows - from ingestion to consumption. This is a great opportunity for an executor who enjoys building, moving fast, and making an impact.
What will your job look like?
Design, build, and maintain robust and scalable data pipelines (batch and real-time) end-to-end.
Design and implement scalable, flexible data architectures to support evolving business needs.
Build and manage data platforms, including data lakes and data warehouses.
Integrate multiple data sources (structured and unstructured) into a unified data platform using batch (ETL) and real-time streaming solutions.
Design and implement efficient data models, schemas, and database structures (SQL / NoSQL).
Develop and implement data quality processes to ensure accuracy, consistency, and reliability.
Monitor, optimize, and troubleshoot data infrastructure to meet performance and SLA requirements.
Requirements:
5+ years of hands-on experience as a Data Engineer, building data systems from scratch in dynamic environments.
Bachelors degree in Computer Science, Engineering, or a related field (or equivalent practical experience).
Strong proficiency in Python and advanced SQL, with solid experience in data modeling.
Proven experience designing and building scalable data pipelines (batch and real-time), including streaming technologies such as Kafka.
Strong experience working with AWS, including services such as S3, Athena and DynamoDB.
Experience working with big data processing frameworks such as Spark, and columnar data formats (e.g., Parquet).
Hands-on experience with workflow orchestration tools such as Airflow.
Strong ownership and execution mindset, with excellent problem-solving skills and high attention to detail, and the ability to collaborate effectively and deliver in ambiguous, fast-paced environments.
Experience with data platform technologies such as Databricks, Snowflake - Advantage.
Experience building data platforms using modern lakehouse technologies (e.g., Iceberg) - Advantage.
Fluent in English.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636352
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We're hiring a Data Engineer to join our growing team of analytics experts in order to help & lead the build-out of our data integration and pipeline processes, tools and platform.
The ideal candidate is an experienced data pipeline builder and data wrangler who enjoys optimizing data systems and building them from the ground up.
The right candidate must be self-directed and comfortable supporting the data needs of multiple teams, systems and products. The right candidate will be excited by the prospect of optimizing or even re-designing our companys data architecture to support our next generation of products and data initiatives.
In this role, you will be responsible for:
Create ELT/Streaming processes and SQL queries to bring data to/from the data warehouse and other data sources.
Establish scalable, efficient, automated processes for large-scale data analyses.
Support the development of performance dashboards & data sets that will generate the right insight.
Work with business owners and partners to build data sets that answer their specific business questions.
Collaborates with analytics and business teams to improve data models that feed business intelligence tools, increasing data accessibility and fostering data-driven decision-making across the organization.
Works closely with all business units and engineering teams to develop a strategy for long-term data platform architecture.
Own the data lake pipelines, maintenance, improvements and schema.
Requirements:
BS or MS degree in Computer Science or a related technical field.
3-4 years of Python / Java development experience.
3-4 years of experience as a Data Engineer or in a similar role (BI developer).
3-4 years of direct experience with SQL (No-SQL is a plus), data modeling, data warehousing, and building ELT/ETL pipelines - MUST
Experience working with cloud environments (AWS preferred) and big data technologies (EMR,EC2, S3 ) - DBT is an advantage.
Experience working with Airflow - big advantage
Experience working with Kubernetes - advantage
Experience working with at least in one of the big data environments: Snowflake, Vertica, Hadoop (Impala/Hive), Redshift etc - MUST
Experience working with Spark - advantage
Exceptional troubleshooting and problem-solving abilities.
Excellent verbal/written communication & data presentation skills
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636139
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Staff Data Platform Engineer to join our Engineering team and lead the evolution of our next-generation data platform. In this high-impact role, you will operate as a player-coach: you will be the technical visionary responsible for designing the ecosystem, while remaining deeply hands-on to implement scalable, secure, and intelligent solutions that power everything from operational reporting to advanced GenAI applications.
You will bridge the gap between complex business requirements and technical execution, advocating for a data-first culture. This role offers a clear growth path: while it currently starts as an individual contributor position, it has the potential to evolve into a leadership role.
About the Role:
Architecture & Hands-on Execution: Design and actively build a comprehensive data platform. You will not just oversee infrastructure; you will write the core code and build tools that support diverse workloads-from operational reporting to complex analytical queries.
Strategic & Technical Delivery: Partner with product managers to translate business objectives into technical strategies, then lead the engineering effort to deliver them.
Technology Evaluation: Continuously evaluate, prototype, and select best-in-class technologies to future-proof our data stack.
Technical Leadership & Mentorship: Act as a primary advocate for platform adoption. You will foster a community of practice around data engineering, mentoring senior and mid-level engineers to elevate the team's technical bar.
Governance & Quality: Implement and automate robust frameworks for Data Discovery, Quality, and Governance, ensuring solutions are trustworthy and compliant with financial regulations.
Requirements:
Experience: 8+ years of hands-on experience in Data Engineering and Architecture, with a track record of building and shipping platforms at scale.
Experience with modern big data platforms such as Snowflake, Databricks, or similar technologies.
Hands-on experience with Data infrastructure experience (Orchestration, scalability, reliability, and cloud architecture).
Data Movement & Integration: Deep understanding of data movement strategies, including high-frequency batching, CDC, and real-time event streaming.
Technical Depth: Deep understanding of database internals. High proficiency in Python and SQL. You can dive into code when necessary to solve complex issues.
Modeling & Architecture: Strong know-how in dimensional modeling and schema design (relational and NoSQL), with proven experience implementing Data Warehouse or Lakehouse architectures.
GenAI & RAG Expertise: You have practical experience architecting and building RAG (Retrieval-Augmented Generation) pipelines, with specific knowledge of Vector Databases, Embedding Models, and LLM Orchestration frameworks.
Business Acumen: A strong ability to understand business objectives and translate them into technical strategies that drive tangible value.
Leadership and Communication: As this is a central role in the product tech organisation, you will need a strong ability to influence engineering teams and drive consensus without direct authority. You must have excellent communication skills to explain complex architectural concepts to C-level stakeholders and non-technical partners.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636116
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We seek an experienced and highly skilled Senior Engineer to join our Data Platform Team. This is an exciting opportunity to work on cutting-edge technologies, drive innovation, and play a key role in designing and implementing the companys data infrastructure and architecture.

What you'll do

Database Infrastructure Development - Design, develop, and maintain scalable and reliable self-serve database infrastructure, including PostgreSQL, MongoDB, SingleStore, and AWS Aurora.

Big Data Infrastructure Development - Design, develop, and maintain scalable and reliable self-serve big data infrastructure, including cloud-agnostic data lakehouse, distributed databases, and platform-powered data pipelines.

End-to-End Ownership - Take responsibility for the entire lifecycle of data infrastructure, from DevOps (Terraform, Kubernetes) to application-level components (infrastructure libraries, core components in data pipelines).

Architecture Leadership: Collaborate with the Architecture group to define and maintain the companys core architectural vision.

Partner with development teams, providing technical guidance, best practices, and support from the design phase to production deployment.

Innovation and Exploration - Work on diverse and impactful projects across different layers of the tech stack, exploring new technologies and approaches to improve reliability, efficiency, and scalability.
Requirements:
Extensive Experience in software engineering and data infrastructure.
Extensive Expertise in the administration of OLTP and OLAP databases.
Strong knowledge of big data frameworks, including Apache Spark, Athena, Trino, and Iceberg.
Hands-on experience with DevOps tools such as Terraform, Kubernetes, and Cloud infrastructure.
Proficiency in building and managing data pipelines and core infrastructure components.
Strong problem-solving, communication, and leadership skills, with the ability to mentor and collaborate across teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8633890
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
one of the world's most impactful shopping recommendation companies, is searching for a talented Data Engineer to join our innovative team. For the past decade, we've served tens of millions of users globally, and we're looking for a passionate individual to help us continue our journey of making an impact.
What You'll Own:
Data Infrastructure
Build and operate data pipelines on GCP using Cloud Workflows, Cloud Functions, Cloud Scheduler, and BigQuery.
Create, Transform and Manage Datasets (Python, DBT,..)
Design and implement API integrations to pull data from affiliate networks, ad platforms, and internal services.
Ensure pipeline reliability, observability (monitoring, alerting, SLA management), and scalability.
Data Quality & Trust
Implement tests, freshness checks, and anomaly detection across all critical models.
Lead incident triage and root-cause analysis when data issues arise; build systems that catch problems before stakeholders do.
Maintain clear documentation of data contracts, schema definitions, and transformation logic.
ML & Data Science Collaboration
Work hand-in-hand with Data Scientists building ML models - ensuring feature tables, training datasets, and inference pipelines are clean and reproducible.
Build the data layer that feeds ML model training and evaluation, including feature stores and labeled datasets.
Requirements:
3-5+ years of Data Engineering or Backend Engineering experience with clear delivery in production systems.
Bachelor's (or higher) in Computer Science, Engineering, Mathematics, or a quantitative field (or equivalent background).
Strong Python skills: writing production-grade ETL/pipeline code, not just scripts.
SQL proficiency: complex window functions, CTEs, query optimization, and BigQuery-flavored SQL.
dbt: modeling patterns, incremental strategies, testing, and documentation.
GCP: hands-on experience with BigQuery, Cloud Functions, Cloud Workflows, or Cloud Scheduler (or equivalent cloud stack with willingness to ramp up quickly).
API integrations: building robust data ingestion from REST APIs with retries, pagination, and error handling.
Data quality mindset: you think about freshness, schema drift, nulls, and SLA before you're asked.
Nice‑to‑Haves:
Experience with affiliate marketing data (Amazon Associates, CJ, Impact, etc.) or ad platform APIs (Meta, Google Ads).
Familiarity with ML pipelines: feature engineering, training data prep, or serving infrastructure.
Event-driven architectures: Pub/Sub, Cloud Run, or equivalent.
Node.js: light scripting or serverless functions (our codebase is primarily Python, with occasional Node).
Version control and CI/CD: Git workflows, automated testing, and deployment pipelines.
Let's evolve together! If you're ready for a role where you can truly make a difference, apply now.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8631103
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
we are looking for a Senior Data Engineer I.
As a Senior Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspects-ensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and more.
Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.
Key Job Responsibilities and Duties:
Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.
Dealing with massive textual sources to train GenAI foundation models.
Solving issues with data and data pipelines, prioritizing based on customer impact.
End-to-end ownership of data quality in our core datasets and data pipelines.
Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.
Providing tools that improve Data Quality company-wide, specifically for ML scientists.
Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.
Acting as an intermediary for problems, with both technical and non-technical audiences.
Promote and drive impactful and innovative engineering solutions
Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation
Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.
21679
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.
Minimum of 6 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions.
You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.
You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)
Strong programming skills in languages such as Python and Java.
Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.
Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems
Experience with Data Warehousing and ETL/ELT pipelines
Experience in data processing for large-scale language models like GPT, BERT, or similar architectures - an advantage.
Proficiency in data manipulation, analysis, and visualization using tools lke NumPy, pandas, and matplotlib - an advantage.
Experience with experimental design, A/B testing, and evaluation metrics for ML models - an advantage.
Experience of working on products that impact a large customer base - an advantage.
Excellent communication in English; written and spoken.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627496
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Engineer.
As a Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspects-ensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and ore.
Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.
Key Job Responsibilities and Duties:
Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.
Dealing with massive textual sources to train GenAI foundation models.
Solving issues with data and data pipelines, prioritizing based on customer impact.
End-to-end ownership of data quality in our core datasets and data pipelines.
Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.
Providing tools that improve Data Quality company-wide, specifically for ML scientists.
Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.
Acting as an intermediary for problems, with both technical and non-technical audiences.
Promote and drive impactful and innovative engineering solutions
Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation
Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.
20718
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.
Minimum of 3 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions
You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.
You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)
Strong programming skills in languages such as Python and Java.
Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.
Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems.
Experience with Data Warehousing and ETL/ELT pipelines
Experience in data processing for large-scale language models like GPT, BERT, or similar architectures - an advantage.
Proficiency in data manipulation, analysis, and visualization using tools like NumPy, pandas, and matplotlib - an advantage.
Experience with experimental design, A/B testing, and evaluation metrics for ML models - an advantage.
Experience of working on products that impact a large customer base - an advantage.
Excellent communication in English; written and spoken.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627494
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
27/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Temporary
As an Analytics Engineer within the Delivery & Operations organization, you will operate at the intersection of data engineering and analytics, with a strong focus on data quality, reliability, and scalability.

This role combines hands-on ownership of data pipelines and data transformations with the ability to effectively interface with customer-facing teams (Customer Success, and Delivery) when needed-helping ensure that data outputs are accurate, clear, and aligned with real-world use cases.

Responsibilities:
Build and maintain data models, pipelines, and ETL processes to support analytics, reporting, and machine learning.
Own data quality and validation, including monitoring, auditing datasets, and identifying anomalies.
Support customer-facing teams by providing reliable data, clarifying definitions, and investigating data issues.
Collaborate cross-functionally and work with existing codebases to debug, improve, and maintain data workflows.
Ensure high-quality data across the lifecycle to support reliable ML pipelines.
Requirements:
Requirements:
3+ years of experience in Python development (production-level data logic, not just scripting).
2+ years of experience with data validation / data quality practices.
Experience with data pipelines / ETL processes.
Proficiency in Pandas (or similar libraries).
Strong SQL and database knowledge.
Experience working with existing production codebases (debugging, refactoring).
Ability to communicate clearly with non-technical stakeholders when needed.
Strong analytical thinking and problem-solving skills.
High attention to detail and commitment to data accuracy.

Advantages:
Familiarity with data modeling best practices.
Experience supporting customer-facing data use cases or deliverables.
Background in DataOps / data reliability practices.
Exposure to machine learning pipelines.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8626264
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
21/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
We're seeking a Mid to Senior Data Engineer to join our Cloud Identity & Perimeter, a critical component of our security infrastructure. Our team develops and maintains complex data pipelines that process billions of records daily, analyzing identity-related security patterns, effective permissions, internet exposure, and attack paths. We're at the forefront of securing enterprise identities and delivering actionable security insights at scale.

What You'll Do:

Design and implement high-performance, distributed data processing pipelines handling petabytes of security data.

Architect complex data transformations using Apache Spark for large-scale batch and stream processing.

Be part of shaping new products while collaborating with product teams, customers, and sales.

Build and optimize real-time data streaming solutions using Kafka for identity analytics.

Develop and maintain scalable ETL processes that handle billions of daily events.

Create efficient data models for complex security analytics queries.

Collaborate with cross-functional teams to deliver high-impact security features.

Optimize query performance and data storage patterns for large-scale distributed systems.

Participate in system design discussions and architectural decisions.

This position is based in our Tel Aviv, Israel office and requires strong leadership presence and ability to work closely with cross-functional teams.
Requirements:
What You'll Need:

5+ years of experience in data engineering or similar roles.

Strong programming skills in Go and/or Java.

Extensive experience with big data technologies (Apache Spark, Kafka).

Proven track record working with distributed databases (Cassandra, Elasticsearch).

Experience building and maintaining production-grade data pipelines.

Strong understanding of data modeling and optimization techniques.

Excellent problem-solving skills and attention to detail.

BS/MS in Computer Science or related field, or equivalent experience.


Bonus Points:

Experience with identity and access management concepts.

Knowledge of security analytics and threat detection.

Contributions to open-source projects.

Experience with cloud platforms (AWS, GCP, Azure).

Background in cybersecurity or security analytics.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8619467
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
21/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
We are searching for a Senior Data Engineer to join our growing team in Tel Aviv and serve as a cornerstone of data evolution. We need an experienced, high-impact engineer ready to elevate our infrastructure from "functional" to "world-class."

As a pivotal member of the team, you wont just build pipelines; you will architect the future of our data ecosystem. Were looking for someone who obsesses over query latency, high-performance analytics, and cost-efficiency - someone who views data integrity as non-negotiable and thrives on turning complex event streams into elegant, scalable models.

Responsibilities
Lead the end-to-end data strategy, evolving our event-driven architecture to ensure seamless, low-latency data flow across the organization.
Design and implement robust, scalable data models that serve as the "single source of truth" for the entire organization.
Act as our internal Snowflake expert - optimizing performance and cost through best practices in clustering, materialized views, and warehouse management.
Build and maintain sophisticated ELT/ETL pipelines that transform raw event data into actionable insights, with a heavy focus on reliability and observability.
Proactively identify infrastructure bottlenecks and re-engineer processes to handle increasing scale without breaking a sweat.
Partner closely with Product and Engineering teams to translate business needs into technical reality, while mentoring analysts and peers on high-quality SQL and architectural standards.
Requirements:
5+ years of experience in Data Engineering, ideally within high-scale or high-growth environments.
5+ years of hands-on coding experience in Python or Node.js.
Deep experience with modern data warehouses and relational databases (e.g., Snowflake, BigQuery, PostgreSQL, or MySQL).
Deep expertise in Snowflake (internals, optimization, and credit management) is a significant advantage.
A masters grasp of data modeling principles and a passion for creating clean, documented, and reusable data structures.
A proactive team player who thrives in time-sensitive, high-volume environments and can communicate complex technical concepts clearly.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8619443
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a talented Data Engineer to join our Data team and spread the power of our company. The Data team develops and maintains the infrastructure for internal data and product analytics. We are looking for data enthusiasts, independent, logical thinkers with a can-do approach and a passion for problem-solving. We run a SaaS-based stack using BigQuery, Snowflake and dbt.
WHAT YOU'LL DO
Design, build, and maintain data pipelines, datasets and catalogs for fast-growing products and business groups.
Develop self-service data analytics solutions and infrastructure.
Support ad hoc needs and requests of internal stakeholders.
Collaborate with analysts, engineers, and internal customers from Product, Finance, Revenue, and Marketing.
Requirements:
Bachelors or Masters degree in a relevant technical field, or equivalent hands-on experience in software development or DevOps.
3+ years of experience working as a Data Engineer, including end-to-end designing, orchestrating, and building cloud-based data pipelines (e.g., Airflow, Prefect, Dagster).
3+ years of experience with dimensional data modeling and data warehouse implementation, specifically MPP databases like BigQuery, Snowflake, and Redshift.
Strong knowledge of Python and Python-based data analysis tools such as Jupyter Notebooks and pandas.
Strong SQL writing skills. Ability to write highly performant queries.
Strong track record of executing projects independently in dynamic environments.
Fast understanding of data and business needs and ability to translate them into data models.
Team player with excellent communication skills.
Containerization (Docker): Essential for reproducible environments.
Knowledge of software engineering best practices: CI/CD concepts, code reviews, and unit testing.
ADVANTAGE
Production-level experience with dbt, including project design, transformation, testing, and documentation.
Infrastructure-as-Code (Terraform): Managing cloud resources (S3 buckets, IAM roles) via code.
CI/CD pipelines (GitHub Actions/Jenkins): Automating the testing and deployment of data models.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618820
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן -71 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >