רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 1 שעות
דרושים בקונסיסט מערכות בע"מ
סוג משרה: משרה מלאה
דרוש/ה מפתח AI /מפתח data למשרד ממשלתי בלוד
דרישות:
5 שנות ניסיון ומעלה בתפקידי דאטה, מתוכן שנתיים לפחות בdata science
ידע מוכח בהטמעת ופריסת מודלי AI לסביבות ייצור (torchserve, nvidia triton)
ידע מוכח בשפת Python ובכתיבת קוד לproduction (שימוש בpydantic)
ניסיון מוכח בעבודה בGCP לרבות שימוש בartifact registry, cloud run jobs, workflow, gke
ניסיון מוכח בבניית סוכני AI
ידע מוכח בשימוש בתהליכי docker, CICD המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8337006
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 4 שעות
Job Type: Full Time and Hybrid work
Salary: 35,000 ויותר
We're looking for a seasoned data Scientist to lead Machine Learning initiatives in a high-scale, Real-Time advertising environment.
This role demands deep statistical expertise and mastery of algorithms to drive impactful, low-latency decisions across billions of daily bid requests.
Key Responsibilities:
Design and deploy ML models that optimize ad targeting, relevance, and campaign performance.
Analyze high-velocity streaming data to extract insights and guide model development.
Translate complex business challenges into measurable, ML-driven solutions.
Collaborate with cross-functional teams to integrate models into production systems.
Monitor and refine models post-deployment to ensure accuracy and efficiency.
Lead experimentation (A/B testing, causal inference) to validate model impact.
Requirements:
Requirements:
MSc or PhD in Computer Science, Statistics, data Science, or a related field.
7+ years of experience building and deploying ML models in production.
Strong statistical foundations and proven expertise in algorithm design.
Hands-on experience with large-scale datasets and Real-Time data pipelines.
Familiarity with AdTech systems (RTB, attribution, campaign optimization, fraud detection) is a strong advantage.
Excellent communication skills and business-oriented mindset.
?? [Click here for more details]
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8352781
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת הייטק חזקה מאוד במרכז הארץ דרוש/ה Senior Python backend Developer
בעל/ת ניסיון בטכנולוגיות data.
במסגרת התפקיד: פיתוח backend בדגש לפיתוח Python ונגיעות לפיתוח GO, עבודה
בטכנולוגיות דאטה כגון Spark Hive Kafka, עבודה שמשלבת שימוש ב-Kubernetes AWS וכן
עבודה מרובה מול בסיסי נתונים
דרישות:
תואר ראשון במדעי המחשב או הנדסת תכנה - חובה
לפחות 7 שנות ניסיון בפיתוח backend - חובה
רקע בעולמות דאטה - יתרון מאוד גדול
ניסיון מוכח של 5 שנים ב- Python - חובה
רקע בפיתוח GO - יתרון מאוד משמעותי
ניסיון ב-AWS ו-Kubernetes - חובה
ניסיון מול בסיסי נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8240126
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בMertens – Malam Team
חברת Mertens - MalamTeam מגייסת מהנדס.ת נתונים למערכות rt ביג דאטה לארגון פיננסי בשפלה

תיאור משרה
לתכנן ולפרוס תהליכי דאטה ( data Pipelines) בקנה מידה רחב, סטנדרטיים וברי-תחזוקה, המאפשרים רישום לוגים יעיל, טיפול שיטתי בשגיאות והעשרת נתונים בזמן אמת. התפקיד דורש אחריות מלאה הן על היישום והן על הביצועים.
יחידת דאטה ותצפיות (Observability) ממוקדת-עסקים בתוך חטיבת הטכנולוגיה, המתמקדת בתמיכה במוצרים הדיגיטליים של הבנק כולל אפליקציות מובייל ופלטפורמות אינטרנט.
הצוות עובד בשיתוף פעולה עם מנהלי מוצר, מפתחי אפליקציות, ארכיטקטים וצוותי תשתיות, כדי להגדיר מודלים אפקטיביים לניטור, למפות תהליכי משתמש, ולייצר תובנות עסקיות רלוונטיות באמצעות כלי תצפיות כמו Splunk.
במקביל מעצבים וצורכים נתוני תצפיות במטרה לשפר את חוויית המשתמש.
דרישות:
ניסיון מעשי של לפחות 3 שנים ב-Splunk 
שליטה ב-SPL, ניתוח נתונים (Parsing), בניית Dashboards, עבודה עם Macros וכיוונון ביצועים 
ניסיון בעבודה עם מערכות מבוססות אירועים (כגון Kafka, REST APIs) 
הבנה מעמיקה של נתונים מובנים וחצי-מובנים (JSON, XML, Logs)
יכולת סקריפטינג חזקה ב- Python או Bash
היכרות עם תהליכי CI/CD באמצעות כלים כמו Git ו-Jenkins
ניסיון במידול נתונים, לוגיקות העשרה ואינטגרציית מערכות
יכולת עבודה עצמאית והובלת פתרונות סקיילביליים ומוכנים ל-Production המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8352384
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בOne data
הזדמנות להשתלב בארגון גדול ודינמי, עם מאות משתמשים, הנמצא בתנופת עשייה ומעבר לטכנולוגיות חדשניות ומתקדמות!
הצטרף/י לצוות BI שאחראי על תפעול, פיתוח והובלת פרויקטים משמעותיים משלב האפיון ועד ליישום והטמעה מלאה של פתרונות דאטה ובינה עסקית.
במסגרת התפקיד:
אפיון דרישות עסקיות ומיפוי נתונים
הגדרת תהליכי ETL ותרשימי ERD
פיתוח ותחזוקת pipelines בסביבת data Lake
פיתוח דשבורדים ודוחות במערכות BI
מתן מענה שוטף לדרישות עסקיות, תקלות, ופרויקטים
עבודה עם טכנולוגיות מתקדמות בסביבת ענן
דרישות:
לפחות 8 שנות ניסיון בבניית ותחזוקת data Pipelines מקצה לקצה
ניסיון עם כלי SAP חובה
ניסיון עם Databricks ו-Snowflake חובה
שליטה מעמיקה ב-SQL (כולל stored procedures, Indexing, Performance Tuning)
ניסיון בפיתוח תהליכי שינוע נתונים בעולמות רלציוניים
ניסיון בכלי תשתית: SSIS, SAP -DI / SAP -DS, SQR
עבודה עם תהליכי CI/CD
ניסיון בעבודה בסביבת ענן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8347624
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בOne data
הזדמנות להשתלב בצוות data מתקדם ולהוביל פיתוח תהליכי ETL מקצה לקצה, עבודה מול בסיסי נתונים מגוונים ותמיכה בפיתוח דוחות ודשבורדים באמצעות כלי BI מתקדמים.
דרישות:
פיתוח תהליכי ETL מקצה לקצה, בעיקר ב-SSIS
עבודה שוטפת מול בסיסי נתונים מגוונים
תמיכה ובניית דוחות ודשבורדים בPower BI / SSRS
שילוב בעבודה עם שירותים אנליטיים בענן Redshift, Aurora, QuickSight המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8265271
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בOne data
בנייה ואופטימיזציה של שאילתות Splunk ותהליכי Ingestion
עבודה עם Kafka, APIs לוגים ומקורות נוספים
העשרת נתונים בזמן אמת והקמת מערך התראות
שיתוף פעולה עם צוותי Dev, DevOps ומוניטורינג
דרישות:
לפחות 3 שנות ניסיון עם Splunk
ידע חזק בSPL - לוחות בקרה, מאקרו, ביצועים
ניסיון עם מערכות מבוססות אירועים (Kafka, REST APIs)
שליטה בJSON, XML ונתונים חצי-מובנים
סקריפטינג בPython או Bash
יכולת עבודה עצמאית והובלת פתרונות ברמת פרודקשן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8265056
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה פיתחה פלטפורמת SaaS B2B מבוססת AI עבור לקוחות Enterprise בעולמות המזון והמשקאות בשוק הגלובלי. המוצר מספק insights בכל הקשור להתנהגות צרכנית והעדפות צרכניות ובכך הוא מאפשר ללקוחותיהם לתכנן את האסטרטגיה הפיתוחית והשיווקית בהתאם לשוק. המידע שנאסף ומנותח מאפשר לזהות איזה אוכל אנשים מכינים, מזמינים ואוהבים.
החברה ממוקמת בתל אביב- קו רכבת קלה, משלבת מודל עבודה היברידי ומונה 90 עובדים בעולם, 50 מתוכם בארץ.
מהות התפקיד: חלק מצוות ה- data, כפיפות לראש צוות. תפקיד ב-Core של המוצר, עבודה צמודה ל- data Scientists. עבודה על data מגוון- תמונות, טקסטים וסרטונים. פיתוח ETL ב- Python. ומעט ב- JavaScript /TypeScript. סטאק טכנולוגי: Python, TypeScript, NodeJS, AWS, Spark, Kafka, Elastic, ETL.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח NoSQL
- ניסיון בפיתוח עם AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8351433
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים ביאנה וייס
תכנון, הטמעה ותחזוקה של מודלי דאטה וצינורות זרימת נתונים ( data Pipelines) ממקורות שונים, בנייה ותמיכה בפתרונות סקלאביליים ואמינים לניתוחים עסקיים מתקדמים, אופטימיזציה של עומסי עבודה (Workloads) גם מבחינת ביצועים וגם עלויות
דרישות:
ניסיון של 5+ שנים כמהנדס/ת דאטה או מפתח/ת BI
תואר ראשון בהנדסה, מדעי המחשב או מערכות מידע
מומחיות בETL/ELT, מידול רב-ממדי (Dimensional Modeling), ו-SQL
ניסיון חזק בארכיטקטורות דאטה בענן ובמחסני נתונים ( data Warehousing)
ניסיון עם AWS: Glue, Redshift, S3, Lambda, Well-Architected Framework - יתרון
שליטה ב-DBT, Airflow, וסקריפטים ב- Python או R - יתרון
ניסיון עם כלי BI כמו Power BI, Looker, Tableau -יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8350778
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
data Infrastructure Engineer Elad Systems | data Division
Elad Systems data Division is seeking a skilled data Engineer to join our growing team, supporting end-to-end AI-driven projects for top-tier clients across industries.
What Youll Do:
Design and build robust, scalable data pipelines for AI/ML applications
Work with modern cloud environments (AWS/Azure/GCP), leveraging tools like Airflow, Kafka, EC2 and Kubernetes
Develop Infrastructure as Code (IAC) with Terraform or equivalent
Support data lakes and DWHs (e.g., Snowflake, BigQuery, Redshift)
Ensure data quality, observability, and system reliability
Requirements:
What You Bring:
3+ years of experience in data engineering or backend development
Proficiency in Python
Hands-on experience with streaming, orchestration, and cloud-native tools
Strong problem-solving skills and an independent, delivery-focused mindset
Experience with Docker and CI/CD platform
Have a solid background working with data warehousing technologies, such as Snowflake, Databricks, Redshift, BigQuery, etc.
Advantage: Experience supporting ML pipelines or AI product development


Why Elad:
Work on diverse, high-impact AI projects in a dynamic and collaborative environment
Access to learning programs, career growth paths, and cutting-edge tech
Hybrid work model and flexible conditions
Join us and help shape the data foundations of tomorrows AI solutions.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8294550
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.
This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
35 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS-based data technologies.

Experience in building and maintaining advanced data pipelines from various data sources.

Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI, Tableau.
Experience with scripting/coding languages such as Python.
Ability to work independently, with attention to detail and strong initiative.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8236697
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בMertens – Malam Team
מיקום המשרה: מספר מקומות
חברת Mertens - MalamTeam מגייסת  data Engineer לארגון פיננסי מוביל בשפלה
תיאור 
התפקיד כולל השתלבות בעבודת הצוות ופרויקטים בתחום ה AI 
אחריות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה הדוק עם data Scientist
עיצוב ופיתוח של תהליכי דאטה קריטיים, מגוונים וגדולים גם בסביבות ענן וגם ב on prem
דרישות:
תואר רלוונטי במדעי המחשב / הנדסה / מתמטיקה / סטטיסטיקה חובה
לפחות 3 שנות ניסיון כData Engineer חובה
שליטה בPython ובשפות OOP חובה
ניסיון מעשי עם Spark לעיבוד Big Data חובה
היכרות עם פורמטים כמו Parquet, Avro, Delta Lake חובה
ניסיון עם Docker, Linux, Kubernetes, CI/CD חובה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8326934
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בMertens – Malam Team
מיקום המשרה: מספר מקומות
חברת Mertens - MalamTeam  מגייסת  data Engineer לארגון מוביל באזור גוש דן!   

התפקיד כולל פיתוח ותחזוקה של תהליכי Streaming מבוססי Flink ותהליכי Batch מבוססי Spark SQL, המיושמים ב- Python, לצד בניית data Pipelines מתקדמים לשילוב אינטגרציות בין מערכות (Stream + Batch).
התפקיד כולל פיתוח REST APIs לשיתוף מידע עם מערכות פנימיות וחיצוניות, פיתוח תשתיות ניטור מותאמות לכלי הארגון, ותמיכה בפרוטוקולי אבטחה מתקדמים. כמו כן, העבודה כוללת טיפול במידע רפואי ותמיכה בתקנים כגון FHIR ו-HL7, כתיבת שאילתות SQL מתקדמות וטרנספורמציות מורכבות, וכן שיתוף פעולה הדוק עם צוותים חוצי ארגון בפרויקטים מרובי ממשקים.
דרישות:
ניסיון של שנתיים לפחות כ- data Engineer או בתפקיד מקביל.
ניסיון בפיתוח תהליכים מבוססי Kafka.
ניסיון בפיתוח ETL Batch Pipelines.
ניסיון בפיתוח REST APIs.
יכולת גבוהה בפיתוח פתרונות מבוססי SQL.
הכרות עם פלטפורמות Microsoft:Azure Databricks, data Fabric.
ניסיון בפיתוח קבצי XML, JSON.
ניסיון מעשי בכתיבת קוד ב Python ו/או JAVA. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8348741
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת שכבת אבטחה קריטית לכל ישום Blockchain, להבדל מהמתחרים הטכנולוגיה שלהם מותאמת לכל רשתות ה-Blockchain. נמצאים כעת לקראת צמיחה משמעותית בזכות ההישגים המרשימים של הטכנולוגיה והגדלת נפח הלקוחות.
החברה ממוקמת בתל אביב- קו רכבת ומונה 120 עובדים גלובלית. עבודה מהמשרדים.
מהות התפקיד: פונקציה יחידה בארגון בשלב זה, דיווח ל-VP R D, תפקיד פיתוח data Pipelines המורכבים ממידע מגוון ורב בעיקר Logs ו-Textual בשיתוף פעולה עם צוותי הפיתוח והמוצר. פיתוח תהליכי ETL, שימוש ב-DBT, Airflow, Snowflake, סביבת AWS, קידוד ב- Python.
דרישות:
- שנת ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח ב-SQL
- ניסיון בפיתוח עם Snowflake/BigQuery/Databricks/Airflow המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8342679
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בHMS - הלפרין יועצים
מיקום המשרה: תל אביב יפו
קבוצת hms מגייסת data Engineer לצוות הנדסת נתונים בתל אביב

התפקיד כולל תכנון ופיתוח ETL, בנייה ואופטימיזציה של מודלי נתונים וארכיטקטורות אגמי נתונים, יישום תהליכים ב-Apache Airflow, פיתוח פתרונות עיבוד נתונים ב-Apache Spark, עבודה עם AlloyDB ושירותי GCP כולל Datastream ו-Dataproc.
דרישות:
*ניסיון של 4 שנים בתחום
* ניסיון רב בניהול ואופטימיזציה של מסדי נתונים של AlloyDB
* מיומנות ב-Apache Spark לעיבוד נתונים מבוזר
* ניסיון מעשי עם Apache Airflow
* ידע בשירותי GCP Datastream ו-Dataproc
* רקורד מוכח בבנייה ותחזוקה של ETL
* ניסיון בתכנון מודלי נתונים ויישום פתרונות data Lake
* כישורי SQL חזקים וניסיון עם מושגי אחסון נתונים
* כישורי תכנות בפייתון
* הסמכת Google Cloud Platform - יתרון
* ניסיון באינטגרציה עם salesforce - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8295676
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 23 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Data Engineer, Product Analytics
As a Data Engineer, you will shape the future of people-facing and business-facing products we build across our entire family of applications (Facebook, Instagram, Messenger, WhatsApp, Reality Labs, Threads). Your technical skills and analytical mindset will be utilized designing and building some of the world's most extensive data sets, helping to craft experiences for billions of people and hundreds of millions of businesses worldwide.
In this role, you will collaborate with software engineering, data science, and product management teams to design/build scalable data solutions across to optimize growth, strategy, and user experience for our 3 billion plus users, as well as our internal employee community.
You will be at the forefront of identifying and solving some of the most interesting data challenges at a scale few companies can match. By joining us, you will become part of a world-class data engineering community dedicated to skill development and career growth in data engineering and beyond.
Data Engineering: You will guide teams by building optimal data artifacts (including datasets and visualizations) to address key questions. You will refine our systems, design logging solutions, and create scalable data models. Ensuring data security and quality, and with a focus on efficiency, you will suggest architecture and development approaches and data management standards to address complex analytical problems.
Product leadership: You will use data to shape product development, identify new opportunities, and tackle upcoming challenges. You'll ensure our products add value for users and businesses, by prioritizing projects, and driving innovative solutions to respond to challenges or opportunities.
Communication and influence: You won't simply present data, but tell data-driven stories. You will convince and influence your partners using clear insights and recommendations. You will build credibility through structure and clarity, and be a trusted strategic partner.
Data Engineer, Product Analytics Responsibilities
Conceptualize and own the data architecture for multiple large-scale projects, while evaluating design and operational cost-benefit tradeoffs within systems
Create and contribute to frameworks that improve the efficacy of logging data, while working with data infrastructure to triage issues and resolve
Collaborate with engineers, product managers, and data scientists to understand data needs, representing key data insights visually in a meaningful way
Define and manage Service Level Agreements for all data sets in allocated areas of ownership
Determine and implement the security model based on privacy requirements, confirm safeguards are followed, address data quality issues, and evolve governance processes within allocated areas of ownership
Design, build, and launch collections of sophisticated data models and visualizations that support multiple use cases across different products or domains
Solve our most challenging data integration problems, utilizing optimal Extract, Transform, Load (ETL) patterns, frameworks, query techniques, sourcing from structured and unstructured data sources
Assist in owning existing processes running in production, optimizing complex code through advanced algorithmic concepts
Optimize pipelines, dashboards, frameworks, and systems to facilitate easier development of data artifacts
Influence product and cross-functional teams to identify data opportunities to drive impact.
Requirements:
Minimum Qualifications
Bachelor's degree in Computer Science, Computer Engineering, relevant technical field, or equivalent
7+ years of experience where the primary responsibility involves working with data. This could include roles such as data analyst, data scientist, data engineer, or similar positions
7+ years of experience with SQL, ETL, data modeling, and at least one programming language (e.g., Python, C++, C#, Scala or others.).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8352021
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 23 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Data Engineer, Product Analytics
As a Data Engineer, you will shape the future of people-facing and business-facing products we build across our entire family of applications. Your technical skills and analytical mindset will be utilized designing and building some of the world's most extensive data sets, helping to craft experiences for billions of people and hundreds of millions of businesses worldwide.
In this role, you will collaborate with software engineering, data science, and product management teams to design/build scalable data solutions across to optimize growth, strategy, and user experience for our 3 billion plus users, as well as our internal employee community.
You will be at the forefront of identifying and solving some of the most interesting data challenges at a scale few companies can match. By joining us, you will become part of a world-class data engineering community dedicated to skill development and career growth in data engineering and beyond.
Data Engineering: You will guide teams by building optimal data artifacts (including datasets and visualizations) to address key questions. You will refine our systems, design logging solutions, and create scalable data models. Ensuring data security and quality, and with a focus on efficiency, you will suggest architecture and development approaches and data management standards to address complex analytical problems.
Product leadership: You will use data to shape product development, identify new opportunities, and tackle upcoming challenges. You'll ensure our products add value for users and businesses, by prioritizing projects, and driving innovative solutions to respond to challenges or opportunities.
Communication and influence: You won't simply present data, but tell data-driven stories. You will convince and influence your partners using clear insights and recommendations. You will build credibility through structure and clarity, and be a trusted strategic partner.
Data Engineer, Product Analytics Responsibilities
Collaborate with engineers, product managers, and data scientists to understand data needs, representing key data insights in a meaningful way
Design, build, and launch collections of sophisticated data models and visualizations that support multiple use cases across different products or domains
Define and manage Service Level Agreements for all data sets in allocated areas of ownership
Solve challenging data integration problems, utilizing optimal Extract, Transform, Load (ETL) patterns, frameworks, query techniques, sourcing from structured and unstructured data sources
Improve logging
Assist in owning existing processes running in production, optimizing complex code through advanced algorithmic concepts
Optimize pipelines, dashboards, frameworks, and systems to facilitate easier development of data artifacts
Influence product and cross-functional teams to identify data opportunities to drive impact.
Requirements:
Minimum Qualifications
Bachelor's degree in Computer Science, Computer Engineering, relevant technical field, or equivalent
2+ years of experience where the primary responsibility involves working with data. This could include roles such as data analyst, data scientist, data engineer, or similar positions
2+ years of experience with SQL, ETL, data modeling, and at least one programming language (e.g., Python, C++, C#, Scala or others.)
Preferred Qualifications
Master's or Ph.D degree in a STEM field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8351908
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Senior Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspectsensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and more.

Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.



Key Job Responsibilities and Duties:

Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.

Dealing with massive textual sources to train GenAI foundation models.

Solving issues with data and data pipelines, prioritizing based on customer impact.

End-to-end ownership of data quality in our core datasets and data pipelines.

Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.

Providing tools that improve Data Quality company-wide, specifically for ML scientists.

Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.

Acting as an intermediary for problems, with both technical and non-technical audiences.

Promote and drive impactful and innovative engineering solutions

Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation

Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.

Req ID: 20718
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.

Minimum of 6 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions.

You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.

You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)

Strong programming skills in languages such as Python and Java.

Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.

Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems.

Experience with Data Warehousing and ETL/ELT pipelines

Experience in data processing for large-scale language models like GPT, BERT, or similar architectures - an advantage.

Proficiency in data manipulation, analysis, and visualization using tools like NumPy, pandas, and matplotlib - an advantage.

Experience with experimental design, A/B testing, and evaluation metrics for ML models - an advantage.

Experience of working on products that impact a large customer base - an advantage.

Excellent communication in English; written and spoken.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8350838
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Senior Data Engineer
What You'll Do:

Shape the Future of Data - Join our mission to build the foundational pipelines and tools that power measurement, insights, and decision-making across our product, analytics, and leadership teams.
Develop the Platform Infrastructure - Build the core infrastructure that powers our data ecosystem including the Kafka events-system, DDL management with Terraform, internal data APIs on top of Databricks, and custom admin tools (e.g. Django-based interfaces).
Build Real-time Analytical Applications - Develop internal web applications to provide real-time visibility into platform behavior, operational metrics, and business KPIs integrating data engineering with user-facing insights.
Solve Meaningful Problems with the Right Tools - Tackle complex data challenges using modern technologies such as Spark, Kafka, Databricks, AWS, Airflow, and Python. Think creatively to make the hard things simple.
Own It End-to-End - Design, build, and scale our high-quality data platform by developing reliable and efficient data pipelines. Take ownership from concept to production and long-term maintenance.
Collaborate Cross-Functionally - Partner closely with backend engineers, data analysts, and data scientists to drive initiatives from both a platform and business perspective. Help translate ideas into robust data solutions.
Optimize for Analytics and Action - Design and deliver datasets in the right shape, location, and format to maximize usability and impact - whether thats through lakehouse tables, real-time streams, or analytics-optimized storage.
You will report to the Data Engineering Team Lead and help shape a culture of technical excellence, ownership, and impact.
Requirements:
5+ years of hands-on experience as a Data Engineer, building and operating production-grade data systems.
3+ years of experience with Spark, SQL, Python, and orchestration tools like Airflow (or similar).
Degree in Computer Science, Engineering, or a related quantitative field.
Proven track record in designing and implementing high-scale ETL pipelines and real-time or batch data workflows.
Deep understanding of data lakehouse and warehouse architectures, dimensional modeling, and performance optimization.
Strong analytical thinking, debugging, and problem-solving skills in complex environments.
Familiarity with infrastructure as code, CI/CD pipelines, and building data-oriented microservices or APIs.
Enthusiasm for AI-driven developer tools such as Cursor.AI or GitHub Copilot.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8343346
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/09/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Senior Data Engineer
The opportunity
Join our dynamic Data & ML Engineering team in iAds and play a pivotal role in driving data solutions that empower data science, finance, analytics, and R&D teams. As an Experienced Data Engineer, you'll work with cutting-edge technologies to design scalable pipelines, ensure data quality, and process billions of data points into actionable insights.
Success Indicators:
In the short term, success means delivering reliable, high-performance data pipelines and ensuring data quality across the product. Long-term, you'll be instrumental in optimizing workflows, enabling self-serve analytics platforms, and supporting strategic decisions through impactful data solutions.
Impact:
Your work will directly fuel business decisions, improve data accessibility and reliability, and contribute to the team's ability to handle massive-scale data challenges. You'll help shape the future of data engineering within a global, fast-paced environment.
Benefits and Opportunities
You'll collaborate with talented, passionate teammates, work on exciting projects with cutting-edge technologies, and have opportunities for professional growth. Competitive compensation, comprehensive benefits, and an inclusive culture make this role a chance to thrive and make a global impact.
What you'll be doing
Designing and developing scalable data pipelines and ETL processes to process massive amounts of structured and unstructured data.
Collaborating with cross-functional teams (data science, finance, analytics, and R&D) to deliver actionable data solutions tailored to their needs.
Building and maintaining tools and frameworks to monitor and improve data quality across the product.
Providing tools and insights that empower product teams with real-time analytics and data-driven decision-making capabilities.
Optimizing data workflows and architectures for performance, scalability, and cost efficiency using cutting-edge technologies like Apache Spark and Flink.
Requirements:
4+ yeasrs of experience as a Data Engineer
Expertise in designing and developing scalable data pipelines, ETL processes, and data architectures.
Proficiency in Python and SQL, with hands-on experience in big data technologies like Apache Spark and Hadoop.
Advanced knowledge of cloud platforms (AWS, Azure, or GCP) and their associated data services.
Experience working with Imply and Apache Druid for real-time analytics and query optimization.
Strong analytical skills and ability to quickly learn and adapt to new technologies and tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8341692
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/09/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands-on data infrastructure and platform engineer with proven leadership skills to lead and evolve our self-service data platform that powers petabyte-scale batch and streaming, near-real-time analytics, experimentation, and the feature platform. Youll guide an already excellent team of senior engineers, own reliability and cost efficiency, and be the focal point for pivotal, company-wide data initiatives- feature platform, lakehouse, and streaming.
Own the lakehouse backbone: Mature Iceberg at high scalepartitioning, compaction, retention, metadataand extend our IcebergManager in-house product to automate the lakehouse management in a self serve fashion.
Unify online/offline for features: Drive Flink adoption and patterns that keep features consistent and low-latency for experimentation and production.
Make self-serve real: Build golden paths, templates, and guardrails so product/analytics/DS engineers can move fast safely.
Run multi-tenant compute efficiently: EMR on EKS powered by Karpenter on Spot instances; right-size Trino/Spark/Druid for performance and cost.
Cross-cloud interoperability: BigQuery + BigLake/Iceberg interop where it makes sense (analytics, experimentation, partnership).
What you'll be doing:
Leading a senior Data Platform team: setting clear objectives, unblocking execution, and raising the engineering bar.
Owning SLOs, on-call, incident response, and postmortems for core data services.
Designing and operating EMR on EKS capacity profiles, autoscaling policies, and multi-tenant isolation.
Tuning Trino (memory/spill, CBO, catalogs), Spark/Structured Streaming jobs, and Druid ingestion/compaction for sub-second analytics.
Extending Flink patterns for the feature platform (state backends, checkpointing, watermarks, backfills).
Driving FinOps work: CUR-based attribution, S3 Inventory-driven retention/compaction, Reservations/Savings Plans strategy, OpenCost visibility.
Partnering with product engineering, analytics, and data science & ML engineers on roadmap, schema evolution, and data product SLAs.
Leveling up observability (Prometheus/VictoriaMetrics/Grafana), data quality checks, and platform self-service tooling.
Requirements:
2+ years leading engineers (team lead or manager) building/operating large-scale data platforms; 5+ years total in Data Infrastructure/DataOps roles.
Proven ownership of cloud-native data platforms on AWS: S3, EMR (preferably EMR on EKS), IAM, Glue/Data Catalog, Athena.
Production experience with Apache Iceberg (schema evolution, compaction, retention, metadata ops) and columnar formats (Parquet/Avro).
Hands-on depth in at least two of: Trino/Presto, Apache Spark/Structured Streaming, Apache Druid, Apache Flink.
Strong conceptual understanding of Kubernetes (EKS), including autoscaling, isolation, quotas, and observability
Strong SQL skills and extensive experience with performance tuning, with solid proficiency in Python/Java.
Solid understanding of Kafka concepts, hands-on experience is a plus
Experience running on-call for data platforms and driving measurable SLO-based improvements.
You might also have:
Experience building feature platforms (feature definitions, materialization, serving, and online/offline consistency).
Airflow (or similar) at scale; Argo experience is a plus.
Familiarity with BigQuery (and ideally BigLake/Iceberg interop) and operational DBs like Aurora MySQL.
Experience with Clickhouse / Snowflake / Databricks / Starrocks.
FinOps background (cost attribution/showback, Spot strategies).
Data quality, lineage, and cataloging practices in large orgs.
IaC (Terraform/CloudFormation).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8341689
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/09/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a skilled Data/ Backend Engineer to design and implement complex, high-scale systems that retrieve, process, and analyze data from the digital world. This role involves developing and maintaining backend infrastructure, creating robust data pipelines, and ensuring the seamless operation of data-driven products and services.
Key Responsibilities:
- Design and build high-scale systems and services to support data infrastructure and production systems.
- Develop and maintain data processing pipelines using technologies such as PySpark, Hadoop, and Databricks.
- Implement dockerized high-performance microservices and manage their deployment.
- Monitor and debug backend systems and data pipelines to identify and resolve bottlenecks and failures.
- Work collaboratively with data scientists, analysts, and other engineers to develop and maintain data-driven solutions.
- Ensure data is ingested correctly from various sources and is processed efficiently.
Requirements:
- BSc degree in Computer Science or equivalent practical experience.
- At least 4+ years of server-side software development experience in languages such as Python, Java, Scala, or Go.
- Experience with Big Data technologies like Hadoop, Spark, Databricks, and Airflow.
- Familiarity with cloud environments such as AWS or GCP and containerization technologies like Docker and Kubernetes.
- Strong problem-solving skills and ability to learn new technologies quickly.
- Excellent communication skills and ability to work in a team-oriented environment.
Nice to Have:
- Experience with web scraping technologies.
- Familiarity with Microservices architecture and API development.
- Knowledge of databases like Redis, PostgreSQL, and Firebolt.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8341643
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/09/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Engineer to join our team and help advance our Apps solution. Our product is designed to provide detailed and accurate insights into Apps Analytics, such as traffic estimation, revenue analysis, and app characterization. The role involves constructing and maintaining scalable data pipelines, developing and integrating machine learning models, and ensuring data integrity and efficiency. You will work closely with a diverse team of scientists, engineers, analysts, and collaborate with business and product stakeholders.
Key Responsibilities:
Develop and implement complex, innovative big data ML algorithms for new features, working in collaboration with data scientists and analysts.
Optimize and maintain end-to-end data pipelines using big data technologies to ensure efficiency and performance.
Monitor data pipelines to ensure data integrity and promptly troubleshoot any issues that arise.
Requirements:
Bachelor's degree in Computer Science or equivalent practical experience.
At least 3 years of experience in data engineering or related roles.
Experience with big data Machine Learning - a must ! .
Proficiency in Python- must. Scala is a plus.
Experience with Big Data technologies including Spark, EMR and Airflow.
Experience with containerization/orchestration platforms such as Docker and Kubernetes.
Familiarity with distributed computing on the cloud (such as AWS or GCP).
Strong problem-solving skills and ability to learn new technologies quickly.
Being goal-driven and efficient.
Excellent communication skills and ability to work independently and in a team.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8341640
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/09/2025
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are seeking a Data Engineer to join our dynamic data team. In this role, you will design, build, and maintain robust data systems and infrastructure that support data collection, processing, and analysis. Your expertise will be crucial in developing scalable data pipelines, ensuring data quality, and collaborating with cross-functional teams to deliver actionable insights.

Key Responsibilities:
Design, develop, and maintain scalable ETL processes for data transformation and integration.
Build and manage data pipelines to support analytics and operational needs.
Ensure data accuracy, integrity, and consistency across various sources and systems.
Collaborate with data scientists and analysts to support AI model deployment and data-driven decision-making.
Optimize data storage solutions, including data lakehouses and databases, to enhance performance and scalability..
Monitor and troubleshoot data workflows to maintain system reliability.
Stay updated with emerging technologies and best practices in data engineering.

Please note that this role is on a hybrid model of 4 days/week in our Tel-Aviv office.
Requirements:
Requirements:
3+ years of experience in data engineering or a related role within a production environment.
Proficiency in Python and SQL
Experience with both relational (e.g., PostgreSQL) and NoSQL databases (e.g., MongoDB, Elasticsearch).
Familiarity with big data AWS tools and frameworks such as Glue, EMR, Kinesis etc.
Experience with containerization tools like Docker and Kubernetes.
Strong understanding of data warehousing concepts and data modeling.
Excellent problem-solving skills and attention to detail.
Strong communication skills, with the ability to work collaboratively in a team environment.

Preferred Qualifications:
Experience with machine learning model deployment and MLOps practices.
Knowledge of data visualization tools and techniques.
Practical experience democratizing the companys data to enhance decision making.
Bachelors degree in Computer Science, Engineering, or a related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8340045
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Data Engineer on our Business Analytics & Business Intelligence Group in Tel Aviv Office, youll play a vital role on all aspects of the data, from ETL processes to optimizing our Business data models and infrastructure.
How youll make an impact:
As a Data Engineer, youll bring value by:
Have end to end ownership: Design, develop, deploy, measure and maintain our Business data infrastructure, ensuring high availability, high scalability and efficient resource utilization.
Lead the BI Engineering domain, including mentoring BI Engineers, establishing best practices, and driving BI engineering strategy.
Automate data workflows to streamline processes, reducing manual efforts and improving accuracy of our BI infrastructure..
Collaborate with other departments (e.g., IT/Data, R&D, Product, IS) to ensure seamless integration of BI tools with other systems and data models.
Work closely with the BI Development team to develop, maintain, and automate operational and executive-level reports and dashboards that offer actionable insights.
Identify and evaluate new technologies to improve performance, maintainability, and reliability of our data pipelines.
Excellent communication and collaboration skills to work across teams.
Requirements:
Minimum 3 years of experience in a Data Engineering role, working with large scale data.
Excellent coding skills in Java and Python- must
Experience with Data orchestration tools such as Airflow, or similar.
Experience with designing, developing, maintaining scalable and efficient data pipelines & models.
BSc in Computer Science or related field.
Proven ability to work effectively and independently across multiple teams and beyond organizational boundaries.
Deep understanding of strong Computer Science fundamentals: object-oriented design and data structures systems.
Leading Skills Able to technically lead and mentor other team members on best practices
Strong self-learning capabilities
Excellent attention to details and the ability to remain organized
Strong communications skills, verbal and written
Ability to work in a dynamic environment, with a high level of agility to changing circumstances and priorities
Bonus points if you have:
Experience working in online businesses, especially online advertising, preferably ad-tech.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336346
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Data Engineer on the IT production team in our TLV Office, youll play a vital role impacting billions of users, work with petabytes of data in extreme scale and make a difference, send us your resume. Or In other words, If you like: Database performance tuning, Doing it at scale, Building tools that will help you do it Using AI to make it legendary company is the place for you.
How Youll Make An Impact, As a Data Engineer , youll bring value by:
Advise on the optimal database design by analyzing application behavior and business requirements
Design data flow processes
Work with AI at scale on developing high impact solutions
Proactively monitor and optimize database queries, processes, tables and resources
Initiate and lead cross-group optimization processes
Write utilities and design dashboards that will help us maintain, monitor and optimize the company production database environment and data pipeline
Develop automation tools for large cluster maintenance
Face challenges such as scale, visibility and automation
Be involved in both development and infrastructure projects.
Requirements:
Experience working as a Data Engineer/DBA
Deep understanding of performance tuning techniques for relational databases, preferably MySQL/Vertica
Good understanding of infrastructure components, storage, networking and server hardware
Experience working with scripting/programming languages like Bash, Perl or Python
Ability to programmatically build tools that will help the team with its day-to-day tasks
Self motivated, eager to learn, loves challenges
Able to work independently
Excellent English
It Would Be Great If You Also Have:
In-depth Linux system knowledge
Vertica/HBase/Cassandra/Elastic Experience
Hands-on experience with NoSQL databases
Working experience with queuing systems, preferably Kafka
Experience in web facing environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336344
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Data Infra Engineer on the IT production team in our TLV Office, youll play a vital role impacting billions of users, work with petabytes of data in extreme scale and make a difference, send us your resume. Or In other words, If you like: Database performance tuning, Doing it at scale, Building tools that will help you do it Using AI to make it legendary company is the place for you.
How Youll Make An Impact, As a Data Infra Engineer , youll bring value by:
Advise on the optimal database design by analyzing application behavior and business requirements
Design data flow processes
Work with AI at scale on developing high impact solutions
Proactively monitor and optimize database queries, processes, tables and resources
Initiate and lead cross-group optimization processes
Write utilities and design dashboards that will help us maintain, monitor and optimize the company production database environment and data pipeline
Develop automation tools for large cluster maintenance
Face challenges such as scale, visibility and automation
Be involved in both development and infrastructure projects.
Requirements:
Experience working as a Data Engineer/DBA
Deep understanding of performance tuning techniques for relational databases, preferably MySQL/Vertica
Good understanding of infrastructure components, storage, networking and server hardware
Experience working with scripting/programming languages like Bash, Perl or Python
Ability to programmatically build tools that will help the team with its day-to-day tasks
Self motivated, eager to learn, loves challenges
Able to work independently
Excellent English
It Would Be Great If You Also Have:
In-depth Linux system knowledge
Vertica/HBase/Cassandra/Elastic Experience
Hands-on experience with NoSQL databases
Working experience with queuing systems, preferably Kafka
Experience in web facing environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336343
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Data Performance Engineer on the IT production team in our TLV Office, youll play a vital role impacting billions of users, work with petabytes of data in extreme scale and make a difference, send us your resume. Or In other words, If you like: Database performance tuning, Doing it at scale, Building tools that will help you do it Using AI to make it legendary our company is the place for you.
How Youll Make An Impact, As a Data Performance Engineer , youll bring value by:
Advise on the optimal database design by analyzing application behavior and business requirements
Design data flow processes
Work with AI at scale on developing high impact solutions
Proactively monitor and optimize database queries, processes, tables and resources
Initiate and lead cross-group optimization processes
Write utilities and design dashboards that will help us maintain, monitor and optimize the company production database environment and data pipeline
Develop automation tools for large cluster maintenance
Face challenges such as scale, visibility and automation
Be involved in both development and infrastructure projects.
Requirements:
Experience working as a Data Engineer/DBA
Deep understanding of performance tuning techniques for relational databases, preferably MySQL/Vertica
Good understanding of infrastructure components, storage, networking and server hardware
Experience working with scripting/programming languages like Bash, Perl or Python
Ability to programmatically build tools that will help the team with its day-to-day tasks
Self motivated, eager to learn, loves challenges
Able to work independently
Excellent English
It Would Be Great If You Also Have:
In-depth Linux system knowledge
Vertica/HBase/Cassandra/Elastic Experience
Hands-on experience with NoSQL databases
Working experience with queuing systems, preferably Kafka
Experience in web facing environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336342
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Senior Algo Data Engineer on the Infra group, youll play a vital role in develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools.
About Algo platform:
The objective of the algo platform group is to own the existing algo platform (including health, stability, productivity and enablement), to facilitate and be involved in new platform experimentation within the algo craft and lead the platformization of the parts which should graduate into production scale. This includes support of ongoing ML projects while ensuring smooth operations and infrastructure reliability, owning a full set of capabilities, design and planning, implementation and production care.
The group has deep ties with both the algo craft as well as the infra group. The group reports to the infra department and has a dotted line reporting to the algo craft leadership.
The group serves as the professional authority when it comes to ML engineering and ML ops, serves as a focal point in a multidisciplinary team of algorithm researchers, product managers, and engineers and works with the most senior talent within the algo craft in order to achieve ML excellence. How youll make an impact:
As a Senior Algo Data Engineer, youll bring value by:
Develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools, including CI/CD, monitoring and alerting and more
Have end to end ownership: Design, develop, deploy, measure and maintain our machine learning platform, ensuring high availability, high scalability and efficient resource utilization
Identify and evaluate new technologies to improve performance, maintainability, and reliability of our machine learning systems
Work in tandem with the engineering-focused and algorithm-focused teams in order to improve our platform and optimize performance
Optimize machine learning systems to scale and utilize modern compute environments (e.g. distributed clusters, CPU and GPU) and continuously seek potential optimization opportunities.
Build and maintain tools for automation, deployment, monitoring, and operations.
Troubleshoot issues in our development, production and test environments
Influence directly on the way billions of people discover the internet.
Requirements:
Experience developing large scale systems. Experience with filesystems, server architectures, distributed systems, SQL and No-SQL. Experience with Spark and Airflow / other orchestration platforms is a big plus.
Highly skilled in software engineering methods. 5+ years experience.
Passion for ML engineering and for creating and improving platforms
Experience with designing and supporting ML pipelines and models in production environment
Excellent coding skills in Java & Python
Experience with TensorFlow a big plus
Possess strong problem solving and critical thinking skills
BSc in Computer Science or related field.
Proven ability to work effectively and independently across multiple teams and beyond organizational boundaries
Deep understanding of strong Computer Science fundamentals: object-oriented design, data structures systems, applications programming and multi threading programming
Strong communication skills to be able to present insights and ideas, and excellent English, required to communicate with our global teams.
Bonus points if you have:
Experience in leading Algorithms projects or teams.
Experience in developing models using deep learning techniques and tools
Experience in developing software within a distributed computation framework.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336267
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
07/09/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a brilliant, quick-learner Data Engineer for our data engineering team - an independent, logical thinker who understands the importance of data structuring for macro-business decisions.
The position combines high technical skills with a business orientation.
It involves working closely with the analysts, product, and the R&D team and directly affecting the company's cross-department decisions.
Our Data Engineer should be able to design and build a data flow from the API or source requirements with the most suitable tools to fit the data product requirements.
They need to speak in technical and practical terms and, more importantly, lead from one to the other while dealing with challenges, independent learning, and creating them to make our team even better.
Roles and Responsibilities:
Designing and building full data pipelines: From defining source structures to delivering clean, organized data ready for analysis, your work ensures analysts have everything they need to make smart, data-driven decisions
Translating business needs into scalable data solutions involves staying close to the roadmap, understanding technical nuances, and delivering purpose-built pipelines and tools
Writing high-quality, maintainable code: Following best practices while leveraging modern data engineering tooling and CI/CD principles
Solving complex data challenges creatively: Whether it's device identity (Device Graph), online-to-offline matching, privacy compliance, or server-to-server integrations
Managing multi-source data environments: We bring in data from over 50 sources (Marketing, Product, CS, CRM, Ops, and more), and you will assist in tying it all together into a reliable, insight-ready system
Keeping quality and reliability top of mind: Monitor, validate, and improve data quality while ensuring robust processes across the stack
Requirements:
B.A / B.Sc. degree in a highly quantitative field
4+ years of hands-on experience in data engineering, building data pipelines, writing complex SQL, and structuring data at scale
Fast learner with high attention to detail, and proven ability and passion to multitask on several projects at a time
Strong communication skills and a proven ability to collaborate effectively with different stakeholders on various projects and business/technical goals
Google Cloud Data tools (BigQuery, Cloud Composer/Airflow, Pub/Sub, Cloud Functions) or parallel tools on AWS
Fluent in Python, including experience working with APIs, building infrastructure tools (like custom Airflow operators), and managing data streams
High business intuition and analytical mindset, with a strong sense of how to turn raw data into insights and impact
Experience in designing and building scalable data systems for various data applications - an advantage
Experience in designing scalable data systems and analyzing data for insights - an advantage
Background in data-driven companies in large-scale environments - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336266
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן 28 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >