משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
ארגון רפואי באזור השרון מגייס מפתח/ת BI ומהנדס/ת data
התפקיד כולל: עבודה עם פיתוח ותחזוקה של דשבורדים במערכת Qlik Cloud ו-Qlik Sense עבור צוותים עסקיים וקליניים, פיתוח תהליכי ETL מורכבים ממקורות מידע מגוונים, הכנה ועיבוד נתונים לצרכים אנליטיים, ליווי מחקרים קליניים כולל הגדרת אוכלוסיות ובניית מודלים סטטיסטיים, התאמת תשתיות נתונים ופתרונות BI לדרישות משתנות של גורמים עסקיים וחוקרים, השתתפות בפרויקטים מתקדמים בתחום הדאטה והאנליטיקה ועוד.
דרישות:
- 3 שנות ניסיון בפיתוח Qlik Cloud או Qlik Sense
- 3 שנות ניסיון בעבודה עם SQL
- 3 שנות ניסיון בתהליכי ETL מורכבים וPreprocessing
- שנה ניסיון עם שפת Python המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8572127
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
התפקיד כולל:
ניתוח נתונים וביצוע מדידה
הפקת דוחות ותובנות מבסיסי נתונים
זיהוי מגמות
בקרת איכות נתונים והבטחת דיוק המידע
ייעול תהליכי עבודה באמצעות אוטומציה וכלי ניתוח
דרישות:
ניסיון מחברה לוגיסטית
ניסיון של שנתיים לפחות בתפקיד דומה
שליטה באקסל
יכולת עבודה עצמאית לצד עבודת צוות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8259048
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בדטה קיוב בע''מ
לחברה מובילה בחולון דרוש/ה אנליסט/ית נתונים ( data Analyst) להצטרפות לצוות הדאטה ולהובלת תובנות עסקיות מבוססות נתונים.
מה עושים בתפקיד?
הפקת תובנות מתוך מאגרי המידע של החברה - באופן יזום ועל פי דרישה
עבודה שוטפת מול מקבלי החלטות לאיתור צרכים עסקיים, אפיון פתרונות וניתוח תוצאות
בניית מדדים (KPIs), דוחות, דשבורדים ומודלים אנליטיים לתמיכה בקבלת החלטות
ביצוע אנליזות מורכבות, זיהוי מגמות, פערים והזדמנויות לשיפור
פיתוח ניתוחים כמותיים והצגת נתונים באמצעות כלי BI
הבנת תהליכים עסקיים רב-מערכתיים ותרגומם לפתרונות מבוססי דאטה
דרישות:
תואר ראשון בתעשייה וניהול, מדעים מדויקים או תחום רלוונטי - חובה
ניסיון של לפחות 3 שנים כ- data Analyst - חובה
ניסיון מעשי בעבודה עם בסיסי נתונים מבוססי SQL - חובה
ניסיון בעבודה עם כלי BI כגון Tableau - חובה
חשיבה אנליטית גבוהה ויכולת לתרגם צרכים עסקיים לפתרונות נתונים
יכולת עבודה עצמאית, חקר נתונים ונכונות ללמידה מתמדת המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8528494
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בקונסיסט ישראל
מיקום המשרה: לוד
סוג משרה: משרה מלאה
אנליסט במערכת חשבונאית פיננסית גדולה, אחראי על סביבת qlik sense - הקמת מסכים, תהליכי עבודה והדרכת משתמשים
משרה מלאה בלוד
דרישות:
מאפיינים אישיים:
- ראש גדול
- יכולת למידה עצמית ופתרון בעיות

מאפייני משרה:
- ידע ונסיון בפיתוח מסכים בסביבת qlik sense - 3 שנים לפחות
- ידע ונסיון בפיתוח ועיצוב UI למערכות בינוניות / גדולות בסביבת QLIK
- ידע ב Excel ו SQL
- יכולת הדרכה ועבודה עם משתמשים
- יתרונות
o רקע בנקאי, לפחות 3 שנים
o ידע ונסין בפיתוח מודלים ותהליכי ETL בסביבת Qlik sense המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8509850
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
לחברת Travel-Tech המפתחת פלטפורמת B2B2C עבור חברות תעופה דרוש/ה Technical Product Analyst.
החברה מפתחת פלטפורמה המתחברת למערכות האיקומרס הקיימות של חברות התעופה ומאפשרת הגדלת הכנסות באמצעות Marketplace חכם הכולל טיסות, מלונות, רכבים ותוכן משלים.
המודל העסקי מבוסס Revenue Share, ויוצר שותפות מסחרית מתמשכת עם חברות התעופה.
החברה פועלת כסטארטאפ קטן עם מוצר טכנולוגי מתקדם ולקוחות Enterprise גלובליים.
התפקיד משולב בצוות המוצר, בדיווח ישיר ל-Head of Product, וכולל אחריות על ניתוח נתוני מוצר, ניהול סביבת ה- data Warehouse והפיכת דאטה לתובנות עסקיות המשפיעות על קבלת החלטות.
התפקיד מהווה יד ימינו של מנהל המוצר בכל הקשור לקבלת החלטות מבוססות נתונים, וכולל עבודה שוטפת מול הנהלה בכירה וגורמים עסקיים.
דרישות:
- שליטה גבוהה מאוד ב-SQL - חובה
- ניסיון בעבודה אנליטית משמעותית (Product Analytics / data Analysis)
- ניסיון בניהול וארגון data Warehouse - בניית טבלאות, טיוב נתונים והבטחת איכות מידע
- ניסיון בהפקת דוחות ניהוליים, דשבורדים ו-KPIs להנהלה בכירה
- יכולת ניתוח מגמות, דפוסי שימוש ואנומליות במוצר
- יכולת עבודה עצמאית וחקירה מעמיקה של דאטה (לשחות בדאטה)
- יכולת תרגום נתונים טכניים מורכבים לתובנות עסקיות ברורות
- אנגלית ברמה גבוהה מאוד - כתיבה ודיבור
- יכולת למידה מהירה ועבודה בסביבה דינמית של סטארטאפ קטן
יתרון:
- ניסיון בעבודה עם Python לעיבוד נתונים
- היכרות עם Spark
- ניסיון בעבודה עם דאטה בהיקפים גדולים
- ניסיון קודם בסביבת SaaS או מוצר B2B המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8482341
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
לארגון גדול ומוביל במרכז דרוש/ה data Engineer

הזדמנות להצטרף לצוות BI מקצועי בארגון הנמצא בתנופת עשייה ובמעבר לטכנולוגיות מתקדמות וחדשניות

תחומי אחריות:

אפיון ומיפוי מידע

הגדרת ופיתוח תהליכי ETL

בניית מודל נתונים והבנת הקשרים בין טבלאות

ניתוח מערכות BI

פיתוח דשבורדים ודוחות בהתאם לדרישות העסקיות

מתן מענה שוטף לדרישות, תקלות וקידום פרויקטים
דרישות:
* לפחות 4 שנות ניסיון כ- data Engineer

* ניסיון חובה עם Databricks

ניסיון בהגדרת ופיתוח תהליכי ETL

ניסיון בניתוח מערכות BI

ניסיון בעבודה מול ממשקים עסקיים וטכנולוגיים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8577359
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
דרושים בפיליפ מוריס בע"מ
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
אנחנו מחפשים data Governance Management Lead, שיצטרף לצוות ה-DI A הגלובלי שלנו!
תפקיד מוביל ואסטרטגי האחראי על בנייה, יישום והטמעה של תהליכי ניהול מדיניות נתונים ( data Governance) בארגון. התפקיד כולל הגדרת סטנדרטים, שמירה על איכות ומהימנות הנתונים, ניהול הרשאות ונגישות, והטמעת מדיניות גלובלית אחידה.

*תיאום ויישום תהליכי data Governance מול יחידות Business, IT ו?Analytics כדי לוודא אחידות ומוכנות ארגונית.
*עבודה שוטפת עם כלים ייעודיים לניהול נתונים ו? BI לצורך תיעוד, מעקב וניתוח נתונים ארגוניים.
*הובלת יוזמות לשיפור תהליכי נתונים, כולל ניהול פגישות, פתרון חסמים ויישום קווים מנחים חדשים.
דרישות:
*ניסיון Hands?on בבניית תהליכים, חוקים ופתרונות בתחום איכות הנתונים.
*שליטה בכלים לניהול מדיניות נתונים (Atlan, LeanIX) + ניסיון עם כלי BI /Visualization.
*אנגלית ברמה גבוהה מאוד - דיבור, קריאה וכתיבה (חובה).
י*כולת הובלת פרויקטים מקצה לקצה ופתרון בעיות אנליטי.
*ידע מוכח ב?פרטיות נתונים ורגולציה + ניסיון בביצוע ביקורות נתונים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8518669
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
24/02/2026
Location: Herzliya
Job Type: Full Time
Required Senior Data Engineer
Join our core platform engineering team, developing our AI-powered automotive data management platform.
We are developing the next generation data-driven products for the Automotive industry, focusing on cybersecurity (XDR) and vehicle quality. Our products monitor and secure millions of vehicles worldwide and help automakers leverage connected vehicle data to deliver cyber resilience, safety, customer satisfaction and increase brand loyalty.
Our Data Engineering & Data Science Group leads the development of our Iceberg-based data platform, including data lake, query engine, and ML-Ops tools, serving as a solid AI-ready foundation for all our products.
At the core of our Engineering Team, you will build and operate scalable, production-grade customer-facing data and ML platform components, focusing on reliability and performance.
Technological background and focus: Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
This role is full-time and is Herzliya, Israel based.
Responsibilities
Design, build, and maintain scalable data pipelines to ingest and transform batch data on our data lake, enabling analytics and ML with strong data quality, governance, observability, and CI/CD.
Build and expand our foundational data infrastructure, including our data lake, analytics engine, and batch processing frameworks.
Create robust infrastructure to enable automated pipelines that will ingest and process data into our analytical platforms, leveraging open-source, cloud-agnostic frameworks and toolsets.
Develop and maintain our data lake layouts and architectures for efficient data access and advanced analytics.
Develop and manage orchestration tools, governance tools, data discovery tools, and more.
Work with other team members of the engineering group, including data scientists, data architects, and data analysts, to provide solutions using a use case-based approach that drives the construction of technical data flows.
Requirements:
BSc/BA in Computer Science, Engineering or a related field
At least 6 years of experience with designing and building data pipelines, analytical tools and data lakes
Experience with the data engineering tech stack: ETL & orchestration tools (e.g. Airflow, Argo, Prefect), and distributed data processing tools (e.g Spark, Kafka, Presto)
Experience with Python is a must
Experience working in a containerized environment (e.g. k8s)
Experience working with open-source products
End-to-end ownership mindset with a proactive, production-first approach
Development experience, using a general purpose programming language (Java, Scala, Kotlin, Go, etc.) - An advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560075
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
24/02/2026
Location: Herzliya
Job Type: Full Time
Required Data Engineer
Description
Join our core platform engineering team, developing our AI-powered automotive data management platform.
We are developing the next generation data-driven products for the Automotive industry, focusing on cybersecurity (XDR) and vehicle quality. our products monitor and secure millions of vehicles worldwide and help automakers leverage connected vehicle data to deliver cyber resilience, safety, customer satisfaction and increase brand loyalty.
Our Data Engineering & Data Science Group leads the development of our Iceberg-based data platform, including data lake, query engine, and ML-Ops tools, serving as a solid AI-ready foundation for all our products.
At the core of our Engineering Team, you will build and operate scalable, production-grade customer-facing data and ML platform components, focusing on reliability and performance.
Technological background and focus: Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
This role is full-time and is Herzliya, Israel based.
Responsibilities
Design, build, and maintain scalable data pipelines to ingest and transform batch data on our data lake, enabling analytics and ML with strong data quality, governance, observability, and CI/CD.
Build and expand our foundational data infrastructure, including our data lake, analytics engine, and batch processing frameworks.
Create robust infrastructure to enable automated pipelines that will ingest and process data into our analytical platforms, leveraging open-source, cloud-agnostic frameworks and toolsets.
Develop and maintain our data lake layouts and architectures for efficient data access and advanced analytics.
Develop and manage orchestration tools, governance tools, data discovery tools, and more.
Work with other team members of the engineering group, including data architects, data analysts, and data scientists, to provide solutions using a use case-based approach that drives the construction of technical data flows.
End-to-end ownership mindset with a proactive, production-first approach.
Requirements:
BSc/BA in Computer Science, Engineering or a related field
At least 4 years of experience with designing and building data pipelines, analytical tools and data lakes
Experience with the data engineering tech stack: ETL & orchestration tools (e.g. Airflow, Argo, Prefect), and distributed data processing tools (e.g Spark, Kafka, Presto)
Experience with Python is a must
Experience working with open-source products - Advantage
Experience working in a containerized environment (e.g. k8s) - Advantage
Development experience, using a general purpose programming language (Java, Scala, Kotlin, Go, etc.) - Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560068
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Netanya
Job Type: Full Time
We are looking for a senior Data Scientist to join a team of passionate engineers who build premium solutions at scale. Every day, we tackle ambiguous and stimulating challenges. We build and operate large-scale distributed machine learning systems that process 1B predictions per second during real-time auctions.
What will you do?
As a Senior Data Scientist, your mission will be to:
Improve existing algorithms & tools allowing to explore and analyze more and more data and provide accurate feedback on the activities.
Develop new algorithms & new approaches to provide accurate predictions and drive new products by providing business insights.
Implement your algorithms and models end to end.
Collaborate with a variety of teams to develop services from design to production.
Make sure the software is in good hands by writing, running and automating tests (unit, functional, load...).
Keep up to date with the latest Machine Learning technologies to make sure we always use the best class algorithms according to the context.
Shape how billions of people discover and enjoy premium content by improving ad relevance, quality, and efficiency across Teads global publisher network.
What will you bring to the team?
Experience in Statistics (i.e. statistical analysis, regression analysis, ) and/or Artificial Intelligence (i.e. Data Mining, Machine Learning, ).
An appetite for Data Science applied to high-volumetry, low-latency topics.
Ability to read scientific articles, to analyze critically, and to implement as appropriate.
Good programming abilities.
True scientist skills: fast learner, curious, sense of details, rigorous.
Strong communication skills, working collaboratively with the team, able to teach concepts, and communicate clearly to a wide audience of complicated topics.
Strong problem solving skills, and deducing from specific problems wider range products.
You are very mindful about your application architecture, performance, testing and maintainability and its overall quality.
Requirements:
5+ years of hands-on experience with coding ML based solutions in high scale systems
Relevant industry experience / publications in ad-tech and recommender system.
Msc/Phd in computer science / math.
Industry experience in building engineering at scale.
Large-scale distributed systems, service oriented architecture.
Previous experience with all or some of the elements of our Stack (we mainly use Go, Python, Java, AWS, Jupyter notebooks).
Knowledge in data engineering.
Ability to transform raw data into actionable business insights.
Please submit your CV in English.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8559989
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Staff Algo Data Engineer
Realize your potential by joining the leading performance-driven advertising company!
As a Staff Algo Data Engineer on the Infra group, youll play a vital role in develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools.
About Algo platform:
The objective of the algo platform group is to own the existing algo platform (including health, stability, productivity and enablement), to facilitate and be involved in new platform experimentation within the algo craft and lead the platformization of the parts which should graduate into production scale. This includes support of ongoing ML projects while ensuring smooth operations and infrastructure reliability, owning a full set of capabilities, design and planning, implementation and production care.
The group has deep ties with both the algo craft as well as the infra group. The group reports to the infra department and has a dotted line reporting to the algo craft leadership.
The group serves as the professional authority when it comes to ML engineering and ML ops, serves as a focal point in a multidisciplinary team of algorithm researchers, product managers, and engineers and works with the most senior talent within the algo craft in order to achieve ML excellence.
How youll make an impact:
As a Staff Algo Data Engineer Engineer, youll bring value by:
Develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools, including CI/CD, monitoring and alerting and more
Have end to end ownership: Design, develop, deploy, measure and maintain our machine learning platform, ensuring high availability, high scalability and efficient resource utilization
Identify and evaluate new technologies to improve performance, maintainability, and reliability of our machine learning systems
Work in tandem with the engineering-focused and algorithm-focused teams in order to improve our platform and optimize performance
Optimize machine learning systems to scale and utilize modern compute environments (e.g. distributed clusters, CPU and GPU) and continuously seek potential optimization opportunities.
Build and maintain tools for automation, deployment, monitoring, and operations.
Troubleshoot issues in our development, production and test environments
Influence directly on the way billions of people discover the internet
Our tech stack:
Java, Python, TensorFlow, Spark, Kafka, Cassandra, HDFS, vespa.ai, ElasticSearch, AirFlow, BigQuery, Google Cloud Platform, Kubernetes, Docker, git and Jenkins.
Requirements:
Experience developing large scale systems. Experience with filesystems, server architectures, distributed systems, SQL and No-SQL. Experience with Spark and Airflow / other orchestration platforms is a big plus.
Highly skilled in software engineering methods. 5+ years experience.
Passion for ML engineering and for creating and improving platforms
Experience with designing and supporting ML pipelines and models in production environment
Excellent coding skills - in Java & Python
Experience with TensorFlow - a big plus
Possess strong problem solving and critical thinking skills
BSc in Computer Science or related field.
Proven ability to work effectively and independently across multiple teams and beyond organizational boundaries
Deep understanding of strong Computer Science fundamentals: object-oriented design, data structures systems, applications programming and multi threading programming
Strong communication skills to be able to present insights and ideas, and excellent English, required to communicate with our global teams.
Bonus points if you have:
Experience in leading Algorithms projects or teams.
Experience in developing models using deep learning techniques and tools
Experience in developing software within a distributed computation framework
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8559783
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
24/02/2026
Location: Petah Tikva
Job Type: Full Time
We are seeking a Senior Data Scientist to be one of the first data science hires for our newly formed ML team. This is a unique ground-floor opportunity to build our data science capabilities from scratch and have direct influence on our analytical and modeling approaches. This role combines advanced data science expertise with foundational contributions, requiring someone who can develop sophisticated models, conduct deep analytical research, and help establish the data science methodologies that will guide the team as we scale. As one of our founding data scientists, you'll work closely with our Tech Lead to shape our modeling approaches, define our analytical standards, and build the fundamental data science skill set for future hires.
What You'll Do:
Build foundational data science capabilities: As one of our first data science hires, work with the Tech Lead to develop core modeling methodologies, analytical frameworks, and research practices
End-to-end model development: Take ownership of complete ML model lifecycle - from initial research and experimentation through production deployment and monitoring
Build impactful models: Design, develop, and deploy machine learning models that solve complex business problems across payments, risk, and customer analytics
Define analytical standards: Help establish best practices for data exploration, feature engineering, model validation, and statistical analysis
Conduct deep research: Lead exploratory data analysis and research initiatives to uncover insights and identify ML opportunities across the business
Partner with stakeholders: Work closely with business teams to understand requirements, translate problems into data science solutions, and communicate findings effectively
Establish model development practices: Help set up our approach to model experimentation, A/B testing, and performance monitoring
Shape data science culture: Contribute to establishing the team's analytical rigor, documentation standards, and knowledge-sharing practices
Drive innovation: Research and evaluate new ML techniques, algorithms, and approaches that could benefit our business use cases.
Requirements:
5+ years of experience in Machine Learning, Data Science, or related technical roles
Excited about building something new and comfortable with the ambiguity of a startup-like environment within a larger company
Proven track record of building and deploying machine learning models in production environments
Strong proficiency in ML frameworks (TensorFlow, PyTorch, Scikit-learn) and programming languages (Python, SQL)
Experience with cloud platforms (AWS, GCP, Azure) and MLOps tools and practices
Excellent communication skills with ability to explain technical concepts to stakeholders and influence technical decisions
Comfortable taking ownership, making decisions, and driving initiatives independently
Bachelor's or Master's degree in Computer Science, AI, Data Science, Mathematics, or related quantitative field
Experience in fintech or financial services is a plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8559545
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Senior Data Scientist
Realize your potential by joining the leading performance-driven advertising company!
As a Senior Data Scientist, youll play a vital role in turning algorithm prototypes into shippable products that will have a significant and immediate impact on the companys revenue
How youll make an impact:
As a Senior Data Scientist, youll bring value by:
Be responsible for the entire algorithmic lifecycle in the company: data analytics, prototyping of new ideas, implementing algorithms models in a production environment and then monitoring and maintaining them
Turn algorithm prototypes into shippable products that will have a significant and immediate impact on the companys revenue
Work on a daily basis with some of the hottest trends in todays job market: machine/deep learning, big data analytics/engineering and cloud computing
Apply your scientific knowledge and creativity to analyze large volumes of diverse data and develop algorithmic solutions and models to solve complex problems
Influence directly on the way billions of people discover the internet
Work on projects such as Internet Personalization, Content Feed, Real Time Bidding, Video Recommendations and much more
Our tech stack:
Python, Java, TensorFlow, Spark, Kafka, Cassandra, HDFS, ElasticSearch, AirFlow, BigQuery, Google Cloud Platform, Kubernetes and Docker.
Requirements:
M.Sc. or PhD. in Computer Science, Mathematics, Engineering or a related field
Strong knowledge in Python
Good knowledge in Java, Scala or C++
Familiarity with statistical modeling techniques
5+ years of hands on experience with coding machine learning/statistical modeling based solutions
Experience in data analysis and visualization and strong knowledge in SQL
Possess strong problem solving and critical thinking skills
Bonus points if you have:
Experience in developing models using deep learning techniques and tools
Experience in developing software within a distributed computation framework.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8559398
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Senior Algo Data Engineer
Realize your potential by joining the leading performance-driven advertising company!
As a Senior Algo Data Engineer on the Infra group, youll play a vital role in develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools.
About Algo platform:
The objective of the algo platform group is to own the existing algo platform (including health, stability, productivity and enablement), to facilitate and be involved in new platform experimentation within the algo craft and lead the platformization of the parts which should graduate into production scale. This includes support of ongoing ML projects while ensuring smooth operations and infrastructure reliability, owning a full set of capabilities, design and planning, implementation and production care.
The group has deep ties with both the algo craft as well as the infra group. The group reports to the infra department and has a dotted line reporting to the algo craft leadership.
The group serves as the professional authority when it comes to ML engineering and ML ops, serves as a focal point in a multidisciplinary team of algorithm researchers, product managers, and engineers and works with the most senior talent within the algo craft in order to achieve ML excellence.
How youll make an impact:
As a Senior Algo Data Engineer, youll bring value by:
Develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools, including CI/CD, monitoring and alerting and more
Have end to end ownership: Design, develop, deploy, measure and maintain our machine learning platform, ensuring high availability, high scalability and efficient resource utilization
Identify and evaluate new technologies to improve performance, maintainability, and reliability of our machine learning systems
Work in tandem with the engineering-focused and algorithm-focused teams in order to improve our platform and optimize performance
Optimize machine learning systems to scale and utilize modern compute environments (e.g. distributed clusters, CPU and GPU) and continuously seek potential optimization opportunities.
Build and maintain tools for automation, deployment, monitoring, and operations.
Troubleshoot issues in our development, production and test environments
Influence directly on the way billions of people discover the internet
Our tech stack:
Java, Python, TensorFlow, Spark, Kafka, Cassandra, HDFS, vespa.ai, ElasticSearch, AirFlow, BigQuery, Google Cloud Platform, Kubernetes, Docker, git and Jenkins.
Requirements:
Experience developing large scale systems. Experience with filesystems, server architectures, distributed systems, SQL and No-SQL. Experience with Spark and Airflow / other orchestration platforms is a big plus.
Highly skilled in software engineering methods. 5+ years experience.
Passion for ML engineering and for creating and improving platforms
Experience with designing and supporting ML pipelines and models in production environment
Excellent coding skills - in Java & Python
Experience with TensorFlow - a big plus
Possess strong problem solving and critical thinking skills
BSc in Computer Science or related field.
Proven ability to work effectively and independently across multiple teams and beyond organizational boundaries
Deep understanding of strong Computer Science fundamentals: object-oriented design, data structures systems, applications programming and multi threading programming
Strong communication skills to be able to present insights and ideas, and excellent English, required to communicate with our global teams.
Bonus points if you have:
Experience in leading Algorithms projects or teams.
Experience in developing models using deep learning techniques and tools
Experience in developing software within a distributed computation framework.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8559383
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
23/02/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands on, proactive, and impact driven Senior Business Analyst to join our data team. In this role, youll shape how the company measures success and help embed a strong data driven culture across every domain, from business operations to product, finance, and beyond.

This is an opportunity for someone who thrives in dynamic, fast changing environments, loves building from scratch, and is just as comfortable running deep analyses and leading cross functional measurement discussions as they are partnering with data engineering to design scalable data models that empower the entire organization.

In this role you will
Collaborate with cross functional teams to understand business objectives and develop data driven solutions
Lead measurement and metric discussions with diverse stakeholders, translating needs into clear, consistent, and actionable definitions
Conduct deep dive analyses to uncover insights and deliver impactful recommendations
Partner with data engineering to design scalable data models and improve data accessibility
Build clear, intuitive dashboards and reports to track performance and enable self serve analytics
Proactively monitor business metrics and provide timely insights to optimize operations and identify opportunities
Promote a data driven culture by empowering teams to use data confidently in decision making
Mentor teammates and contribute to the growth and maturity of the data function
Requirements:
4+ years of experience in business analysis, product analytics, or data analysis, ideally in a fast moving environment
Strong SQL skills and proficiency with BI tools (Metabase, Looker, Tableau, or similar); experience with data warehouse concepts and cloud platforms
Skilled at framing problems, defining metrics, and aligning teams to create a shared understanding of success
A hands on, independent self starter who can own projects end to end, from problem definition through delivery
Excellent communication, facilitation, and storytelling skills, able to translate complex data into actionable insights for technical and non-technical audiences
Strong problem solving and critical thinking skills, with the ability to bring clarity and drive decisions forward
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8558242
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Required Head Of Tech Data
About you
As our Head of Tech Data, you will be a senior member of the Tech Leadership team, responsible for defining and driving our Tech Data strategy across the organization.
This is a foundational leadership role. You will shape how data is consumed across our technology organization, from principles and operating model to tooling, metrics, and ways of working. You will assess our current state, identify the most meaningful gaps and risks, and define where data can create the greatest impact for our teams and products.
You will operate comfortably at both the strategic and execution levels, influencing leadership decisions, aligning senior stakeholders, and getting hands on when needed. You will lead the creation of standards, frameworks, and best practices that scale and have lasting impact, while working closely with Product, Design, Engineering, and the broader Data organization.
Job responsibilities
Lead and develop the Product Analytics team within Tech.
Define and own the Tech Data strategy, shaping how data supports decision making across the organization.
Act as the strategic and technical authority for Tech Data, assessing current practices and setting the operating model, infrastructure, standards, and roadmap.
Establish clear ownership and governance to ensure consistency, quality, and trust.
Partner closely with Engineering, Product, Design, and Data to embed data into every stage of the development lifecycle.
Drive innovation in Tech Data, including the use of AI to enable speed & scale.
Establish Tech Data metrics and reporting that give leadership visibility and support clear, actionable decisions.
Own the lifecycle of data products, from discovery and modeling through KPI definition, adoption, and maintenance.
Shape and lead company KPIs, ensuring consistency across dashboards & AI outputs.
Ensure data products are trusted, scalable & used to drive measurable impact.
Requirements:
10+ years of experience: in Data Product, Product Analytics, or BI roles, with senior level ownership of product domains and critical KPIs.
5+ years of proven experience: leading, mentoring, and scaling high performing data analytics teams and practices over time.
Data Culture & Ownership: Proven track record of driving culture changes around data ownership and self-service discovery.
Cross-Functional Influence: A strong communicator able to align stakeholders across Engineering, Product, and Design, ensuring data is embedded in every stage of the development lifecycle.
B2B SaaS expertise: Deep understanding of the metrics and lifecycles inherent in fast-growing SaaS environments.
Product Insights & Modeling: Hands-on experience with SQL, Pendo, Snowflake, Tableau and analytical models to drive business impact and product innovation.
AI & Innovation: Experience leveraging AI and LLMs for conversational analytics, with the ability to translate business logic into a semantic layer for AI-driven insights.
Strategic Thinking: Ability to define a "Tech Data Strategy" that aligns product roadmaps with data capabilities.
Results-oriented and accountable, with the ability to operate at both the strategic level and get "hands-on" when needed.
Governance & Trust: Experience establishing clear ownership and "Trust by Design" to ensure product data is consistent, high-quality, and scalable.
Fluent English & Hebrew proficiency (written and spoken).
It Will Be Great If You Have:
Experience in HR, Payroll, with an understanding of people data & compliance.
Exposure to large scale SaaS architectures; microservices, APIs &integrations.
Background in hands on software development experience.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8558215
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a Senior Data Engineer to join our Platform group in the Data Infrastructure team.
Youll work hands-on to design and deliver data pipelines, distributed storage, and streaming services that keep our data platform performant and reliable. As a senior individual contributor you will lead complex projects within the team, raise the bar on engineering best-practices, and mentor mid-level engineers - while collaborating closely with product, DevOps and analytics stakeholders.
About the Platform group
The Platform Group accelerates our productivity by providing developers with tools, frameworks, and infrastructure services. We design, build, and maintain critical production systems, ensuring our platform can scale reliably. We also introduce new engineering capabilities to enhance our development process. As part of this group, youll help shape the technical foundation that supports our entire engineering team.
Job responsibilities
Code & ship production-grade services, pipelines and data models that meet performance, reliability and security goals
Lead design and delivery of team-level projects - from RFC through rollout and operational hand-off
Improve system observability, testing and incident response processes for the data stack
Partner with Staff Engineers and Tech Leads on architecture reviews and platform-wide standards
Mentor junior and mid-level engineers, fostering a culture of quality, ownership and continuous improvement
Stay current with evolving data-engineering tools and bring pragmatic innovations into the team.
Requirements:
5+ years of hands-on experience in backend or data engineering, including 2+ years at a senior level delivering production systems
Strong coding skills in Python, Kotlin, Java or Scala with emphasis on clean, testable, production-ready code
Proven track record designing, building and operating distributed data pipelines and storage (batch or streaming)
Deep experience with relational databases (PostgreSQL preferred) and working knowledge of at least one NoSQL or columnar/analytical store (e.g. SingleStore, ClickHouse, Redshift, BigQuery)
Solid hands-on experience with event-streaming platforms such as Apache Kafka
Familiarity with data-orchestration frameworks such as Airflow
Comfortable with modern CI/CD, observability and infrastructure-as-code practices in a cloud environment (AWS, GCP or Azure)
Ability to break down complex problems, communicate trade-offs clearly, and collaborate effectively with engineers and product partners
Bonus Skills:
Experience building data governance or security/compliance-aware data platforms
Familiarity with Kubernetes, Docker, and infrastructure-as-code tools
Experience with data quality frameworks, lineage, or metadata tooling.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8558192
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are seeking a skilled Data Scientist to join our dynamic team. As a Data Scientist specializing in image analysis and text reading, you will play a pivotal role in developing and enhancing our AI-driven solutions for quick and accurate component inspection in electronic manufacturing.

Responsibilities
Develop and implement advanced algorithms for image analysis and text reading in the context of component inspection.
Collaborate closely with cross-functional teams to enhance existing models and drive continuous improvement.
Work with large-scale datasets, applying statistical and machine learning techniques to extract meaningful insights.
Stay updated with the latest advancements in the field of image analysis and text reading and apply them to enhance our solutions.
Requirements:
Solid experience in data science, with a focus on image analysis and text reading.

Proficiency in programming languages such as Python and familiarity with relevant libraries (e.g., TensorFlow, PyTorch, OpenCV).

Strong understanding of statistical modeling, machine learning, and deep learning algorithms.

Experience working with large-scale datasets and applying data preprocessing techniques.

Excellent problem-solving skills and the ability to work independently as well as in a team environment.

Strong communication and presentation skills, with the ability to convey complex concepts to non-technical stakeholders.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8557453
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Petah Tikva
Job Type: Full Time
Were looking for a highly skilled and motivated Senior Data Engineer to join the Resolve (formerly DevOcean) team at our company. In this role, youll be responsible for designing, building, and optimizing the data infrastructure that powers our SaaS platform. Youll play a key role in shaping a cost-efficient and scalable data architecture while building robust data pipelines that serve analytics, search, and reporting needs across the organization.
Youll work closely with our backend, product, and analytics teams to ensure our data layer remains fast, reliable, and future-proof. This is an opportunity to influence the evolution of our data strategy and help scale a cybersecurity platform that processes millions of findings across complex customer environments.
Roles and Responsibilities:
Design, implement, and maintain data pipelines to support ingestion, transformation, and analytics workloads.
Collaborate with engineers to optimize MongoDB data models and identify opportunities for offloading workloads to analytical stores (ClickHouse, DuckDB, etc.).
Build scalable ETL/ELT workflows to consolidate and enrich data from multiple sources.
Develop data services and APIs that enable efficient querying and aggregation across large multi-tenant datasets.
Partner with backend and product teams to define data retention, indexing, and partitioning strategies to reduce cost and improve performance.
Ensure data quality, consistency, and observability through validation, monitoring, and automated testing.
Contribute to architectural discussions and help define the long-term data platform vision.
Requirements:
8+ years of experience as a Data Engineer or Backend Engineer working in a SaaS or data-intensive environment.
Strong proficiency in Python and experience with data processing frameworks (e.g., Pandas, PySpark, Airflow, or equivalent).
Deep understanding of data modeling and query optimization in NoSQL and SQL databases (MongoDB, PostgreSQL, etc.).
Hands-on experience building ETL/ELT pipelines and integrating multiple data sources.
Familiarity with OTF technologies and analytical databases such as ClickHouse, DuckDB and their role in cost-efficient analytics.
Experience working in cloud environments (AWS preferred) and using native data services (e.g., Lambda, S3, Glue, Athena).
Strong understanding of data performance, storage optimization, and scalability best practices.
Nice to Have:
Experience with streaming or CDC pipelines (e.g., Kafka, Debezium).
Familiarity with cloud security best practices and data governance.
Exposure to multi-tenant SaaS architectures and large-scale telemetry data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8556159
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/02/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Senior Data Engineer, you will be helping us design and build a flexible and scalable system that will allow our business to move fast and innovate. You will be expected to show ownership and responsibility for the code you write, but it doesn't stop there. you are encouraged to think big and help out in other areas as well.

Responsibilities:

Designing and writing code that is critical for business growth
Mastering scalability and enterprise-grade SAAS product implementation
Sense of ownership - leading design for new products and initiatives as well as integrating with currently implemented best-practices
Building and owning production-grade ETL/ELT pipelines that power analytics, ML training, and real-time AI systems
Designing data architectures that support agentic systems, including:
Embeddings and vector-based retrieval
RAG pipelines
Feedback loops and continuous improvement
Review your peer's design and code
Work closely with product managers, peer engineers, and business stakeholders
Requirements:
5+ years of hands-on experience as Software Engineer with Strong Python skills (TypeScript / Node.js is a plus)
Hands on experience in managing major clouds vendors infrastructure (AWS, GCP, Azure)
Proficiency with SQL, modeling and working with relational and non relational databases, and pushing them past their limits
Hands on experience in designing and implementing ML-aware data pipelines (Spark, Airflow), distributed systems and restful APIs
Experience or strong interest in LLMs and agentic systems, including:
Agentic workflows (LangChain, LangGraph)
RAG patterns, Vector databases and embeddings
Evaluating and monitoring AI-driven systems (Langfuse LangSmith)
Familiarity with ML & AI tooling, such as:
Feature stores, training pipelines, or model-serving data flows
ML platforms (MLflow, SageMaker, Vertex, etc.)
Experience with CI/CD, Docker, and Kubernetes
The ability to lead new features from design to implementation, taking into consideration topics such as performance, scalability, and impact on the greater system
Comfortable operating in a fast-moving startup with high ownership and low process
Enjoy communicating and collaborating, sharing your ideas and being open to honest feedback
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8556060
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/02/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for an Applied Data Scientist to join one of our product squads. Youll design, build, and deploy data-driven solutions that combine machine learning, statistical methods, and SQL/rules-based decision logic to power autonomous supply chain intelligence platform. Youll work closely with data science, engineering, product, and supply chain experts and own solutions end-to-end-from problem definition to production monitoring and iteration.

Responsibilities:

Deliver data science solutions end-to-end within a product squad: problem framing → data prep/labeling → modeling → deployment support → monitoring → iteration
Build, train, and improve ML models for supply chain use cases (e.g., inventory risk prediction, demand anomalies, root-cause analysis)
Define success metrics and evaluation plans with support from senior DS/PM; run error analysis and document learnings
Work with stakeholders to create and maintain ground truth (label definitions, labeling workflows, QA checks, feedback loops)
Implement hybrid decision logic by combining ML outputs with statistical methods and SQL/rules-based logic for robustness and explainability
Analyze large, multi-source operational datasets to identify trends, anomalies, and drivers of performance
Collaborate with software engineers to productionize solutions (batch and/or real-time), including testing, logging, and basic monitoring
Monitor deployed models/rules, investigate performance issues (data quality, drift, edge cases), and iterate based on outcomes
Contribute to team practices: reproducible notebooks/code, documentation, and experiment tracking
Requirements:
MSc in Computer Science, Data Science, Mathematics, Statistics, Engineering, (or equivalent practical experience)
3+ years of experience in applied data science / ML in a product environment (or equivalent practical experience)
Strong Python skills and experience with common DS libraries (pandas, NumPy, scikit-learn); familiarity with PyTorch/TensorFlow is a plus
Solid SQL skills (joins, aggregations, window functions) and comfort working with production data in a warehouse/lake
Experience building predictive or anomaly detection models and performing rigorous evaluation (baselines, cross-validation where relevant, error analysis)
Ability to translate business questions into measurable metrics and a clear analytical plan (with guidance when needed)
Experience working with messy real-world data: data validation, debugging pipelines, and collaborating on labeling/ground truth
Familiarity with taking models to production: packaging/hand-off to engineers, versioning, and understanding monitoring/drift concepts
Strong communication and collaboration skills with engineering, product, and domain experts; comfortable receiving feedback and iterating fast
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8556061
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/02/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were seeking an experienced and skilled Data and AI Infra Engineer to join our Data Infrastructure team and drive the companys data capabilities at scale.
As the company is fast growing, the mission of the data and AI infrastructure team is to ensure the company can manage data at scale efficiently and seamlessly through robust and reliable data infrastructure.
A day in the life and how youll make an impact:
As a Senior Engineer, you are required to independently lead the design, development, and optimization of our data infrastructure, collaborating closely with software engineers, data scientists, data engineers, and other key stakeholders. You are expected to own critical initiatives, influence architectural decisions, and mentor engineers to foster a high-performing team
You will:
Lead the design and development of scalable, reliable, and secure data storage, processing, and access systems.
Define and drive best practices for CI/CD processes, ensuring seamless deployment and automation of data services.
Oversee and optimize our machine learning platform for training, releasing, serving, and monitoring models in production.
Own and develop the company-wide LLM infrastructure, enabling teams to efficiently build and deploy projects leveraging LLM capabilities.
Own the company's feature store, ensuring high-quality, reusable, and consistent features for ML and analytics use cases.
Architect and implement real-time event processing and data enrichment solutions, empowering teams with high-quality, real-time insights.
Partner with cross-functional teams to integrate data and machine learning models into products and services.
Ensure that our data systems are compliant with the data governance requirements of our customers and industry best practices.
Mentor and guide engineers, fostering a culture of innovation, knowledge sharing, and continuous improvement.
Requirements:
7+ years of experience in data infra or backend engineering.
Strong knowledge of data services architecture, and ML Ops.
Experience with cloud-based data infrastructure in the cloud, such as AWS, GCP, or Azure.
Deep experience with SQL and NoSQL databases.
Experience with Data Warehouse technologies such as Snowflake and Databricks.
Proficiency in backend programming languages like Python, NodeJS, or an equivalent.
Proven leadership experience, including mentoring engineers and driving technical initiatives.
Strong communication, collaboration, and stakeholder management skills.
Bonus Points:
Experience leading teams working with serverless technologies like AWS Lambda.
Hands-on experience with TypeScript in backend environments.
Familiarity with Large Language Models (LLMs) and AI infrastructure.
Experience building infrastructure for Data Science and Machine Learning.
Experience collaborating with BI developers and analysts to drive business value.
Expertise in administering and managing Databricks clusters.
Experience with streaming technologies such as Amazon Kinesis and Apache Kafka.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8555763
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו