רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
כל מה שרציתם לדעת על מבחני המיון ולא העזתם לשאול
זומנתם למבחני מיון ואין לכם מושג לקראת מה אתם ה...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
דרושים במלונות אסטרל
מיקום המשרה: בני ברק
סוג משרה: משרה מלאה
אנו מחפשים BI Developer שהוא גם Data Analyst עם חשיבה אנליטית חזקה, לתפקיד משולב הכולל פיתוח פתרונות BI לצד ניתוח נתונים והפקת תובנות עסקיות.

מדובר בתפקיד עצמאי לחלוטין, שאינו חלק מצוות BI. נדרש מישהו שמסוגל להוביל את התחום לבד, לקבל החלטות מקצועיות ולעבוד ללא מסגרת של צוות או חניכה.
דרישות:
ניסיון של לפחות שנתיים בפיתוח בQlik (Qlik Sense / Qlik Cloud)
חשיבה אנליטית והבנה עסקית
אפיון צרכים עסקיים, פיתוח דשבורדים אנליטיים, מודלים תפעוליים
עבודה עם ETL, טרנספורמציות נתונים וData Modeling
בניית ותחזוקת תהליכי טעינה (QVD / Scripts)
עבודה מול בסיסי נתונים ומקורות מידע שונים ורבים
בניית תהליכי דאטה אוטומטיים (Data Pipelines, Scheduling, Integrations)
עבודה עם APIs וחיבורים בין מערכות
שיפור ביצועים ואופטימיזציה של מודלים ודשבורדים
יכולת להדריך ולהטמיע שימוש במערכות BI בקרב משתמשי קצה
ניתוח נתונים והפקת תובנות עסקיות לשיפור ביצועים
הצגת נתונים ועבודה מול דרגים בכירים
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8627271
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בשירותי תקשוב ערדום
מיקום המשרה: יטבתה
אחריות על Platform Operations של Cloud-based data Platform הפועלת על גבי Google Cloud, כולל Ownership תפעולי מלא של המערכת בסביבת ה Production, התפקיד כולל אחריות על יציבות זמינות וביצועי המערכת, ניטור שוטף של data Pipelines ו data Freshness, שמירה על רמת data Quality גבוהה, אינטגרציה והטמעה שוטפת של data Sources נוספים, ניהול הרשאות ו Access Control וכן עבודה שוטפת מול גורמים פנימיים וספקים חיצוניים, תוך עמידה ב SLA ויישום נהלי תפעול וGovernance
דרישות:
Key Responsibilities:

אחריות על Day-to-Day Operations של הפלטפורמה ב-GCP.
אחריות על אינטגרציה והטמעה שוטפת של data Sources נוספים.
ניטור data Pipelines, Processing Jobs ו- data Freshness SLAs.
טיפול בתקלות תפעוליות, Schema Drift ו- data Anomalies.
ניהול IAM, Secrets Management, Access Control ו- data Governance.
עבודה שוטפת מול Stakeholders פנימיים וספקים.
תחזוקת Dashboards, APIs ו-Analytics Outputs.

Requirements
ניסיון של 3+ שנים כ data Engineer
היכרות מעשית עם Google Cloud Platform
הבנה בתהליכי data Ingestion, ELT, data Quality
ניסיון פיתוח ב Python
הבנה של עקרונות Security, IAM, data Governance
ניסיון בעבודה עם ספקים חיצונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8617410
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 21 שעות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
פיתוח מקצה לקצה של מערכות מתקדמות מבוססות ML DL ו AI, החל משלבי האפיון ועד להעלאה לסביבת ייצור. העבודה תתבצע עם מודלים מתקדמים, תשתיות דאטה וארכיטקטורות סקיילביליות בסביבות ענן.

תחומי אחריות עיקריים:

- פיתוח והטמעת מודלים מבוססי ML DL ו AI.
- ניתוח נתונים מורכבים והסקת מסקנות עסקיות קריטיות
- יישום מודלים מתקדמים כגון Boosting, Random Forest, GLM, Regression, Clustering, PCA
- פיתוח והטמעת שירותים סביב LLMs, Data pipelines, APIs ותשתיות ליבה

מסגרת המשרה:

- משרה מלאה
- ימי ראשון- חמישי
- גמישות אפשרית בשעות (לא קיימת עבודה מרחוק)
- ישיבה במשרדי החברה - געש, הגעה עצמאית
- עבודה בצוות
- עבודה בכפיפות למנהלת מחלקה.
דרישות:
השכלה:
- תואר ראשון רלוונטי.

ניסיון מקצועי (חובה):

- 2+ שנות ניסיון בפיתוח פתרונות AI
- ניסיון עם LLM, כולל עבודה מול OpenAI וAzure OpenAI
- ניסיון בפיתוח Backend וAPI
- ניסיון בעבודה בסביבות ענן
- ניסיון ב-RAG וVector Databases

כישורים טכניים (חובה):
- יכולת אנליטית גבוהה וחשיבה יצירתית לפתרון בעיות עסקיות
- הבנה מעמיקה בעולמות ML, Deep Learning, AI, דאטה וSQL
- פיתוח ב-Python ושימוש בספריות Numpy, Pandas, Scikit-Learn, PyTorch
- ניהול prompting מתקדם: safety filters, guardrails, versioning וארכיטקטורה מותאמת לניסויים
- עבודה מול ספקי מודלים שונים, Caching, Fallbacks ואופטימיזציית עלות מול ביצועים
- ראייה תצפיתית (observability): לוגים, מטריקות, ודשבורדים
- ידע באבטחה: Authorization and Authentication
- ניסיון עם MCP, בניית Tools ועבודה עם מודלים מולטימודליים
- אנגלית ברמה גבוהה - חובה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8606014
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה להצטרף לצוות הדאטה שלנו ולהיות שותף מרכזי בהקמה, פיתוח ותפעול של פלטפורמת Data & AI ארגונית מתקדמת בסביבת Azure.

במסגרת התפקיד:
תכנון, פיתוח ותפעול Lakehouse ארגוני על גבי Azure Databricks
בניית Data Pipelines מודרניים מקצה לקצה על בסיס Delta Lake במודל Bronze / Silver / Gold
פיתוח תהליכי Data Ingestion חכמים ממערכות ליבה, APIs וEvent Streams, כולל Incremental Loading וCDC
עבודה עם Unity Catalog לניהול Data Governance, הרשאות, Lineage ושיתוף נתונים מאובטח בין צוותים
שימוש יומיומי ביכולות מתקדמות של Databricks:
Workflows & Jobs
Autoloader
Delta Live Tables
Structured Streaming
עבודה שוטפת וצמודה עם Data Scientists ותמיכה בML Workflows
הטמעה וניהול של MLflow:
ניהול ניסויים
Model Tracking
Versioning וReproducibility
בניית סטנדרטים ארגוניים לData Quality, Monitoring וObservability
אופטימיזציה של ביצועים ועלויות בסביבת Azure (Cluster Sizing, Caching, Partitioning)
תמיכה בהקמת AI / Data Platform ארגונית התומכת בAgents, Machine Learning ומוצרי דאטה
דרישות:
מה אנחנו מחפשים?
ניסיון של 3-5 שנים בתפקיד Data Engineer בסביבת Cloud
ניסיון מעשי משמעותי עם Azure Databricks
שליטה גבוהה ב Python,SQL, Spark / PySpark
ניסיון בעבודה עם: Delta Lake, Unity Catalog, Databricks Workflows / Jobs
ניסיון בבניית Data Pipelines בסביבת Production, ניסיון בעבודה משותפת עם Data Scientists וML Pipelines
היכרות עם MLflow לניהול מודלים וניסויים
הבנה טובה של Data Modeling בסביבת Lakehouse
ניסיון בעבודה עם Git וCI/CD לתהליכי דאטה
יכולת עבודה בצוות רבתחומי, חשיבה מוצרית וראייה מערכתית על דאטה

אנחנו ממוקמים ברמת גן,
מתחם הבורסה, בסמוך לרכבת סבידור מרכז ולרכבת הקלה

* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8570851
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתחום ה-Fintech דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה שכוללת פיתוח בעולמות ה- data, שימוש ב- Python
שימוש ב-Airflow כלי data מתקדמים וכן עבודה בצוות חוד בחברה.
דרישות:
תואר ראשון טכנולוגי
לפחות 6 שנות ניסיון בעולמות data - חובה
רקע בפיתוח backend - יתרון אך לא חובה
ניסיון ב- Python - חובה
ניסיון ב-Air Flow
ניסיון בכלי data נוספים
אנגלית טובה מאוד המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8580111
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
ארגון ממשלתי באזור המרכז מגייס אנליסט/ית נתונים
התפקיד כולל: עבודה עם עיבוד והסבת קבצי CAD ו-GIS למאגרי תשתיות לאומיות, פיתוח סקריפטים ב- Python להסבות נתונים חצי אוטומטיות ואוטומטיות, ביצוע בקרות איכות, ניתוח וקליטת מידע ממקורות מגוונים לבסיסי נתונים ועבודה בצוות רב-תחומי לשיפור תהליכי עבודה ועוד.
דרישות:
- שנתיים ניסיון כאנליסט/ית נתונים
- ניסיון בעבודה עם מערכות GIS כגגון: ArcGIS, ArcPro, QGIS
- ניסיון בעבודה עם בסיסי נתונים SQL / NoSQL
- ניסיון בפיתוח Python בסביבת GIS
- יכולת ניתוח נתונים והבנה של מפרטי מיפוי וקליטת נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8624729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בMertens – Malam Team
חברת Mertens Malam Team מגייסת מפתח.ת Informatica ETL מנוסה לארגון מוביל בפתח תקווה.
התפקיד כולל פיתוח ותחזוקה של תהליכי אינטגרציית נתונים בסביבת Informatica בסביבת DWH ארגוני, כולל תכנון data Pipelines מורכבים ל data Lakes ולמערכות BI מקצה לקצה. עבודה עם Informatica PowerCenter ו IICS, עבודה מול מקורות מידע מגוונים כולל מערכות ארגוניות, APIs ולוגים, ושיתוף פעולה עם צוותי תשתיות, אבטחת מידע ופיתוח לצורך תחקור, שיפור ואופטימיזציה של תהליכים.
דרישות:
לפחות 4 שנות ניסיון מעשי בפיתוח ETL באמצעות Informatica PowerCenter בסביבת DWH ארגוני.
ניסיון בעבודה עם SQL ברמה גבוהה כולל אופטימיזציה ו Performance Tuning ויכולת עבודה עם מבני נתונים מורכבים.
ניסיון בעבודה עם בסיסי נתונים רלציוניים Oracle, SQL server, Teradata.
ניסיון בעבודה עם Informatica IICS.
היכרות עם סביבות ענן AWS, Azure, GCP ועם data Lakes. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8597453
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: ירושלים
אנחנו מחפשים מפתח/ת data Science עם חשיבה אנליטית ויכולת פיתוח, להצטרפות לצוות טכנולוגי מתקדם ודינאמי.

מה בתפקיד?
פיתוח ויישום מודלים סטטיסטיים ומתמטיים
בניית אלגוריתמים ופתרונות מבוססי data
עבודה עם Big Data והטמעת מודלים בסביבות ייצור
פיתוח API ושילוב מודלים במערכות הארגון
עבודה מול צוותי מוצר, דאטה, DevOps ומהנדסי נתונים
ביצוע ניסויים, אופטימיזציה והערכת ביצועים

תפקיד שמשלב פיתוח אמיתי של מוצרים חכמים, עבודה עם טכנולוגיות מתקדמות והשפעה ישירה על פתרונות ארגוניים.
תנאים מצוינים למתאימים/ות!
דרישות:
לפחות 3 שנות ניסיון בתפקידי דאטה, כולל שנה ב- data Science
ניסיון חזק ב- Python
ניסיון עם ספריות ML/AI (כגון scikit-learn, TensorFlow, PyTorch)
ניסיון בעבודה עם בסיסי נתונים (SQL ועוד)
ניסיון בסביבות ענן ו-On-Premise
יכולת עבודה עצמאית ולמידה מהירה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621313
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data -driven solutions for the business.

Key Responsibilities:
Design, develop, and optimize ETL /ELT pipelines for large-scale data processing.
Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
Troubleshoot and optimize queries and jobs for performance improvements.
Implement best practices for data governance, security, and monitoring.
Stay updated with industry trends and emerging technologies
Requirements:
4 years of experience in data engineering or related fields.
Proficiency in Python for data processing and automation (mandatory).
Deep understanding of Apache Spark and Databricks for Big Data processing (mandatory).
Experience with Git (mandatory).
Expertise in Apache Airflow for workflow orchestration.
Familiarity with cloud-based environments, particularly Azure.
Advanced proficiency in SQL and query optimization.
Familiarity with data modeling, ETL /ELT principles, and performance tuning.
Knowledge of CI/CD and containerization (Docker).
An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8593710
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בקבוצת Aman
מיקום המשרה: רמת גן
פיתוח ותחזוקה של תהליכים בסביבת ענן (Azure) עם DataBricks ו- DataFactory לעיבוד נתונים בקנה מידה גדול, אופטימיזציה של ביצועים וניהול נתונים בקבצי Parquet בענן.
עצמאות ועבודה שוטפת מול משתמשים.
קבלת הדרישה מהמשתמשים, כתיבת אפיונים טכניים וליווי הפיתוח כולל בדיקות, עלייה לייצור והטמעה מול המשתמשים.
הגדרת ממשקים מול מערכות בארגון ומחוצה לו
דרישות:
ניסיון של 3 שנים לפחות ב Python - חובה
ניסיון בכתיבת שאילתות SQL ברמה מורכבת - חובה
ניסיון בSpark - חובה
ניסיון בעבודה עם בסיסי נתונים גדולים, כולל אופטימיזציה של שאילתות - יתרון
ניסיון פיתוח בReact - יתרון
תואר ראשון במדעי המחשב - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8376478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים באיילת אלבז
לחברה יזמית בתחום האנרגיה המתחדשת,
דרוש/ה מנהל /ת ביצועים של מערכות אנרגיה סולארית ואגירה.
מיקום - אזור השרון.

תחומי אחריות -
עבודה שוטפת מול מערכות ניטור ומערכות לניהול ביצועים לצורך בקרת ביצועים והפקת דו"חות תקופתיים.
ניתוח נתוני ייצור והשוואתם לתחזיות.
ביצוע חקר נתונים לטובת זיהוי חריגות, פערי ביצועים והצפתם.
זיהוי מגמות ארוכות טווח, מעקב KPI's טכניים למול יעדים ומול התחייבויות קבלנים.
הכנה והצגת דוחות ביצועים תקופתיים למחלקה והנהלה.
ניהול וייזום של תהליכי שיפור ביצועים למתקנים.
תמיכה בניתוחי כדאיות כלכלית וטכנית למול חלופות שונות לשיפור ביצועי המתקנים.
בקרה אחר דוחות תקופתיים המתקבלים מקבלנים.
ממשקי עבודה - מחלקת תפעול, מחלקת ניהול נכסים, מחלקת סחר, מחלקת הנדסה.
דרישות:
תואר ראשון בהנדסה (חשמל/אנרגיה/תעשייה וניהול/מהנדס נתונים) או תחום רלוונטי אחר.
ניסיון קודם בניתוח נתונים ואנליזה - חובה.
שליטה גבוהה בכלי ניתוח נתונים, אקסל וכלי BI.
אנגלית ברמה גבוהה.
ניסיון בעבודה עם מערכות/ SCADA מערכות ניטור - יתרון משמעותי.
הבנה טכנית של מערכות פוטו-וולטאיות - יתרון משמעותי.
ניסיון בעבודה עם מודלי תחזיות כגון PVsyst - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8612044
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: ירושלים
הצטרפו לפרויקט לאומי פורץ דרך!

מחפש/ת תפקיד עם משמעות אמיתית? זה הזמן לקחת חלק בהקמה ותפעול של מערכת קריטית ברמה הלאומית.
מה בתפקיד?
פיתוח, הקמה ותפעול של מערכת מידע מתקדמת
עבודה עם דאטה מורכב וניתוח נתוני נוסעים
שיתוף פעולה עם צוותי תשתיות, סייבר, אינטגרציה ודאטה
השתלבות בפרויקט טכנולוגי רחב היקף עם השפעה ביטחונית ואזרחית
דרישות:
ניסיון בפיתוח ותפעול תשתיות דאטה ( data Engineering)
ניסיון בעבודה עם Big Data ועיבוד נתונים בהיקפים גדולים
ניסיון בפיתוח תהליכי ETL / data Pipelines
עבודה עם מסדי נתונים רלציוניים ולא רלציוניים
היכרות עם כלי אינטגרציה ועבודה בסביבה מרובת ממשקים
יכולת עבודה בצוות וראייה מערכתית
נכונות לעבודה בשעות נוספות וכוננויות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621407
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
חברה חסויה
Location: Tel Aviv-Yafo
e are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive - someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.

This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
3-5 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch - including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS/AZURE based data technologies.
Experience in building and maintaining advanced data pipelines from various data sources.
Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams - including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI,
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8526604
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
Location: Petah Tikva
Job Type: Full Time
Were a looking for a  data Engineer who loves building scalable data pipelines and working with cutting-edge technologies.

:What youll do
Build and own end-to-end data pipelines
Ingest data from multiple sources (APIs, files, databases)
Develop and optimize pipelines with Spark
Write clean, efficient  Python  & SQL code
Requirements:
:What were looking for
3+ years of experience as a data Engineer
Strong experience with Databricks (must)
Solid knowledge of  Python, Spark & SQL
Familiarity with modern lakehouse architectures
Experience with streaming / incremental pipelines
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8614048
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
Location: Ra'anana
Job Type: Full Time and Hybrid work
We are looking for a data Manager to lead data initiatives across projects and clients. This role combines leadership, governance, and hands-on understanding of data platforms. You will define data strategies, ensure data quality and governance, and manage teams delivering data solutions end to end.

Responsibilities
Lead data projects from design to delivery
Define data strategy aligned with business goals
Own data governance, quality, and standards
Manage data teams including engineers and analysts
Work with stakeholders to translate business needs into data solutions
Oversee data architecture and platform decisions
Ensure scalability, security, and compliance of data systems
Drive best practices across data modeling, pipelines, and BI
Requirements:
5+ years of experience in data roles ( BI, data Engineering, or Analytics)
2+ years in a leadership or management role
Strong SQL and data modeling skills
Experience managing data pipelines and ETL processes
Experience with modern data platforms (Databricks, Snowflake, or similar)
Strong understanding of data governance and data quality frameworks
Proven ability to work with business stakeholders
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8613991
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
Location: Tel Aviv-Yafo
we are looking for a Senior Data Engineer I.
As a Senior Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspects-ensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and more.
Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.
Key Job Responsibilities and Duties:
Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.
Dealing with massive textual sources to train GenAI foundation models.
Solving issues with data and data pipelines, prioritizing based on customer impact.
End-to-end ownership of data quality in our core datasets and data pipelines.
Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.
Providing tools that improve Data Quality company-wide, specifically for ML scientists.
Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.
Acting as an intermediary for problems, with both technical and non-technical audiences.
Promote and drive impactful and innovative engineering solutions
Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation
Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.
21679
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.
Minimum of 6 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions.
You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.
You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)
Strong programming skills in languages such as Python and Java.
Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.
Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems
Experience with Data Warehousing and ETL/ELT pipelines
Experience in data processing for large-scale language models like GPT, BERT, or similar architectures - an advantage.
Proficiency in data manipulation, analysis, and visualization using tools lke NumPy, pandas, and matplotlib - an advantage.
Experience with experimental design, A/B testing, and evaluation metrics for ML models - an advantage.
Experience of working on products that impact a large customer base - an advantage.
Excellent communication in English; written and spoken.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627496
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Engineer.
As a Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspects-ensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and ore.
Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.
Key Job Responsibilities and Duties:
Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.
Dealing with massive textual sources to train GenAI foundation models.
Solving issues with data and data pipelines, prioritizing based on customer impact.
End-to-end ownership of data quality in our core datasets and data pipelines.
Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.
Providing tools that improve Data Quality company-wide, specifically for ML scientists.
Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.
Acting as an intermediary for problems, with both technical and non-technical audiences.
Promote and drive impactful and innovative engineering solutions
Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation
Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.
20718
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.
Minimum of 3 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions
You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.
You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)
Strong programming skills in languages such as Python and Java.
Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.
Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems.
Experience with Data Warehousing and ETL/ELT pipelines
Experience in data processing for large-scale language models like GPT, BERT, or similar architectures - an advantage.
Proficiency in data manipulation, analysis, and visualization using tools like NumPy, pandas, and matplotlib - an advantage.
Experience with experimental design, A/B testing, and evaluation metrics for ML models - an advantage.
Experience of working on products that impact a large customer base - an advantage.
Excellent communication in English; written and spoken.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627494
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
Location: Ra'anana
Job Type: Full Time
we are looking for a Senior Data Engineer.
Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627346
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Temporary
As an Analytics Engineer within the Delivery & Operations organization, you will operate at the intersection of data engineering and analytics, with a strong focus on data quality, reliability, and scalability.

This role combines hands-on ownership of data pipelines and data transformations with the ability to effectively interface with customer-facing teams (Customer Success, and Delivery) when needed-helping ensure that data outputs are accurate, clear, and aligned with real-world use cases.

Responsibilities:
Build and maintain data models, pipelines, and ETL processes to support analytics, reporting, and machine learning.
Own data quality and validation, including monitoring, auditing datasets, and identifying anomalies.
Support customer-facing teams by providing reliable data, clarifying definitions, and investigating data issues.
Collaborate cross-functionally and work with existing codebases to debug, improve, and maintain data workflows.
Ensure high-quality data across the lifecycle to support reliable ML pipelines.
Requirements:
Requirements:
3+ years of experience in Python development (production-level data logic, not just scripting).
2+ years of experience with data validation / data quality practices.
Experience with data pipelines / ETL processes.
Proficiency in Pandas (or similar libraries).
Strong SQL and database knowledge.
Experience working with existing production codebases (debugging, refactoring).
Ability to communicate clearly with non-technical stakeholders when needed.
Strong analytical thinking and problem-solving skills.
High attention to detail and commitment to data accuracy.

Advantages:
Familiarity with data modeling best practices.
Experience supporting customer-facing data use cases or deliverables.
Background in DataOps / data reliability practices.
Exposure to machine learning pipelines.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8626264
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Experienced Data Engineer? Excellent team player?
Come join a great team to overcome meaningful cyber challenges!
Our Data Solutions Group is looking for an exceptional Python developer with Data Engineering experience.
Requirements:
Excellent team player
Excellent Python developer
BSc Computer Science or similar
2+ years of experience with big data frameworks such as Spark or Hadoop
2+ years of experience in managing ETLs in AirFlow or similar, multi-source data flows and processing of large data sets.
3+ years of experience with SQL
Attention to details, high responsibility and open minded
Ability to take initiative with a self-motivated attitude and reliability
Critical thinker and problem-solving skills
Advantages
Proven capabilities in data analysis and data-driven conclusions
Experience with the ElasticSearch suite
Java development experience
Experience with Linux environment
Background in the cyber domain
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8625963
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Beit Haemek and Nahariyya
Job Type: Full Time
Methodology Development: Develop new data analysis methods and technologies in line with the department roadmap. This includes performing statistical design and evaluation of experiments, multivariate data analysis, and harnessing predictive modeling approaches.
Continuous Improvement: Monitor model performance and make iterative improvements based on feedback and new data.
Innovation: Explore novel AI/ML approaches to enhance cell culture media development processes.
Project Leadership: Propose, execute and lead ML- and data -based work packages within defined projects in related technology areas.
IT data Infrastructure
Reporting: Evaluate, analyze and present project results
Expert Engagement: Actively participate in internal and external expert groups and/or networks
data Pipeline Maintenance: Design, build, TEST and maintan robust data processing pipelines.
Requirements:
Masters degree in Science, Engineering or Computer/ data Science; minimum Bachelor's degree in a relevant field.
Basic understanding of SQL and database concepts.
Experience in industry with a proven track record
Very good written and verbal English communication skills.
Ability to work self-driven and with a high level of self-motivation.
Strong analytical and conceptual thinking skills to solve complex problems.
Interest in cloud data platforms and data engineering.
Confident handling of MS Office.
3+ years of work experience (or 7+ years of work experience with a Bachelor's degree).
Solid working knowledge of Python is required, with familiarity in libraries such as Pandas, scikit-learn and other Python ML libraries.
Experienced in statistical analysis and relevant programming languages and software tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8623211
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
One of the fastest-growing global D2C startups with a self-built e-commerce platform that allows us to leverage data and optimize marketing funnels to bring clinically tested body care products to women worldwide. With years of rapid growth and millions of customers worldwide. We are on track to become one of the biggest body care brands in the world. The company has built a strong tech backbone to leverage its data, collected over the span of dozens of million of $ in online advertising spend. The data analysis and predictive modeling guide the companys decision making and play a central role in its success, creating a unique competitive edge over the industry and other e-commerce players. We are a team of people who want to make lasting, impactful changes, who live (and love) to see results, who innovate with passion, and who love a good sense of humor. Is our vibe your vibe? We are currently looking for a logical and independent data Engineer to join its exceptional data Engineering Team. This cross-functional role works closely with analysts and the R&D team to support cross-departmental operations. The ideal candidate understands exactly how data structuring impacts macro-business decisions and can easily translate between technical and practical terms.
Your life will look like
* Create and structure end-to-end data pipelines and ETLs, ensuring analysts have the exact data they need to make smart, data -driven business decisions.
* Build scalable multi-step processes that integrate over 50 data sources, including Marketing, Operations, CS, Product, and CRM.
* Connect and leverage AI tools to build active business tools that drive critical company decisions.
* Proactively address data weaknesses while managing high-standard monitoring and reliability processes.
Requirements:
You will thrive in this role if you have
* B.A. or B.Sc. degree in a highly quantitative field.
* 4+ years of hands-on experience as a data Engineer, or a solid Software Engineering background with a strong desire to pivot into data. (While we value BI experience, were specifically looking for candidates with recent, hands-on data engineering experience).
* Strong SQL skills for querying data warehouses and structuring data processes.
* Familiarity with PowerBI.
* Strong Python for data work (pandas, requests).
* Production experience with an orchestrator - Airflow strongly preferred.
* Comfort working with REST APIs (OAuth, pagination, rate limits, retries).
*  Linux, Git, Docker.
* High attention to detail, a fast learner, and a proven ability to multitask.
* Fluent English. Nice to Have
* Hands-on experience with BigQuery.
* Streaming / CDC experience (Kafka, Kafka Connect, Redpanda, Debezium, Avro / Schema Registry).
* Stream processing with RisingWave, Apache Flink, or equivalent.
* GCP (Cloud Storage, IAM, Compute Engine, Cloud Run).
* Experience with LLM / MCP-powered internal tooling.
*  SQL server or SSAS background.
* Experience analyzing data to find valuable insights, preferably within an online or D2C company.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7611028
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We're seeking a Mid to Senior Data Engineer to join our Cloud Identity & Perimeter, a critical component of our security infrastructure. Our team develops and maintains complex data pipelines that process billions of records daily, analyzing identity-related security patterns, effective permissions, internet exposure, and attack paths. We're at the forefront of securing enterprise identities and delivering actionable security insights at scale.

What You'll Do:

Design and implement high-performance, distributed data processing pipelines handling petabytes of security data.

Architect complex data transformations using Apache Spark for large-scale batch and stream processing.

Be part of shaping new products while collaborating with product teams, customers, and sales.

Build and optimize real-time data streaming solutions using Kafka for identity analytics.

Develop and maintain scalable ETL processes that handle billions of daily events.

Create efficient data models for complex security analytics queries.

Collaborate with cross-functional teams to deliver high-impact security features.

Optimize query performance and data storage patterns for large-scale distributed systems.

Participate in system design discussions and architectural decisions.

This position is based in our Tel Aviv, Israel office and requires strong leadership presence and ability to work closely with cross-functional teams.
Requirements:
What You'll Need:

5+ years of experience in data engineering or similar roles.

Strong programming skills in Go and/or Java.

Extensive experience with big data technologies (Apache Spark, Kafka).

Proven track record working with distributed databases (Cassandra, Elasticsearch).

Experience building and maintaining production-grade data pipelines.

Strong understanding of data modeling and optimization techniques.

Excellent problem-solving skills and attention to detail.

BS/MS in Computer Science or related field, or equivalent experience.


Bonus Points:

Experience with identity and access management concepts.

Knowledge of security analytics and threat detection.

Contributions to open-source projects.

Experience with cloud platforms (AWS, GCP, Azure).

Background in cybersecurity or security analytics.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8619467
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are searching for a Senior Data Engineer to join our growing team in Tel Aviv and serve as a cornerstone of data evolution. We need an experienced, high-impact engineer ready to elevate our infrastructure from "functional" to "world-class."

As a pivotal member of the team, you wont just build pipelines; you will architect the future of our data ecosystem. Were looking for someone who obsesses over query latency, high-performance analytics, and cost-efficiency - someone who views data integrity as non-negotiable and thrives on turning complex event streams into elegant, scalable models.

Responsibilities
Lead the end-to-end data strategy, evolving our event-driven architecture to ensure seamless, low-latency data flow across the organization.
Design and implement robust, scalable data models that serve as the "single source of truth" for the entire organization.
Act as our internal Snowflake expert - optimizing performance and cost through best practices in clustering, materialized views, and warehouse management.
Build and maintain sophisticated ELT/ETL pipelines that transform raw event data into actionable insights, with a heavy focus on reliability and observability.
Proactively identify infrastructure bottlenecks and re-engineer processes to handle increasing scale without breaking a sweat.
Partner closely with Product and Engineering teams to translate business needs into technical reality, while mentoring analysts and peers on high-quality SQL and architectural standards.
Requirements:
5+ years of experience in Data Engineering, ideally within high-scale or high-growth environments.
5+ years of hands-on coding experience in Python or Node.js.
Deep experience with modern data warehouses and relational databases (e.g., Snowflake, BigQuery, PostgreSQL, or MySQL).
Deep expertise in Snowflake (internals, optimization, and credit management) is a significant advantage.
A masters grasp of data modeling principles and a passion for creating clean, documented, and reusable data structures.
A proactive team player who thrives in time-sensitive, high-volume environments and can communicate complex technical concepts clearly.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8619443
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a talented Data Engineer to join our Data team and spread the power of our company. The Data team develops and maintains the infrastructure for internal data and product analytics. We are looking for data enthusiasts, independent, logical thinkers with a can-do approach and a passion for problem-solving. We run a SaaS-based stack using BigQuery, Snowflake and dbt.
WHAT YOU'LL DO
Design, build, and maintain data pipelines, datasets and catalogs for fast-growing products and business groups.
Develop self-service data analytics solutions and infrastructure.
Support ad hoc needs and requests of internal stakeholders.
Collaborate with analysts, engineers, and internal customers from Product, Finance, Revenue, and Marketing.
Requirements:
Bachelors or Masters degree in a relevant technical field, or equivalent hands-on experience in software development or DevOps.
3+ years of experience working as a Data Engineer, including end-to-end designing, orchestrating, and building cloud-based data pipelines (e.g., Airflow, Prefect, Dagster).
3+ years of experience with dimensional data modeling and data warehouse implementation, specifically MPP databases like BigQuery, Snowflake, and Redshift.
Strong knowledge of Python and Python-based data analysis tools such as Jupyter Notebooks and pandas.
Strong SQL writing skills. Ability to write highly performant queries.
Strong track record of executing projects independently in dynamic environments.
Fast understanding of data and business needs and ability to translate them into data models.
Team player with excellent communication skills.
Containerization (Docker): Essential for reproducible environments.
Knowledge of software engineering best practices: CI/CD concepts, code reviews, and unit testing.
ADVANTAGE
Production-level experience with dbt, including project design, transformation, testing, and documentation.
Infrastructure-as-Code (Terraform): Managing cloud resources (S3 buckets, IAM roles) via code.
CI/CD pipelines (GitHub Actions/Jenkins): Automating the testing and deployment of data models.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618820
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a hands-on Technical Project Manager and spread the power of our company. As part of the CTO operations team, you will focuses on improving deployment pipelines and internal tools by digging into logs, finding recurring issues, and reducing manual work. The role combines technical problem-solving with practical execution and coordination.
WHAT YOULL DO
Youll work with engineers and domain leads to help teams improve how they build and operate systems.
Help build and maintain the Unified Maturity Table, defining the technical parameters (workflows, support packages, other metrics) and their KPIs that conclude a domains readiness and maturity.
Partner with the team to refine internal AI agents by measuring the performance of their answers against human expert interventions.
Use cluster analysis (AI) of support ticket descriptions to identify recurring patterns, then design and implement automated workflows to streamline resolution.
Take part in driving the departments "operating system" by facilitating design meetings, managing cross-domain syncs, and ensuring the documentation and support packages required for daily execution are current and actionable.
Define and implement different thresholds by analyzing support ticket complexity, resolution times, and domain-specific friction.
Transition static maturity reports into live, dynamic dashboards with trend lines.
Lead design meetings to establish cross-functional standards for domain maturity and system health alerts.
Requirements:
3-6 years of hands-on experience as a Software Engineer, Data Engineer, SRE, or Solutions Engineer.
Proficiency in querying and analyzing large datasets (SQL, Python, or similar) to diagnose system bottlenecks and deployment failures.
A proven track record of taking manual, "friction-heavy" processes and building automated, scalable engineering solutions.
Experience with prompt engineering, RAG concepts, and auditing AI model outputs for accuracy and reliability.
Ability to translate complex technical friction into a prioritized roadmap for stakeholders and senior leadership and lead the project to the finish line.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618781
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Petah Tikva
Job Type: Full Time
We are looking for a highly skilled Data Engineer . to build and maintain robust, scalable data pipelines and data marts acting as the connective tissue for intelligence insights generation that serves executive stakeholders , internal our company customers and 3rd party
The Fintech AI & Data group is looking for a staff Data Engineer to work closely with analysts, data scientists, and software developers and strengthen Fintech by building data capabilities and AI transformation.
Responsibilities
Gather data needs from internal customers like product and analysts, and translate those requirements into a working database and analytic software.
Design, build, and maintain scalable, reliable batch and real time data pipelines, data marts and warehouse supporting executive dashboards, operational analytics, and internal customer use cases
Ensure high data quality, observability, reliability, and governance across all data assets
Optimize data models for performance, cost-efficiency, and scalability
Develop data-centric software using leading-edge big data technologies.
Build data capabilities that enable automated agentic insights and decision intelligence
Develop reusable data services and APIs that power AI-driven workflows
Evolve our data architecture into an AI-native data layer designed to power LLMs, AI agents, and intelligent applications
Collaborate with analytics, product, and AI teams to translate business needs into scalable data solutions
Influence the software architecture and working procedures for building data and analytics
Work bBe the go-to person for anything and everything regarding understanding the data - exploration, pipelines, analytics, etc. and work both independently and as part of a team
How youll succeed
Have an impact on satisfying customers and reducing financial fraud
Help build the team by hiring the best talent
Contribute toexperiments and research on how to enhance our capabilities
Learn new technologies and methodologies
Collaborate with other data engineers, analysts, data scientists and developers
Be proactive with a self-starter attitude
Be a good listener, while also having strong opinions on what is right
Be fun to be around.
Requirements:
Bachelors degree in Information Systems, Computer Science or similar
Extensive experience dealing directly with internal customers regarding their data needs
Excellent knowledge of SQL in a large-scale data warehouse or data lakehouse environment such as Spark, Databricks, Presto/Athena/Trino
Experience in designing, building and maintaining highly scalable, robust & fault-tolerant complex data processing pipelines from the ground up (ETL, DB schemas)
Experience with stream processing or near real-time data ingestion
Experience working in cloud environment, preferably AWS (EC2, S3 EMR elastic map)
Excellent knowledge of database / dimensional modeling / data integration tools
Experience writing scripts with languages like Python, and shell scripts in a Linux environment
Can-do attitude, hands-on approach, passionate about data
Preferred :
Some knowledge of Data Science/Machine Learning
Knowledge/Experience with Scala, Java
Knowledge of data visualization tools like Tableau or Qlik Sense
Some knowledge of graph databases
Some experience in Fintech industry, Cyber Security
Working with AI tools and leveraging AI into product development.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618770
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Data Engineer Position
I-Next Data Center, the AI Center is a pioneering data and research hub leading various initiatives to enhance medical diagnosis, prevention and treatment. Our projects encompass diverse areas, including decision-support applications for clinicians, predictive models, image processing, NLP and more.
We are seeking a highly motivated full-time data engineer who is enthusiastic about working with extensive clinical big data sources. The ideal candidate will be dedicated to creating and enhancing data processes to support our dynamic team.
Responsibilities
Conduct data extraction, validation and profiling to maximize the value of data
Design, implement, monitor and maintain data pipelines & ETLs for multiple data sources
Collaborate with researchers, experts and data scientists to comprehend data requirements as well as product design and deliver high-quality outcomes
Manage data development process, including methodology, QA and maintenance.
Requirements:
Please apply if you are/have:
Enthusiastic about big data, love challenging medical projects, and want to make a direct impact on the healthcare ecosystem
Bachelor's degree in industrial or information systems engineering, or equivalent. If you don't have a degree, but your eyes shine when writing code - please also apply
Over 6 years of hands-on experience as a data engineer
Over 4 years of hands-on experience in Python scripting
Proficiency in working with a variety of data formats and databases (including cloud environments, SQL, and NoSQL databases, Parquet, Json format)
Experience with GIT work configuration, Environments and development method
Experience with AWS platform and cloud pipelines design
Prior experience in working with real world clinical data - a major advantage
Strong team player with the ability to take initiative and work autonomously, along with excellent communication skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618258
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required MDClone Engineer 
I-Next Data Center, the AI Center is a pioneering data and research hub leading various initiatives to enhance medical diagnosis, prevention and treatment. Our projects encompass diverse areas, including decision-support applications for clinicians, predictive models, image processing, NLP and more.
We are looking for a highly motivated full-time team member who is eager to work with clinical data. This individual will assist and guide clinicians and researchers in using a clinical data platform. In the future, they will also help improve data processes to enhance the platform further.
Responsibilities
Provide data-related services, support and guide clinicians ensuring their needs are met effectively
Collaborate closely with team members, fostering a cooperative and productive work environment.
Continuously learn and develop new skills independently to stay up to date in the data platform field.
Participate in team discussions and projects to enhance overall team performance and share knowledge.
Proactively identify opportunities for improvement and contribute to data platform development initiatives tailored to the healthcare member's sector.
Requirements:
Please apply if you are/have:
Enthusiastic about big data, love challenging medical projects, and want to make a direct impact on the healthcare ecosystem
Bachelor's degree in industrial or information systems engineering, or equivalent. If you don't have a degree, but your eyes shine when writing code - please also apply
Experience with SQL - major advantage
Strong proficiency in Python- major advantage
Background in Data Science - a plus
A strong team player who can also take initiative and work independently, with excellent communication skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618252
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
we are a data driven company, the data Engineering team is the bridge between raw data and impactful business insights. You will lead a team of talented engineers to architect, build, and maintain the data infrastructure of our company. Your mission is to ensure our data is reliable, secure, and ready for everything from standard BI reporting to cutting-edge Generative AI applications. Youll act as a key partner to our business teams, translating high-level needs into technical reality and driving a massive impact on our bottom line. In addition youll spend time mentoring your team as well as tackling high-level architecture decisions, pushing technical strategy and contributing to the codebase.
What am I going to do?:

* Lead a team that designs and scales Real-Time data pipelines processing millions of events hourly.
* Utilize cutting-edge technologies to build scalable and high performant data infrastructure.
* Influence and drive architecture and data strategy decisions.
* Work closely with other stakeholders such as data Developers, Analysts, data Science and R&D.
* Hands-on development of data infrastructure tools (~50% of the time).
* Lead and mentor the team talent.
* Finops and governance of data infrastructure domains.
Equal opportunities:
At our company, we prioritize diversity. We celebrate difference and embed it into every aspect of our workplace and product, as well as our community. we are proud and committed to providing equal opportunity employment to all individuals regardless of race, color, religion, sex, sexual orientation, citizenship, national origin, disability, Veteran status, or any other characteristic protected by law. In addition, we will provide accommodation to individuals with disabilities or a special need.
Requirements:
* 5+ years of hands-on experience in data engineering, with at least 2 years in a team leadership role.
* Strong programming skills in Python.
* Experience with relevant technologies such as BigQuery, Airflow/Prefect, DBT, Kafka, Athena, BI Tools.
* Proven track record of design and implementation of highly scalable distributed data pipelines.
* Deep understanding of data modeling, ETL and Real-Time analytics.
* Great 360 collaboration with excellent communication skills.
* MSc./BSc. in Computer Sciences from a top university. At our company, were not about checklists. If you dont meet 100% of the requirements for this role but still feel passionate about the position and think you have the right skills and qualifications to excel at it, we want to hear from you.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569534
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו