רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
כל מה שרציתם לדעת על מבחני המיון ולא העזתם לשאול
זומנתם למבחני מיון ואין לכם מושג לקראת מה אתם ה...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בשירותי תקשוב ערדום
מיקום המשרה: יטבתה
אחריות על Platform Operations של Cloud-based data Platform הפועלת על גבי Google Cloud, כולל Ownership תפעולי מלא של המערכת בסביבת ה Production, התפקיד כולל אחריות על יציבות זמינות וביצועי המערכת, ניטור שוטף של data Pipelines ו data Freshness, שמירה על רמת data Quality גבוהה, אינטגרציה והטמעה שוטפת של data Sources נוספים, ניהול הרשאות ו Access Control וכן עבודה שוטפת מול גורמים פנימיים וספקים חיצוניים, תוך עמידה ב SLA ויישום נהלי תפעול וGovernance
דרישות:
Key Responsibilities:

אחריות על Day-to-Day Operations של הפלטפורמה ב-GCP.
אחריות על אינטגרציה והטמעה שוטפת של data Sources נוספים.
ניטור data Pipelines, Processing Jobs ו- data Freshness SLAs.
טיפול בתקלות תפעוליות, Schema Drift ו- data Anomalies.
ניהול IAM, Secrets Management, Access Control ו- data Governance.
עבודה שוטפת מול Stakeholders פנימיים וספקים.
תחזוקת Dashboards, APIs ו-Analytics Outputs.

Requirements
ניסיון של 3+ שנים כ data Engineer
היכרות מעשית עם Google Cloud Platform
הבנה בתהליכי data Ingestion, ELT, data Quality
ניסיון פיתוח ב Python
הבנה של עקרונות Security, IAM, data Governance
ניסיון בעבודה עם ספקים חיצונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8617410
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 10 שעות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
פיתוח מקצה לקצה של מערכות מתקדמות מבוססות ML DL ו AI, החל משלבי האפיון ועד להעלאה לסביבת ייצור. העבודה תתבצע עם מודלים מתקדמים, תשתיות דאטה וארכיטקטורות סקיילביליות בסביבות ענן.

תחומי אחריות עיקריים:

- פיתוח והטמעת מודלים מבוססי ML DL ו AI.
- ניתוח נתונים מורכבים והסקת מסקנות עסקיות קריטיות
- יישום מודלים מתקדמים כגון Boosting, Random Forest, GLM, Regression, Clustering, PCA
- פיתוח והטמעת שירותים סביב LLMs, Data pipelines, APIs ותשתיות ליבה

מסגרת המשרה:

- משרה מלאה
- ימי ראשון- חמישי
- גמישות אפשרית בשעות (לא קיימת עבודה מרחוק)
- ישיבה במשרדי החברה - געש, הגעה עצמאית
- עבודה בצוות
- עבודה בכפיפות למנהלת מחלקה.
דרישות:
השכלה:
- תואר ראשון רלוונטי.

ניסיון מקצועי (חובה):

- 2+ שנות ניסיון בפיתוח פתרונות AI
- ניסיון עם LLM, כולל עבודה מול OpenAI וAzure OpenAI
- ניסיון בפיתוח Backend וAPI
- ניסיון בעבודה בסביבות ענן
- ניסיון ב-RAG וVector Databases

כישורים טכניים (חובה):
- יכולת אנליטית גבוהה וחשיבה יצירתית לפתרון בעיות עסקיות
- הבנה מעמיקה בעולמות ML, Deep Learning, AI, דאטה וSQL
- פיתוח ב-Python ושימוש בספריות Numpy, Pandas, Scikit-Learn, PyTorch
- ניהול prompting מתקדם: safety filters, guardrails, versioning וארכיטקטורה מותאמת לניסויים
- עבודה מול ספקי מודלים שונים, Caching, Fallbacks ואופטימיזציית עלות מול ביצועים
- ראייה תצפיתית (observability): לוגים, מטריקות, ודשבורדים
- ידע באבטחה: Authorization and Authentication
- ניסיון עם MCP, בניית Tools ועבודה עם מודלים מולטימודליים
- אנגלית ברמה גבוהה - חובה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8606014
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 10 שעות
דרושים בOne DatAI
Location: Lod
?? Were Hiring: data Infrastructure Expert / DBA

We are looking for an experienced DBA / data Infrastructure Expert to join a dynamic and professional team.
This role involves working with advanced data systems, cloud environments, and leading end-to-end projects.

?? Responsibilities
        Manage and optimize databases, including cloud-based environments
        Design, implement, and maintain database architectures
        Handle access control, performance tuning, and ongoing maintenance
        Support projects, troubleshoot issues, and provide architectural/infrastructure consulting
        Research and implement new technologies in the data ecosystem, with a focus on AWS
Requirements:
? Requirements
        At least 3 years of experience working in Linux based systems - A must
        Hands-on experience with at least one of the following: PostgreSQL / MySQL / MongoDB / Kafka - A Must
        Experience with data streaming technologies (e.g., Kafka) - advantage
        Experience working in AWS enviroment - advantage
        Availability for on-call / off-hours support when needed (excluding weekends/holidays) - Must

?? Soft Skills
        Strong self-learning ability
        Excellent interpersonal and service skills
        Availability outside standard working hours
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8635335
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
דרושים במלונות אסטרל
מיקום המשרה: בני ברק
סוג משרה: משרה מלאה
אנו מחפשים BI Developer שהוא גם Data Analyst עם חשיבה אנליטית חזקה, לתפקיד משולב הכולל פיתוח פתרונות BI לצד ניתוח נתונים והפקת תובנות עסקיות.

מדובר בתפקיד עצמאי לחלוטין, שאינו חלק מצוות BI. נדרש מישהו שמסוגל להוביל את התחום לבד, לקבל החלטות מקצועיות ולעבוד ללא מסגרת של צוות או חניכה.
דרישות:
ניסיון של לפחות שנתיים בפיתוח בQlik (Qlik Sense / Qlik Cloud)
חשיבה אנליטית והבנה עסקית
אפיון צרכים עסקיים, פיתוח דשבורדים אנליטיים, מודלים תפעוליים
עבודה עם ETL, טרנספורמציות נתונים וData Modeling
בניית ותחזוקת תהליכי טעינה (QVD / Scripts)
עבודה מול בסיסי נתונים ומקורות מידע שונים ורבים
בניית תהליכי דאטה אוטומטיים (Data Pipelines, Scheduling, Integrations)
עבודה עם APIs וחיבורים בין מערכות
שיפור ביצועים ואופטימיזציה של מודלים ודשבורדים
יכולת להדריך ולהטמיע שימוש במערכות BI בקרב משתמשי קצה
ניתוח נתונים והפקת תובנות עסקיות לשיפור ביצועים
הצגת נתונים ועבודה מול דרגים בכירים
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8627271
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 13 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה להצטרף לצוות הדאטה שלנו ולהיות שותף מרכזי בהקמה, פיתוח ותפעול של פלטפורמת Data & AI ארגונית מתקדמת בסביבת Azure.

במסגרת התפקיד:
תכנון, פיתוח ותפעול Lakehouse ארגוני על גבי Azure Databricks
בניית Data Pipelines מודרניים מקצה לקצה על בסיס Delta Lake במודל Bronze / Silver / Gold
פיתוח תהליכי Data Ingestion חכמים ממערכות ליבה, APIs וEvent Streams, כולל Incremental Loading וCDC
עבודה עם Unity Catalog לניהול Data Governance, הרשאות, Lineage ושיתוף נתונים מאובטח בין צוותים
שימוש יומיומי ביכולות מתקדמות של Databricks:
Workflows & Jobs
Autoloader
Delta Live Tables
Structured Streaming
עבודה שוטפת וצמודה עם Data Scientists ותמיכה בML Workflows
הטמעה וניהול של MLflow:
ניהול ניסויים
Model Tracking
Versioning וReproducibility
בניית סטנדרטים ארגוניים לData Quality, Monitoring וObservability
אופטימיזציה של ביצועים ועלויות בסביבת Azure (Cluster Sizing, Caching, Partitioning)
תמיכה בהקמת AI / Data Platform ארגונית התומכת בAgents, Machine Learning ומוצרי דאטה
דרישות:
מה אנחנו מחפשים?
ניסיון של 3-5 שנים בתפקיד Data Engineer בסביבת Cloud
ניסיון מעשי משמעותי עם Azure Databricks
שליטה גבוהה ב Python,SQL, Spark / PySpark
ניסיון בעבודה עם: Delta Lake, Unity Catalog, Databricks Workflows / Jobs
ניסיון בבניית Data Pipelines בסביבת Production, ניסיון בעבודה משותפת עם Data Scientists וML Pipelines
היכרות עם MLflow לניהול מודלים וניסויים
הבנה טובה של Data Modeling בסביבת Lakehouse
ניסיון בעבודה עם Git וCI/CD לתהליכי דאטה
יכולת עבודה בצוות רבתחומי, חשיבה מוצרית וראייה מערכתית על דאטה

אנחנו ממוקמים ברמת גן,
מתחם הבורסה, בסמוך לרכבת סבידור מרכז ולרכבת הקלה

* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8570851
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת data Engineering Tech Lead (Snowflake) לארגון פיננסי במרכז!
הזדמנות להוביל טכנולוגית פיתוח דאטה מתקדם בסביבת Snowflake, כולל ארכיטקטורה, ביצועים וניהול צוות.
דרישות:
ניסיון של 5+ שנים כ- data Engineer עם ניסיון משמעותי ב-Snowflake (לפחות 3 שנים)
ניסיון מעשי עם DBT, Python ו-Kafka
ניסיון ב-Performance Tuning בסביבות דאטה גדולות ומורכבות
ניסיון בניהול צוותים והובלת פיתוח במתודולוגיית Agile
ניסיון בעבודה עם הרשאות, אבטחת מידע (RBAC) ונתוני PII המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8600367
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: יקום
סוג משרה: משרה מלאה
אנחנו מחפשים מפתח/ת ETL מנוסה להצטרף לצוות האוטומציה והאינטגרציה שלנו, לתפקיד מאתגר ודינמי הכולל פיתוח ותחזוקה של תהליכי העברת נתונים מורכבים בין מערכות ובסיסי נתונים, כחלק ממערכת האוטומציה הארגונית של החברה, תוך שימוש בApache NiFi, Oracle וSQL מתקדם.
התפקיד משלב עבודה אינטנסיבית עם שאילתות SQL מורכבות, טרנספורמציות נתונים, גזירות לוגיות ומניפולציות על מידע, המועבר בין מערכות שונות כחלק מתהליכי אוטומציה ואינטגרציה ארגוניים.
דרישות:
לפחות שנה ניסיון בפיתוח ETL או תהליכי data Integration
ניסיון בפיתוח Apache NiFi ותהליכי data Flow
היכרות טובה עם Linux ועבודה בCLI
ניסיון חזק בSQL: Join-ים מורכבים, Subqueries, Aggregations וTransformations המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525495
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בסיסנת תוכנה בע"מ
הזדמנות להשתלב בפרויקט לאומי קריטי עם אימפקט אמיתי
למכס ומעמ ב-רשות המסים בישראל דרוש/ה מהנדס/ת נתונים ( data Engineer / DBA MSSQL) עם ניסיון של 4+ שנים לעבודה על מערכת Travelers Air
מערכת Travelers Air היא מערכת לאומית מתקדמת האחראית על איסוף, ניתוח והערכת סיכונים של נוסעים הנכנסים והיוצאים מישראל דרך נתב"ג, בשיתוף גופים ביטחוניים וממשלתיים.
מדובר בפרויקט טכנולוגי מורכב, רגיש ובעל חשיבות אסטרטגית ברמה הלאומית.

מה בתפקיד?
ניהול ותפעול בסיסי נתונים MSSQL בסביבה מורכבת וקריטית
פתרון תקלות מורכבות ושיפור ביצועים
אופטימיזציה והרצת שאילתות SQL מתקדמות
אחריות על data Pipelines ואיכות הנתונים
תכנון ויישום אסטרטגיות גיבוי ואבטחת מידע
עבודה עם מודלים אנליטיים ותשתיות מידע מתקדמות
הובלה מקצועית ועבודה מול צוותים מגוונים
דרישות:
דרישות מרכזיות:
לפחות 4 שנות ניסיון בניהול בסיסי נתונים MSSQL
ניסיון בהתקנה, שדרוג ותחזוקת שרתי SQL server
ניסיון ב-Performance Tuning ואופטימיזציה
ניסיון בעבודה עם Always On
ניסיון בתכנון ויישום גיבויים ואבטחת DB
יכולת תחקור ופתרון תקלות מורכבות
עבודה בצוות ויחסי אנוש מעולים

יתרונות:
ניסיון עם NoSQL / DB Graph
ניסיון ב- Python או # C
סיווג ביטחוני בתוקף
יוצאי יחידות טכנולוגיות - ממר"ם / 8200 / תקשוב וכד'

מיקום: ירושלים - המכון הגיאולוגי

(מעבר צפוי ביוני 2026 למתחם דקטלון בתלפיות)
משרה מלאה | היברידיות של עד יומיים מהבית לאחר תקופת חפיפה

מחפש/ת את האתגר הבא שלך בעולם הדאטה והתשתיות?
זו הזדמנות לקחת חלק במערכת לאומית משמעותית במכס ומעמ של רשות המסים, לעבוד עם טכנולוגיות מתקדמות ולהשפיע באמת. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628411
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באיילת אלבז
לחברה יזמית בתחום האנרגיה המתחדשת,
דרוש/ה מנהל /ת ביצועים של מערכות אנרגיה סולארית ואגירה.
מיקום - אזור השרון.

תחומי אחריות -
עבודה שוטפת מול מערכות ניטור ומערכות לניהול ביצועים לצורך בקרת ביצועים והפקת דו"חות תקופתיים.
ניתוח נתוני ייצור והשוואתם לתחזיות.
ביצוע חקר נתונים לטובת זיהוי חריגות, פערי ביצועים והצפתם.
זיהוי מגמות ארוכות טווח, מעקב KPI's טכניים למול יעדים ומול התחייבויות קבלנים.
הכנה והצגת דוחות ביצועים תקופתיים למחלקה והנהלה.
ניהול וייזום של תהליכי שיפור ביצועים למתקנים.
תמיכה בניתוחי כדאיות כלכלית וטכנית למול חלופות שונות לשיפור ביצועי המתקנים.
בקרה אחר דוחות תקופתיים המתקבלים מקבלנים.
ממשקי עבודה - מחלקת תפעול, מחלקת ניהול נכסים, מחלקת סחר, מחלקת הנדסה.
דרישות:
תואר ראשון בהנדסה (חשמל/אנרגיה/תעשייה וניהול/מהנדס נתונים) או תחום רלוונטי אחר.
ניסיון קודם בניתוח נתונים ואנליזה - חובה.
שליטה גבוהה בכלי ניתוח נתונים, אקסל וכלי BI.
אנגלית ברמה גבוהה.
ניסיון בעבודה עם מערכות/ SCADA מערכות ניטור - יתרון משמעותי.
הבנה טכנית של מערכות פוטו-וולטאיות - יתרון משמעותי.
ניסיון בעבודה עם מודלי תחזיות כגון PVsyst - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8612044
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בבינת תקשורת מחשבים
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
תנאים נוספים:קרן השתלמות
אנו מחפשים איש data מנוסה להצטרפות לצוות הדאטה שלנו, להובלה של פיתוח, תפעול ואופטימיזציה של פלטפורמות נתונים מתקדמות.
התפקיד כולל עבודה עם מחסני נתונים, תהליכי עיבוד נתונים מורכבים, ופלטפורמות מבוססות קונטיינרים.

תחומי אחריות:
- תכנון, פיתוח ותחזוקה של תשתיות data ו- data Pipelines.
- עבודה עם מחסני נתונים גדולים וביצוע אופטימיזציה לשאילתות וביצועים.
- עבודה עם פלטפורמות data מבוססות Kubernetes כגון VMware Tanzu.
- עבודה עם מערכות data Warehouse כגון Greenplum Database.
- פיתוח תהליכי ETL /ELT ועבודה עם נתונים בהיקפים גדולים.
- שיתוף פעולה עם צוותי פיתוח, אנליטיקה ו- DevOps.
דרישות:
- סיווג ביטחוני (רמה 3 לפחות).
- ניסיון של 5+ שנים בתפקידי data Engineer / data Platform.
- ניסיון בעבודה עם SQL ברמה גבוהה.
- ניסיון עם data Warehouses.
- ניסיון עם Kubernetes או פלטפורמות מבוססות קונטיינרים.
- ניסיון בפיתוח pipelines לעיבוד נתונים.

יתרון משמעותי:
- ניסיון עם VMware Tanzu.
- ניסיון עם Greenplum Database.
- ניסיון עם Spark / Airflow / Kafka.
- ניסיון עם ענן (AWS / GCP / Azure).
- ניסיון בעבודה עם data Lake.
- ניסיון בסביבות air gapped.

המשרה פונה לנשים וגברים כאחד. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8630409
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
ארגון ממשלתי באזור המרכז מגייס אנליסט/ית נתונים
התפקיד כולל: עבודה עם עיבוד והסבת קבצי CAD ו-GIS למאגרי תשתיות לאומיות, פיתוח סקריפטים ב- Python להסבות נתונים חצי אוטומטיות ואוטומטיות, ביצוע בקרות איכות, ניתוח וקליטת מידע ממקורות מגוונים לבסיסי נתונים ועבודה בצוות רב-תחומי לשיפור תהליכי עבודה ועוד.
דרישות:
- שנתיים ניסיון כאנליסט/ית נתונים
- ניסיון בעבודה עם מערכות GIS כגגון: ArcGIS, ArcPro, QGIS
- ניסיון בעבודה עם בסיסי נתונים SQL / NoSQL
- ניסיון בפיתוח Python בסביבת GIS
- יכולת ניתוח נתונים והבנה של מפרטי מיפוי וקליטת נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8624729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
לגוף ממשלתי בירושלים דרוש/ה מהנדס/ת תשתיות נתונים לניהול ותחזוקה של מסדי נתונים ארגוניים ותהליכי נתונים מורכבים.

תיאור התפקיד:
- ניהול ואחריות כוללת על תשתיות מסדי נתונים ( ( DBA ) )
- פתרון תקלות מורכבות ושיפור ביצועים
- הרצה ואופטימיזציה של שאילתות מורכבות
- בדיקות איכות נתונים ותקינות זרימת המידע
- עבודה עם תהליכי נתונים ו?pipelines
- הקמה, תחזוקה ושדרוג של שרתי SQL server
- תכנון ויישום גיבויים, אבטחת מידע וניהול הרשאות
- תרגום דרישות עסקיות לפתרונות טכנולוגיים
- עבודה בצוות והובלה מקצועית בתחום
דרישות:
דרישות חובה:
- 4 שנות ניסיון משמעותי בניהול תשתיות מסדי נתונים ב?MSSQL
- ניסיון מוכח בפתרון תקלות, ניתוח ביצועים ואופטימיזציה
- ניסיון בתכנון ויישום אבטחת בסיסי נתונים ואסטרטגיות גיבוי
- ניסיון בעבודה עם Always On
- ניסיון בהתקנה ושדרוג שרתי SQL
- יכולת עבודה בצוות ותקשורת בין?אישית טובה

יתרון:
- ניסיון במסדי נתונים לא רלציוניים
- ניסיון בעבודה עם Graph DB
- ידע בפייתון ו/או C #
- סיווג ביטחוני בתוקף - רמה 3

השכלה - תנאי סף (אחד מהבאים):
- תואר ראשון בהנדסה / מדעי המחשב
- הנדסאי/ת תוכנה
- תואר אחר + קורסים מתקדמים בתחום הנתונים (200 שעות לפחות, מתוכן 100 בהנדסת נתונים)
- קורסים בתחום מערכות מידע בהיקף של 300 שעות (מתוכן 100 בהנדסת נתונים) + שנת ניסיון נוספת
- בוגר/ת יחידה טכנולוגית בצהל (ממרם / 8200 / תקשוב / מקבילות או בראם) - בכפוף לאישור המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621223
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בNishapro
סוג משרה: משרה מלאה
דרוש/ה טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -

בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה - חובה.

שליטה ב- Python - חובה.

ניסיון בעבודה עם בסיסי נתונים (SQL) - חובה.

הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים


מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית

יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות

גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519703
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בTechTalent
ארגון מוצר מתקדם מעולמות ה-Fintech מגייס data Engineer בכיר/ה להשתלבות במערך טכנולוגי מוביל.
הזדמנות לקחת חלק בפיתוח פתרונות data מתקדמים בסביבה חדשנית ובקבוצה מקצועית בחזית הטכנולוגיה.

תחומי אחריות:
תכנון ובנייה של פתרונות data מתקדמים
עבודה Hands-on בפיתוח באמצעות Python
שימוש והטמעה של תהליכי data Pipelines תוך עבודה עם Airflow
עבודה עם כלים מתקדמים בעולמות ה- data
שיתוף פעולה עם ממשקים טכנולוגיים כחלק מצוות מוביל
דרישות:
תואר ראשון בתחום טכנולוגי
לפחות 6 שנות ניסיון בעולמות ה- data
ניסיון מעשי בפיתוח ב- Python
ניסיון בעבודה עם Airflow
ניסיון בכלי data נוספים
אנגלית ברמה גבוהה מאוד
רקע קודם בפיתוח backend - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בפרוסיד
מיקום המשרה: כפר סבא
סוג משרה: משרה מלאה
פרוסיד מגייסת Marketing Analytics Engineer ל-50% משרה!

תפקיד אנליטי-טכנולוגי בסביבה דיגיטלית מתקדמת, עם חיבור ישיר לעולמות השיווק, הדאטה והקמעונאות. הזדמנות לעבוד עם לקוחות משמעותיים ולהשפיע על החלטות עסקיות מבוססות דאטה.

במסגרת התפקיד:

ניתוח ביצועי קמפיינים, אפליקציות ומסעות לקוח (המרות, LTV, ROAS, Retention ועוד)
בניית סגמנטים מבוססי התנהגות וערך לקוח
כתיבת שאילתות SQL וחיבור למקורות דאטה
בנייה, תחזוקה ושיפור של דשבורדים ודוחות KPI
הפקת תובנות עסקיות והמלצות לפעולה
עבודה שוטפת מול צוותי שיווק, דיגיטל, סחר ומערכות מידע

*עבודה במודל 100% היברידי*
דרישות:
דרישות:
1-2 שנות ניסיון באנליזה / BI / דאטה - חובה
שליטה טובה ב-SQL - חובה
ניסיון בבניית דשבורדים בכלי BI (Looker / Power BI / Tableau או דומה) - חובה
הבנה בעולמות שיווק דיגיטלי (פאנלים, מסעות לקוח, מדדים עסקיים) - חובה
רקע בעולמות הקמעונאות (Retail), כולל עבודה עם חנויות פיזיות ואונליין, Omnichannel, מבצעים ועונתיות- יתרון משמעותי.
ניסיון עם Google Cloud / BigQuery / GA4 - יתרון משמעותי
היכרות עם מערכות Marketing Automation או CDP כגון Emarsys, salesforce - יתרון
ניסיון עם GTM- יתרון
ניסיון עם Python או R- יתרון
תואר רלוונטי (סטטיסטיקה, כלכלה, מדעי נתונים, תעשייה וניהול)- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589376
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a strong, hands-on Data Engineer to join our team and play a key role in building our data infrastructure from the ground up. In this role, you will design and implement scalable data pipelines and platforms, supporting both batch and real-time use cases. You will work closely with analysts and stakeholders to deliver reliable, high-quality data solutions, and take full ownership of data flows - from ingestion to consumption. This is a great opportunity for an executor who enjoys building, moving fast, and making an impact.
What will your job look like?
Design, build, and maintain robust and scalable data pipelines (batch and real-time) end-to-end.
Design and implement scalable, flexible data architectures to support evolving business needs.
Build and manage data platforms, including data lakes and data warehouses.
Integrate multiple data sources (structured and unstructured) into a unified data platform using batch (ETL) and real-time streaming solutions.
Design and implement efficient data models, schemas, and database structures (SQL / NoSQL).
Develop and implement data quality processes to ensure accuracy, consistency, and reliability.
Monitor, optimize, and troubleshoot data infrastructure to meet performance and SLA requirements.
Requirements:
5+ years of hands-on experience as a Data Engineer, building data systems from scratch in dynamic environments.
Bachelors degree in Computer Science, Engineering, or a related field (or equivalent practical experience).
Strong proficiency in Python and advanced SQL, with solid experience in data modeling.
Proven experience designing and building scalable data pipelines (batch and real-time), including streaming technologies such as Kafka.
Strong experience working with AWS, including services such as S3, Athena and DynamoDB.
Experience working with big data processing frameworks such as Spark, and columnar data formats (e.g., Parquet).
Hands-on experience with workflow orchestration tools such as Airflow.
Strong ownership and execution mindset, with excellent problem-solving skills and high attention to detail, and the ability to collaborate effectively and deliver in ambiguous, fast-paced environments.
Experience with data platform technologies such as Databricks, Snowflake - Advantage.
Experience building data platforms using modern lakehouse technologies (e.g., Iceberg) - Advantage.
Fluent in English.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636352
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We're hiring a Data Engineer to join our growing team of analytics experts in order to help & lead the build-out of our data integration and pipeline processes, tools and platform.
The ideal candidate is an experienced data pipeline builder and data wrangler who enjoys optimizing data systems and building them from the ground up.
The right candidate must be self-directed and comfortable supporting the data needs of multiple teams, systems and products. The right candidate will be excited by the prospect of optimizing or even re-designing our companys data architecture to support our next generation of products and data initiatives.
In this role, you will be responsible for:
Create ELT/Streaming processes and SQL queries to bring data to/from the data warehouse and other data sources.
Establish scalable, efficient, automated processes for large-scale data analyses.
Support the development of performance dashboards & data sets that will generate the right insight.
Work with business owners and partners to build data sets that answer their specific business questions.
Collaborates with analytics and business teams to improve data models that feed business intelligence tools, increasing data accessibility and fostering data-driven decision-making across the organization.
Works closely with all business units and engineering teams to develop a strategy for long-term data platform architecture.
Own the data lake pipelines, maintenance, improvements and schema.
Requirements:
BS or MS degree in Computer Science or a related technical field.
3-4 years of Python / Java development experience.
3-4 years of experience as a Data Engineer or in a similar role (BI developer).
3-4 years of direct experience with SQL (No-SQL is a plus), data modeling, data warehousing, and building ELT/ETL pipelines - MUST
Experience working with cloud environments (AWS preferred) and big data technologies (EMR,EC2, S3 ) - DBT is an advantage.
Experience working with Airflow - big advantage
Experience working with Kubernetes - advantage
Experience working with at least in one of the big data environments: Snowflake, Vertica, Hadoop (Impala/Hive), Redshift etc - MUST
Experience working with Spark - advantage
Exceptional troubleshooting and problem-solving abilities.
Excellent verbal/written communication & data presentation skills
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636139
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
Location: Jerusalem
Job Type: Full Time
We are seeking a Backend & Data Engineer to join our Innovation Team within our Mapping Division. This role is best suited for engineers with strong system-level thinking, a can-do approach, and a hands-on mindset, with the ability to design, build, and optimize complex systems operating at scale.
What your job will look like:
Develop and maintain backend and data-processing components in large-scale systems
Design, implement, and optimize data pipelines and distributed processing flows
Work with large-scale storage systems (e.g., S3) and high-volume data access patterns
Optimize systems and code across multiple layers - from architecture to implementation
Identify performance bottlenecks, debug complex issues, and drive root-cause solutions
Work across teams and domains, reading, improving, and refactoring existing code
Take part in technical design and decision-making, balancing performance, scalability, and maintainability.
Requirements:
5+ years of experience in software development, with a strong backend and/or data focus
Experience building backend services (APIs) and working with databases and storage systems
Experience using AI as a core part of the development workflow
Hands-on experience with large-scale data processing and distributed systems
Experience with Spark / PySpark - a strong advantage
Experience with Python or Node.js
Strong understanding of performance optimization and system behavior (CPU, memory, concurrency)
Proven debugging skills and ability to move from symptoms to root cause
A strong can-do approach - proactive, hands-on, and not afraid to dive into complex systems.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636130
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
Location: Jerusalem
Job Type: Full Time
Required Senior ML Data Engineer
Jerusalem
Full time
The AI Engineering group builds modern infrastructure and solutions that improve how algorithms are developed.
We are a small, independent team of experienced engineers with a mix of skills in algorithms, software, and infrastructure. We work in a DevOps style and build cross-team solutions that support research and development of advanced perception algorithms.
Our flagship project is a unified AV dataset used to train and evaluate next-generation models. We take large volumes of multi-camera video, object labels, HD maps, and sensor data from across the organization, and turn it into a curated, high-quality training set - at scale.
We are looking for someone who brings ML and computer-vision depth to the team - someone who can help shape the intelligence layer that decides what data is worth training on.
What will your job look like:
Work collaboratively with shared ownership. Your focus area will be the curation and ML side of our data pipeline, but you will contribute across the full stack alongside the rest of the team.
Build and improve the curation pipeline - from vision-model embeddings and scene detection, through VLM-based scene analysis, to scoring, deduplication, and sampling that produces a balanced and diverse dataset.
Run and optimize GPU inference at scale (embedding extraction, VLM inference) across thousands of driving sessions using workflow orchestration.
Develop scoring and sampling strategies that ensure rare but important scenarios (night driving, adverse weather, hazardous situations) are well-represented in the final dataset.
Work with algorithm teams to understand what data gaps hurt model performance and translate those into curation criteria.
Build validation and diagnostics that measure dataset quality - not just pipeline health, but whether the data is actually good for training.
Contribute to the core dataset SDK, converter, and 3D-geometry tooling (camera projection, calibration, coordinate transforms).
Requirements:
4+ years in ML engineering, applied CV, or a similar role combining model work with production data systems.
Hands-on experience with vision models - embeddings, VLMs, or object detection/segmentation.
Strong Python and comfort with the PyData stack (NumPy, PyArrow, Pandas, DuckDB).
Experience building data or ML pipelines that run at scale (not just notebooks).
Solid understanding of 3D geometry and camera models - or the mathematical background to ramp up quickly.
Good understanding of LLM agents and agentic workflows, with genuine interest in applying them to data and engineering problems.
Ability to work across team boundaries with algorithm and infrastructure people.
Strong advantage:
Experience with autonomous-driving datasets or perception pipelines.
Familiarity with dataset curation techniques (active learning, hard-example mining, distribution balancing).
Experience with GPU inference serving (vLLM, Triton, TensorRT).
Familiarity with vector databases or columnar analytics (LanceDB, DuckDB).
Experience with workflow orchestration (Argo, Airflow, Kubeflow).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636125
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Staff Data Platform Engineer to join our Engineering team and lead the evolution of our next-generation data platform. In this high-impact role, you will operate as a player-coach: you will be the technical visionary responsible for designing the ecosystem, while remaining deeply hands-on to implement scalable, secure, and intelligent solutions that power everything from operational reporting to advanced GenAI applications.
You will bridge the gap between complex business requirements and technical execution, advocating for a data-first culture. This role offers a clear growth path: while it currently starts as an individual contributor position, it has the potential to evolve into a leadership role.
About the Role:
Architecture & Hands-on Execution: Design and actively build a comprehensive data platform. You will not just oversee infrastructure; you will write the core code and build tools that support diverse workloads-from operational reporting to complex analytical queries.
Strategic & Technical Delivery: Partner with product managers to translate business objectives into technical strategies, then lead the engineering effort to deliver them.
Technology Evaluation: Continuously evaluate, prototype, and select best-in-class technologies to future-proof our data stack.
Technical Leadership & Mentorship: Act as a primary advocate for platform adoption. You will foster a community of practice around data engineering, mentoring senior and mid-level engineers to elevate the team's technical bar.
Governance & Quality: Implement and automate robust frameworks for Data Discovery, Quality, and Governance, ensuring solutions are trustworthy and compliant with financial regulations.
Requirements:
Experience: 8+ years of hands-on experience in Data Engineering and Architecture, with a track record of building and shipping platforms at scale.
Experience with modern big data platforms such as Snowflake, Databricks, or similar technologies.
Hands-on experience with Data infrastructure experience (Orchestration, scalability, reliability, and cloud architecture).
Data Movement & Integration: Deep understanding of data movement strategies, including high-frequency batching, CDC, and real-time event streaming.
Technical Depth: Deep understanding of database internals. High proficiency in Python and SQL. You can dive into code when necessary to solve complex issues.
Modeling & Architecture: Strong know-how in dimensional modeling and schema design (relational and NoSQL), with proven experience implementing Data Warehouse or Lakehouse architectures.
GenAI & RAG Expertise: You have practical experience architecting and building RAG (Retrieval-Augmented Generation) pipelines, with specific knowledge of Vector Databases, Embedding Models, and LLM Orchestration frameworks.
Business Acumen: A strong ability to understand business objectives and translate them into technical strategies that drive tangible value.
Leadership and Communication: As this is a central role in the product tech organisation, you will need a strong ability to influence engineering teams and drive consensus without direct authority. You must have excellent communication skills to explain complex architectural concepts to C-level stakeholders and non-technical partners.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636116
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
Location: Jerusalem
Job Type: Full Time
We are looking for someone who brings ML and computer-vision depth to the team - someone who can help shape the intelligence layer that decides what data is worth training on.
What will your job look like:
Work collaboratively with shared ownership. Your focus area will be the curation and ML side of our data pipeline, but you will contribute across the full stack alongside the rest of the team.
Build and improve the curation pipeline - from vision-model embeddings and scene detection, through VLM-based scene analysis, to scoring, deduplication, and sampling that produces a balanced and diverse dataset.
Run and optimize GPU inference at scale (embedding extraction, VLM inference) across thousands of driving sessions using workflow orchestration.
Develop scoring and sampling strategies that ensure rare but important scenarios (night driving, adverse weather, hazardous situations) are well-represented in the final dataset.
Work with algorithm teams to understand what data gaps hurt model performance and translate those into curation criteria.
Build validation and diagnostics that measure dataset quality - not just pipeline health, but whether the data is actually good for training.
Contribute to the core dataset SDK, converter, and 3D-geometry tooling (camera projection, calibration, coordinate transforms).
Requirements:
4+ years in ML engineering, applied CV, or a similar role combining model work with production data systems.
Hands-on experience with vision models - embeddings, VLMs, or object detection/segmentation.
Strong Python and comfort with the PyData stack (NumPy, PyArrow, Pandas, DuckDB).
Experience building data or ML pipelines that run at scale (not just notebooks).
Solid understanding of 3D geometry and camera models - or the mathematical background to ramp up quickly.
Good understanding of LLM agents and agentic workflows, with genuine interest in applying them to data and engineering problems.
Ability to work across team boundaries with algorithm and infrastructure people.
Strong advantage:
Experience with autonomous-driving datasets or perception pipelines.
Familiarity with dataset curation techniques (active learning, hard-example mining, distribution balancing).
Experience with GPU inference serving (vLLM, Triton, TensorRT).
Familiarity with vector databases or columnar analytics (LanceDB, DuckDB).
Experience with workflow orchestration (Argo, Airflow, Kubeflow).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8635950
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 8 שעות
Location: Ramat Gan
Job Type: Full Time
Required Senior ML Data Engineer
Ramat Gan
Full time
The AI Engineering group builds modern infrastructure and solutions that improve how algorithms are developed.
We are a small, independent team of experienced engineers with a mix of skills in algorithms, software, and infrastructure. We work in a DevOps style and build cross-team solutions that support research and development of advanced perception algorithms.
Our flagship project is a unified AV dataset used to train and evaluate next-generation models. We take large volumes of multi-camera video, object labels, HD maps, and sensor data from across the organization, and turn it into a curated, high-quality training set - at scale.
We are looking for someone who brings ML and computer-vision depth to the team - someone who can help shape the intelligence layer that decides what data is worth training on.
What will your job look like:
Work collaboratively with shared ownership. Your focus area will be the curation and ML side of our data pipeline, but you will contribute across the full stack alongside the rest of the team.
Build and improve the curation pipeline - from vision-model embeddings and scene detection, through VLM-based scene analysis, to scoring, deduplication, and sampling that produces a balanced and diverse dataset.
Run and optimize GPU inference at scale (embedding extraction, VLM inference) across thousands of driving sessions using workflow orchestration.
Develop scoring and sampling strategies that ensure rare but important scenarios (night driving, adverse weather, hazardous situations) are well-represented in the final dataset.
Work with algorithm teams to understand what data gaps hurt model performance and translate those into curation criteria.
Build validation and diagnostics that measure dataset quality - not just pipeline health, but whether the data is actually good for training.
Contribute to the core dataset SDK, converter, and 3D-geometry tooling (camera projection, calibration, coordinate transforms).
Requirements:
4+ years in ML engineering, applied CV, or a similar role combining model work with production data systems.
Hands-on experience with vision models - embeddings, VLMs, or object detection/segmentation.
Strong Python and comfort with the PyData stack (NumPy, PyArrow, Pandas, DuckDB).
Experience building data or ML pipelines that run at scale (not just notebooks).
Solid understanding of 3D geometry and camera models - or the mathematical background to ramp up quickly.
Good understanding of LLM agents and agentic workflows, with genuine interest in applying them to data and engineering problems.
Ability to work across team boundaries with algorithm and infrastructure people.
Strong advantage:
Experience with autonomous-driving datasets or perception pipelines.
Familiarity with dataset curation techniques (active learning, hard-example mining, distribution balancing).
Experience with GPU inference serving (vLLM, Triton, TensorRT).
Familiarity with vector databases or columnar analytics (LanceDB, DuckDB).
Experience with workflow orchestration (Argo, Airflow, Kubeflow).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8635574
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 9 שעות
Location: Ramat Gan
Job Type: Full Time
We are looking for a Data Engineer to join our Object Detection group and play a key role in managing and enabling data workflows that power our computer vision algorithms. Our team generates and processes large volumes of diverse data from multiple sources, and we need someone who can bridge the gap between raw data and algorithmic innovation. Working alongside algorithm developers and researchers, you'll be responsible for building robust data pipelines, ensuring data quality, and making complex datasets accessible and actionable for our detection models. This role requires both strong coding abilities and a deep understanding of data - you'll need to think like an engineer while understanding the unique needs of a research and development-focused algorithmic group.
What will your job look like:
Work on large-scale systems handling diverse data from multiple sources
Build and maintain robust data pipelines that enable algorithmic development
Evaluate various optional technologies and take part in decision-making
Own key features and services within the data infrastructure
Ensure data quality and accessibility for detection models and research needs
Work onsite in Jerusalem at least one day a week.
Requirements:
BSc. in Computer Science or equivalent - must
3+ years of software development experience
Strong skills in Python and data-related libraries
Solid understanding of data structures and workflows
Experience with databases (SQL/NoSQL).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8635499
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We seek an experienced and highly skilled Senior Engineer to join our Data Platform Team. This is an exciting opportunity to work on cutting-edge technologies, drive innovation, and play a key role in designing and implementing the companys data infrastructure and architecture.

What you'll do

Database Infrastructure Development - Design, develop, and maintain scalable and reliable self-serve database infrastructure, including PostgreSQL, MongoDB, SingleStore, and AWS Aurora.

Big Data Infrastructure Development - Design, develop, and maintain scalable and reliable self-serve big data infrastructure, including cloud-agnostic data lakehouse, distributed databases, and platform-powered data pipelines.

End-to-End Ownership - Take responsibility for the entire lifecycle of data infrastructure, from DevOps (Terraform, Kubernetes) to application-level components (infrastructure libraries, core components in data pipelines).

Architecture Leadership: Collaborate with the Architecture group to define and maintain the companys core architectural vision.

Partner with development teams, providing technical guidance, best practices, and support from the design phase to production deployment.

Innovation and Exploration - Work on diverse and impactful projects across different layers of the tech stack, exploring new technologies and approaches to improve reliability, efficiency, and scalability.
Requirements:
Extensive Experience in software engineering and data infrastructure.
Extensive Expertise in the administration of OLTP and OLAP databases.
Strong knowledge of big data frameworks, including Apache Spark, Athena, Trino, and Iceberg.
Hands-on experience with DevOps tools such as Terraform, Kubernetes, and Cloud infrastructure.
Proficiency in building and managing data pipelines and core infrastructure components.
Strong problem-solving, communication, and leadership skills, with the ability to mentor and collaborate across teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8633890
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
one of the world's most impactful shopping recommendation companies, is searching for a talented Data Engineer to join our innovative team. For the past decade, we've served tens of millions of users globally, and we're looking for a passionate individual to help us continue our journey of making an impact.
What You'll Own:
Data Infrastructure
Build and operate data pipelines on GCP using Cloud Workflows, Cloud Functions, Cloud Scheduler, and BigQuery.
Create, Transform and Manage Datasets (Python, DBT,..)
Design and implement API integrations to pull data from affiliate networks, ad platforms, and internal services.
Ensure pipeline reliability, observability (monitoring, alerting, SLA management), and scalability.
Data Quality & Trust
Implement tests, freshness checks, and anomaly detection across all critical models.
Lead incident triage and root-cause analysis when data issues arise; build systems that catch problems before stakeholders do.
Maintain clear documentation of data contracts, schema definitions, and transformation logic.
ML & Data Science Collaboration
Work hand-in-hand with Data Scientists building ML models - ensuring feature tables, training datasets, and inference pipelines are clean and reproducible.
Build the data layer that feeds ML model training and evaluation, including feature stores and labeled datasets.
Requirements:
3-5+ years of Data Engineering or Backend Engineering experience with clear delivery in production systems.
Bachelor's (or higher) in Computer Science, Engineering, Mathematics, or a quantitative field (or equivalent background).
Strong Python skills: writing production-grade ETL/pipeline code, not just scripts.
SQL proficiency: complex window functions, CTEs, query optimization, and BigQuery-flavored SQL.
dbt: modeling patterns, incremental strategies, testing, and documentation.
GCP: hands-on experience with BigQuery, Cloud Functions, Cloud Workflows, or Cloud Scheduler (or equivalent cloud stack with willingness to ramp up quickly).
API integrations: building robust data ingestion from REST APIs with retries, pagination, and error handling.
Data quality mindset: you think about freshness, schema drift, nulls, and SLA before you're asked.
Nice‑to‑Haves:
Experience with affiliate marketing data (Amazon Associates, CJ, Impact, etc.) or ad platform APIs (Meta, Google Ads).
Familiarity with ML pipelines: feature engineering, training data prep, or serving infrastructure.
Event-driven architectures: Pub/Sub, Cloud Run, or equivalent.
Node.js: light scripting or serverless functions (our codebase is primarily Python, with occasional Node).
Version control and CI/CD: Git workflows, automated testing, and deployment pipelines.
Let's evolve together! If you're ready for a role where you can truly make a difference, apply now.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8631103
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
מיקום המשרה: מרכז
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה ובעל יכולות אנליטיות חזקות, שיצטרף אלינו ויוביל את בניית תשתיות הדאטה המאפשרות פיתוח, אימון והסקה של מודלים חכמים בקנה מידה גדול.
דרישות:
אנחנו מחפשים Data Engineer מנוסה ובעל יכולות אנליטיות חזקות, שיצטרף אלינו ויוביל את בניית תשתיות הדאטה המאפשרות פיתוח, אימון והסקה של מודלים חכמים בקנה מידה גדול.

התפקיד דורש הבנה עמוקה של התמונה העסקית–מערכתית, ויכולת להוביל תהליכי דאטה מקצה לקצה בסביבה טכנולוגית מתקדמת.
במסגרת התפקיד תהיה אחריות מלאה על הקמת שכבות דאטה, יצירת פאנלים לאימון ולהסקה, פיתוח תהליכי ETL/ELT, וחיבור למקורות מידע ארגוניים שונים תוך הבנה מעמיקה של הצרכים המודליים והעסקיים. תחומי אחריות/מה התפקיד כולל-
בניית תשתיות דאטה ופאנלים למודלי ML, כולל שכבות נתונים לאימון ולהסקה.
יצירת פאנלים דינמיים בזמן אמת וביצוע העשרת פיצ’רים ויצירת פיצ’רים מותאמים למודלים.
עבודה עם מקורות מידע ארגוניים ואיסוף נתונים יעיל ממערכות שונות.
פיתוח ושיפור תהליכי ETL/ELT (ב-Snowflake ו-DBT) תוך ניטור ואבטחת איכות הדאטה.
שיתוף פעולה עם Data Scientists, אנליסטים וצוותי MLOps לפתרונות דאטה חוצי ארגון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8582080
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
we are looking for a Senior Data Engineer I.
As a Senior Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspects-ensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and more.
Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.
Key Job Responsibilities and Duties:
Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.
Dealing with massive textual sources to train GenAI foundation models.
Solving issues with data and data pipelines, prioritizing based on customer impact.
End-to-end ownership of data quality in our core datasets and data pipelines.
Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.
Providing tools that improve Data Quality company-wide, specifically for ML scientists.
Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.
Acting as an intermediary for problems, with both technical and non-technical audiences.
Promote and drive impactful and innovative engineering solutions
Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation
Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.
21679
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.
Minimum of 6 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions.
You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.
You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)
Strong programming skills in languages such as Python and Java.
Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.
Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems
Experience with Data Warehousing and ETL/ELT pipelines
Experience in data processing for large-scale language models like GPT, BERT, or similar architectures - an advantage.
Proficiency in data manipulation, analysis, and visualization using tools lke NumPy, pandas, and matplotlib - an advantage.
Experience with experimental design, A/B testing, and evaluation metrics for ML models - an advantage.
Experience of working on products that impact a large customer base - an advantage.
Excellent communication in English; written and spoken.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627496
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Engineer.
As a Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspects-ensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and ore.
Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.
Key Job Responsibilities and Duties:
Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.
Dealing with massive textual sources to train GenAI foundation models.
Solving issues with data and data pipelines, prioritizing based on customer impact.
End-to-end ownership of data quality in our core datasets and data pipelines.
Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.
Providing tools that improve Data Quality company-wide, specifically for ML scientists.
Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.
Acting as an intermediary for problems, with both technical and non-technical audiences.
Promote and drive impactful and innovative engineering solutions
Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation
Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.
20718
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.
Minimum of 3 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions
You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.
You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)
Strong programming skills in languages such as Python and Java.
Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.
Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems.
Experience with Data Warehousing and ETL/ELT pipelines
Experience in data processing for large-scale language models like GPT, BERT, or similar architectures - an advantage.
Proficiency in data manipulation, analysis, and visualization using tools like NumPy, pandas, and matplotlib - an advantage.
Experience with experimental design, A/B testing, and evaluation metrics for ML models - an advantage.
Experience of working on products that impact a large customer base - an advantage.
Excellent communication in English; written and spoken.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627494
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Ra'anana
Job Type: Full Time
we are looking for a Senior Data Engineer.
Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627346
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Temporary
As an Analytics Engineer within the Delivery & Operations organization, you will operate at the intersection of data engineering and analytics, with a strong focus on data quality, reliability, and scalability.

This role combines hands-on ownership of data pipelines and data transformations with the ability to effectively interface with customer-facing teams (Customer Success, and Delivery) when needed-helping ensure that data outputs are accurate, clear, and aligned with real-world use cases.

Responsibilities:
Build and maintain data models, pipelines, and ETL processes to support analytics, reporting, and machine learning.
Own data quality and validation, including monitoring, auditing datasets, and identifying anomalies.
Support customer-facing teams by providing reliable data, clarifying definitions, and investigating data issues.
Collaborate cross-functionally and work with existing codebases to debug, improve, and maintain data workflows.
Ensure high-quality data across the lifecycle to support reliable ML pipelines.
Requirements:
Requirements:
3+ years of experience in Python development (production-level data logic, not just scripting).
2+ years of experience with data validation / data quality practices.
Experience with data pipelines / ETL processes.
Proficiency in Pandas (or similar libraries).
Strong SQL and database knowledge.
Experience working with existing production codebases (debugging, refactoring).
Ability to communicate clearly with non-technical stakeholders when needed.
Strong analytical thinking and problem-solving skills.
High attention to detail and commitment to data accuracy.

Advantages:
Familiarity with data modeling best practices.
Experience supporting customer-facing data use cases or deliverables.
Background in DataOps / data reliability practices.
Exposure to machine learning pipelines.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8626264
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו