רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים במקדונלדס
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
פיתוח מקצה לקצה של מערכות מתקדמות מבוססות ML DL ו AI, החל משלבי האפיון ועד להעלאה לסביבת ייצור. העבודה תתבצע עם מודלים מתקדמים, תשתיות דאטה וארכיטקטורות סקיילביליות בסביבות ענן.

תחומי אחריות עיקריים:

- פיתוח והטמעת מודלים מבוססי ML DL ו AI.
- ניתוח נתונים מורכבים והסקת מסקנות עסקיות קריטיות
- יישום מודלים מתקדמים כגון Boosting, Random Forest, GLM, Regression, Clustering, PCA
- פיתוח והטמעת שירותים סביב LLMs, Data pipelines, APIs ותשתיות ליבה

מסגרת המשרה:

- משרה מלאה
- ימי ראשון- חמישי
- גמישות אפשרית בשעות (לא קיימת עבודה מרחוק)
- ישיבה במשרדי החברה - געש, הגעה עצמאית
- עבודה בצוות
- עבודה בכפיפות למנהלת מחלקה.
דרישות:
השכלה:
- תואר ראשון רלוונטי.

ניסיון מקצועי (חובה):

- 2+ שנות ניסיון בפיתוח פתרונות AI
- ניסיון עם LLM, כולל עבודה מול OpenAI וAzure OpenAI
- ניסיון בפיתוח Backend וAPI
- ניסיון בעבודה בסביבות ענן
- ניסיון ב-RAG וVector Databases

כישורים טכניים (חובה):
- יכולת אנליטית גבוהה וחשיבה יצירתית לפתרון בעיות עסקיות
- הבנה מעמיקה בעולמות ML, Deep Learning, AI, דאטה וSQL
- פיתוח ב-Python ושימוש בספריות Numpy, Pandas, Scikit-Learn, PyTorch
- ניהול prompting מתקדם: safety filters, guardrails, versioning וארכיטקטורה מותאמת לניסויים
- עבודה מול ספקי מודלים שונים, Caching, Fallbacks ואופטימיזציית עלות מול ביצועים
- ראייה תצפיתית (observability): לוגים, מטריקות, ודשבורדים
- ידע באבטחה: Authorization and Authentication
- ניסיון עם MCP, בניית Tools ועבודה עם מודלים מולטימודליים
- אנגלית ברמה גבוהה - חובה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8552468
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בהטכניון - מכון טכנולוגי לישראל
מיקום המשרה: חיפה
סוג משרה: משרה מלאה
העבודה כוללת שיתוף פעולה שוטף עם צוותי המחשוב באגף ובמערך, עם יחידות אקדמיות ומנהליות, ועם ספקים טכנולוגיים, לצורך פיתוח והטמעה של פתרונות AI מתקדמים.

תחומי אחריות:
תכנון, פיתוח ותחזוקה של מערכות מבוססות GenAI / LLM מקצה לקצה (End-to-End), משלב האפיון ועד הפעלה ב.Production -
פיתוח והטמעה של ארכיטקטורות RAG המשולבות עם מקורות מידע ונתונים ארגוניים.
בנייה ותפעול של סוכני LLM (Agents) ותהליכי עבודה מבוססי AI תוך שיפור מתמשך.
פיתוח פתרונות המשלבים ספקי AI מסחריים, מודלים בקוד פתוח וסביבות ענן ו-On-Prem.
עבודה תחת שיקולי ביצועים, סקיילביליות, אבטחת מידע, אמינות תפעולית ובקרת עלויות.
שותפות בתהליכי בחינה, ניסוי והטמעה של טכנולוגיות AI חדשות בארגון.

כפיפות: מנהל אגף דיגיטל ודאטה.
דרישות:
תואר רלוונטי (מדעי המחשב, הנדסת תוכנה, מערכות מידע או תחום טכנולוגי דומה) - יתרון.
ניסיון מעשי בפיתוח תוכנה, מתוכן ניסיון משמעותי בעבודה עם פתרונותAI / ML - יתרון.
ניסיון בפיתוח או השתתפות בפיתוח מערכותGenAI / LLM, רצוי בסביבת Production.
ניסיון בעבודה עם ארכיטקטורות RAG או מערכות מבוססות חיפוש וידע.
ניסיון בעבודה מול ספקי LLM מסחריים (כגון OpenAI, Azure OpenAI, Anthropic) - יתרון.
ניסיון בפיתוחPython, כולל שימוש בספריות וכלי AI רלוונטיים,כגון LangChain או דומים.
הבנה טובה של פיתוח צד שרת (Backend) וארכיטקטורת מערכות.
היכרות עם סביבת ענן ופתרונות AI בענן - יתרון.

כישורים נדרשים:
יכולת ביטוי גבוהה בכתב ובעל-פה בעברית ובאנגלית, כולל כתיבת מסמכי אפיון והצגת פתרון.
יכולת למידה עצמית גבוהה והתעדכנות שוטפת בטכנולוגיות AI מתפתחות.
יכולת עבודה בצוות, שיתוף פעולה עם גורמים טכנולוגיים ולא-טכנולוגיים, ויחסי אנוש מצוינים.
אחריות אישית, סדר ויכולת עבודה בסביבה ארגונית מורכבת.
נכונות לגמישות תפעולית בהתאם לצרכים נקודתיים.

הערות:
המשרה הינה בהיקף 100%.

המידע שיימסר על ידך ישמש את הטכניון – מכון טכנולוגי לישראל ו/או מי מטעמו, לצורך בחינת מועמדותך למשרה, לרבות מועמדות למשרות נוספות, וכן לצורך ניהול ותפעול הליכי הגיוס, ולמטרות נוספות בהתאם להודעת הפרטיות למועמדים למשרה בטכניון.
לא חלה עליך חובה חוקית למסור את המידע,  אולם אם תבחר/י שלא למסור את המידע, כולו או חלקו, ייתכן שלא ניתן יהיה לבחון את מועמדותך או את התאמתך למשרה.
 
למידע נוסף, לרבות פירוט סוגי המידע הנאספים והשימושים הנעשים בו, זהות הגורמים שאליהם עשוי המידע להימסר, אופן מימוש זכויותיך לעיון ולתיקון מידע אישי, ודרכי יצירת קשר – ניתן לעיין בהודעת הפרטיות למועמדים למשרה, כפי שמפורסמת באתר הטכניון.
  
* המשרה מיועדת לנשים ולגברים כאחד.
הטכניון פועל לגיוון תעסוקתי ומעודד הגשת מועמדויות מכלל המגזרים
التخنيون يعمل على تعددية التشغيل ويشجع التقديم للمناقصات من جميع الأوساط
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8551252
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה להצטרף לצוות הדאטה שלנו ולהיות שותף מרכזי בהקמה, פיתוח ותפעול של פלטפורמת Data & AI ארגונית מתקדמת בסביבת Azure.

במסגרת התפקיד:
תכנון, פיתוח ותפעול Lakehouse ארגוני על גבי Azure Databricks
בניית Data Pipelines מודרניים מקצה לקצה על בסיס Delta Lake במודל Bronze / Silver / Gold
פיתוח תהליכי Data Ingestion חכמים ממערכות ליבה, APIs וEvent Streams, כולל Incremental Loading וCDC
עבודה עם Unity Catalog לניהול Data Governance, הרשאות, Lineage ושיתוף נתונים מאובטח בין צוותים
שימוש יומיומי ביכולות מתקדמות של Databricks:
Workflows & Jobs
Autoloader
Delta Live Tables
Structured Streaming
עבודה שוטפת וצמודה עם Data Scientists ותמיכה בML Workflows
הטמעה וניהול של MLflow:
ניהול ניסויים
Model Tracking
Versioning וReproducibility
בניית סטנדרטים ארגוניים לData Quality, Monitoring וObservability
אופטימיזציה של ביצועים ועלויות בסביבת Azure (Cluster Sizing, Caching, Partitioning)
תמיכה בהקמת AI / Data Platform ארגונית התומכת בAgents, Machine Learning ומוצרי דאטה
דרישות:
מה אנחנו מחפשים?
ניסיון של 3-5 שנים בתפקיד Data Engineer בסביבת Cloud
ניסיון מעשי משמעותי עם Azure Databricks
שליטה גבוהה ב Python,SQL, Spark / PySpark
ניסיון בעבודה עם: Delta Lake, Unity Catalog, Databricks Workflows / Jobs
ניסיון בבניית Data Pipelines בסביבת Production, ניסיון בעבודה משותפת עם Data Scientists וML Pipelines
היכרות עם MLflow לניהול מודלים וניסויים
הבנה טובה של Data Modeling בסביבת Lakehouse
ניסיון בעבודה עם Git וCI/CD לתהליכי דאטה
יכולת עבודה בצוות רבתחומי, חשיבה מוצרית וראייה מערכתית על דאטה

אנחנו ממוקמים ברמת גן,
מתחם הבורסה, בסמוך לרכבת סבידור מרכז ולרכבת הקלה

* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8570851
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
אנו מחפשים data ENGINEER מוכשר/ת, שרוצה להצטרף למסע טכנולוגי מאתגר ומשמעותי בארגון פיננסי מוביל.
בואו להיות חלק משבט ניהול סיכונים שהוא הגוף האחראי על Delivery של האסטרטגיה, הדרישות הרגולטוריות, ומוביל פיתוח מערכות מתקדמות מבוססות דאטה וטכנולוגיות ענן.

מה מחכה לכם אצלנו:
- פיתוח data Pipeline בסביבת data Lake מקצה לקצה
- פיתוח תהליכי שינוע ועיבוד נתונים במערכות רלציוניות
- כתיבת סקריפטים ב- Python / PySpark ותחקור נתונים ב-SQL
- ביצוע בדיקות Unit / Integration
- עבודה בסביבות CI/CD וחשיפה למוצרים מתקדמים בתחומי ציות, הלבנת הון והלימות הון
דרישות:
- מעל שנתיים ניסיון ב- Python
- מעל שנתיים ניסיון ב- Big Data (SPARK / HIVE)
- ניסיון בכתיבת שאילתות SQL מורכבות
- לפחות 3 שנות ניסיון בעולמות data של מיקרוסופט (SSIS, SQL server )
- הכרות עם DWH, DL ותהליכי ETL / ELT
- ניסיון בעבודה מול CTRLM המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8574005
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה גדולה ויציבה באזור הצפון מגייסת data Engineer
התפקיד כולל: פיתוח והטמעה של תהליכי data Pipeline והזרמת מידע בין מערכות שונות, יישום לוגיקות עסקיות בפלטפורמת Splunk, התממשקות למערכות נוספות ועוד.
דרישות:
- שנתיים ניסיון כ- data engineer
- ידע וניסיון בעבודה עם מערכות Linux
- שליטה בשפות Scripting כגון: Python וShell
- הכרות עם מימוש יישומים מבוססי דאטה
- ניסיון בעבודה עם Splunk - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8575189
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בקורן טק טכנולוגיות
לחברה מובילה בחיפה, דרוש/ה אנליסט/ית דיגיטל ושיווק בעל/ת ניסיון בניתוח נתונים ועבודה עם מקורות מידע מגוונים, לצורך הפקת תובנות עסקיות מבוססות דאטה.
במסגרת התפקיד:
איסוף, חיבור וניתוח נתונים ממקורות מידע שונים.
תכנון תהליכי זרימת נתונים ( data Pipelines) בין מערכות ופלטפורמות אנליטיות.
הגדרת KPI וביצוע ניתוחי נתונים מתקדמים.
כתיבת שאילתות SQL ועבודה עם שכבות נתונים.
פיתוח דשבורדים וניתוח נתונים באמצעות Tableau.
עבודה עם כלי אנליטיקה דיגיטליים כגון Google Analytics וכלים לניתוח התנהגות משתמשים.
דרישות:
תואר ראשון רלוונטי- חובה
ניסיון של 6 שנים לפחות בניתוח נתונים - חובה
ניסיון של 3 שנים לפחות בעבודה Hands-on עם SQL - חובה
ניסיון בפיתוח דשבורדים ב-Tableau
ניסיון בעבודה עם Google Analytics וכלים כגון HotJar / GlassBox או דומים
ניסיון ב- Python - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8567706
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת Comblack מגייסת data Engineer בכיר/ה לארגון גדול במרכז!
התפקיד כולל בניית מערכות אנליטיקה מתקדמות והצפת אנומליות על גבי Big Data, ניהול תשתיות מאגרי מידע, אופטימיזציה של שאילתות מורכבות ופיתוח data Pipelines מקצה לקצה להפיכת נתונים גולמיים למידע שימושי מבוסס ML.
דרישות:
ניסיון של 4 שנים ומעלה כ- data Engineer בעבודה עם מסדי נתונים גדולים.
מומחיות במידול data ובניית data Warehouse בסביבות Big Data.
ניסיון מעשי ב-Spark ובפיתוח/בדיקת איכות של data Pipelines.
יכולת ביצוע אופטימיזציה לשאילתות מורכבות והבנה טכנית גבוהה בתשתיות נתונים.
היכרות עם מודלים אנליטיים מורכבים ויישום מערכות מבוססות ML. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8575676
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בפרוסיד
פרוסיד מגייסת data Engineer (GCP Focus | data AI Platforms) להובלת פרויקטי דאטה ו- AI חדשניים!

במסגרת התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בסביבת Google Cloud Platform (GCP).
בנייה וניהול של data Pipelines מקצה לקצה - איסוף, עיבוד, טרנספורמציה ואחסון נתונים על גבי GCP.
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים כגון.dbt
עבודה Hands-on עם מחסן נתונים מודרני בענן.BigQuery
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins או GitLab CI בסביבת.GCP
שיתוף פעולה הדוק עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום ארכיטקטורות דאטה ופתרונות.AI
בחינת טכנולוגיות חדשות ב-GCP הובלת PoC והטמעת חדשנות מתמדת בתהליכי הדאטה וה.AI
דרישות:
דרישות:
ניסיון של שנה לפחות כמהנדס/ת דאטה - חובה.
ניסיון מוכח בעבודה עם Google Cloud Platform (GCP) - חובה.
ניסיון Hands-on עם BigQuery - חובה.
שליטה מלאה בSQL וב- Python - חובה.
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt) - חובה.
ניסיון בעבודה עם כלי BI (Looker / Looker Studio / Power BI / Tableau) או רקע קודם כ- BI Developer - חובה.
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI) חובה.
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות בסביבת GCP -חובה.
ידע מעשי בתחום ה,GenAIכולל Prompt Engineering ושימוש בכלי AI - חובה.
יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות כגון data Mesh / data Fabric - יתרון משמעותי
ניסיון בהטמעת פתרונות ML/AI ו MLOps - יתרון משמעותי
רקע בכתיבת אפיונים טכניים ופונקציונליים- יתרון
ניסיון עם כלי data Governance, data Catalog ו- data Quality- יתרון
תואר אקדמי רלוונטי- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527293
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
לארגון גדול ומוביל במרכז דרוש/ה data Engineer

הזדמנות להצטרף לצוות BI מקצועי בארגון הנמצא בתנופת עשייה ובמעבר לטכנולוגיות מתקדמות וחדשניות

תחומי אחריות:

אפיון ומיפוי מידע

הגדרת ופיתוח תהליכי ETL

בניית מודל נתונים והבנת הקשרים בין טבלאות

ניתוח מערכות BI

פיתוח דשבורדים ודוחות בהתאם לדרישות העסקיות

מתן מענה שוטף לדרישות, תקלות וקידום פרויקטים
דרישות:
* לפחות 4 שנות ניסיון כ- data Engineer

* ניסיון חובה עם Databricks

ניסיון בהגדרת ופיתוח תהליכי ETL

ניסיון בניתוח מערכות BI

ניסיון בעבודה מול ממשקים עסקיים וטכנולוגיים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8577359
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
מיקום המשרה: רחובות
סוג משרה: משרה מלאה
תכנון, פיתוח ותחזוקה של תהליכי ETL /ELT בהיקפים גדולים עבור נתוני חיישנים, וידאו ותמונות
פיתוח ואופטימיזציה של תהליכי עיבוד נתונים עבור מידע מובנה ולא-מובנה
תחזוקה ושדרוג של מסדי נתונים, data Lakes ומערכות אחסון
הבטחת איכות, אמינות וביצועי הנתונים לאורך כלל צנרת הדאטה
עבודה צמודה עם צוותי אלגוריתמאים, בינה מלאכותית, תוכנה והנדסת מערכת
תמיכה בתהליכי דאטה סיינס ולמידת מכונה כולל הכנת דאטה וחילוץ פיצ'רים
הובלת הכנסת טכנולוגיות חדשות, כלי דאטה וסטנדרטים מתקדמים
איתור ופתרון תקלות בסביבות עיבוד ואחסון
לקיחת Ownership מלאה על מערכות הדאטה והובלת שיפורים
דרישות:
תואר ראשון/שני במדעי המחשב, הנדסת מערכות מידע, הנדסת חשמל או תחום רלוונטי
ניסיון של 3+ שנים כ data Engineer בסביבות עתירות דאטה
ניסיון משמעותי בפיתוח תהליכי ETL
שליטה ב Python
ניסיון מעשי ב Apache Airflow או כלי Orchestration מקבילים
ניסיון עם מסדי נתונים SQL ו NoSQL
היכרות עם מסגרות עיבוד דאטה ושיטות עבודה יעילות
ניסיון בעבודה בסביבות Linux ותחזוקת שרתים
ניסיון בתמיכה ב data Science / Machine Learning - יתרון
חשיבה מערכתית, יכולות פתרון בעיות ויכולת עבודה עצמאית בצוות רבתחומי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8483720
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: יקום
סוג משרה: משרה מלאה
אנחנו מחפשים מפתח/ת ETL מנוסה להצטרף לצוות האוטומציה והאינטגרציה שלנו, לתפקיד מאתגר ודינמי הכולל פיתוח ותחזוקה של תהליכי העברת נתונים מורכבים בין מערכות ובסיסי נתונים, כחלק ממערכת האוטומציה הארגונית של החברה, תוך שימוש בApache NiFi, Oracle וSQL מתקדם.
התפקיד משלב עבודה אינטנסיבית עם שאילתות SQL מורכבות, טרנספורמציות נתונים, גזירות לוגיות ומניפולציות על מידע, המועבר בין מערכות שונות כחלק מתהליכי אוטומציה ואינטגרציה ארגוניים.
דרישות:
לפחות שנה ניסיון בפיתוח ETL או תהליכי data Integration
ניסיון בפיתוח Apache NiFi ותהליכי data Flow
היכרות טובה עם Linux ועבודה בCLI
ניסיון חזק בSQL: Join-ים מורכבים, Subqueries, Aggregations וTransformations המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525495
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
ארגון רפואי באזור המרכז מגייס data Engineer / DataOps
התפקיד כולל: עבודה עם תשתיות Big Data ותהליכי עיבוד נתונים מורכבים, פיתוח ותחזוקה של תהליכי ETL ועיבוד נתונים בזמן אמת באמצעות Apache Spark ו-Apache NiFi, ניהול וטיוב נתונים ב-ElasticSearch, כתיבת שאילתות SQL מורכבות ואופטימיזציית ביצועים, פיתוח פתרונות data ב- Python, עבודה שוטפת מול צוותי data Science, BI ומערכות מידע ועוד.
דרישות:
- 5 שנות ניסיון כ- data Engineer עם עבודה ב-Apache Spark, Apache NiFi או Flink
- ניסיון בפיתוח ב- Python לעיבוד נתונים ובניית data Flows
- שליטה מלאה ב-SQL וכתיבת שאילתות מורכבות
- הבנה בארכיטקטורת Big Data ותשתיות data המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8565950
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים באסם
מיקום המשרה: שוהם
חטיבת ה IT של קבוצת אסם Nestl? מגייסת data Analyst טכני לצוות הדאטה.
בתפקיד זה תהיה לך הזדמנות להוביל את פיתוח מוצרי הדאטה של הארגון - החל מניתוח הצורך העסקי, דרך פיתוח תהליכי עיבוד דאטה בסביבת Databricks, ועד יצירת שכבות נתונים ופתרונות BI שמונגשים לביזנס.
תחומי אחריות
פיתוח מקצה לקצה של data Products ופתרונות דאטה עבור יחידות עסקיות שונות
הבנה ותרגום של צרכים עסקיים לתהליכי דאטה ישימים - כולל אפיון לוגיקות עסקיות, מודלים אנליטיים, תמיכה שוטפת ועובדה מול גורמים שונים בחברה
פיתוח תהליכי עיבוד נתונים ( ETL /ELT) בסביבת Databricks / PySpark על בסיס מקורות דאטה קיימים
יצירת שכבות נתונים אנליטיות ו semantic layers עבור BI ומערכות תפעוליות
עבודה צמודה עם data Engineering לשדרוג תהליכים קיימים והתאמתם לצרכים עסקיים
פיתוח דוחות ודשבורדים ב Power BI
אחריות על איכות, דיוק, זמינות ותיעוד תהליכי הדאטה והמוצרים
זיהוי הזדמנויות לייעול ואוטומציה של תהליכים עסקיים באמצעות דאטה
ה
דרישות:
דרישות תפקיד
2-4 שנות ניסיון בפיתוח פתרונות דאטה BI / data Product / data Analyst
ניסיון מעשי ב SQL ברמה גבוהה - חובה
ניסיון מעשי ב Python אוPySpark - חובה
הבנה טובה בפיתוח מודלים ו semantic layers ל Power BI - חובה
ניסיון בעבודה מול משתמשים עסקיים ואפיון צרכים - חובה
ניסיון מוכח ב Databricks - יתרון משמעותי
ניסיון בעבודה עם Microsoft Azure - - יתרון משמעותי
הבנה עסקית במוצרי צריכה FMCG - יתרון
אנגלית ברמה גבוהה - קריאה, כתיבה ודיבור
המשרה באור תעשיה חבל מודיעין, שוהם המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525307
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק גלובאלית המתמחה בעולמות ה-AdTech, דרוש/ה data Engineer team lead.
החברה פיתחה פלטפורמת פרסום בווידאו גדולה בזמן אמת המבוססת AI, Machine Learning.
ניהול צוות בעל השפעה גבוהה אשר עובד על מערכת הליבה של החברה, התעסקות עם כמויות אדירות של דאטה. הצוות מונה 9 מפתחים. כ-20% Hands On.
החברה יציבה ומבוססת נסחרת בנסדאק ובלונדון.
יושבים בת"א, מודל עבודה היברידי
דרישות:
4+ שנות ניסיון בניהול צוותי פיתוח
6+ שנות ניסיון כ- data engineer
4+ שנות ניסיון ב- JAVA
ניסיון בארכיטקטורה
pipelines/Vertica/Hadoop/Spark/Kafka - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530653
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
Location: Merkaz
Job Type: Full Time
abra professional services is seeking for an senior data engineer. We are seeking a Senior Data Engineer to lead the technical development of our Data Fabric within a military program. This role involves technical leadership in building contextual data pipelines, working with big data lakehouse architectures, and driving data pipeline automation.
Requirements:
MUST HAVE Requirements: 5+ years of hands-on experience as a Big Data Engineer
* Proven ability to design and deploy Big Data & AI solutions using frameworks and tools such as:
* Apache NiFi
* Kafka
* Spark
* Graph DB
* NoSQL databases Strong coding proficiency in Python and Bash
* Experience building large-scale data pipelines for data processing, transformation, and analytics
* Ability to define and manage metadata schemas
* Experience developing data workflows (e.g., metadata generation, auto-extraction, validation, format conversion)
* Experience developing tools for data observability and compliance analytics
* Ability to analyze and report on complex datasets and results
* Experience working with big data lakehouse architectures
* Ability to explore, enhance, and manage data fusion from multiple data sources
* Experience developing analytics tools, algorithms, and programs
* Technical leadership of data structure design for contextual pipelines
* Collaboration experience with Data Scientists and Architects
* Strong ability to work independently, learn new technologies, and apply innovative solutions
* Excellent interpersonal skills and ability to work as part of a team MSc in Computer Science or Data Science Advantages:
* Experience with managing metadata and taxonomy concepts alongside big data objects
* Experience working with public cloud Big Data & AI services
* Familiarity with machine learning concepts
* Strong technical skills
* Independent, hands-on developer
* Curious, open-minded, fast learner, and a strong team player
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8503268
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
Location: Merkaz
Job Type: Full Time
our company Professional Services is seeking for an experienced and strategic Head of data / data Manager to lead and build the companys end-to-end organizational data domain. This role includes establishing and developing a new AI-enabled data platform, full responsibility for advanced data & BI architecture, leading strategic projects, and working closely with senior management. This is a senior leadership position reporting directly to the VP of Technology. Key Responsibilities
* Lead the design, setup, and development of an enterprise data Warehouse and organizational data platform
* Own the full architecture, methodology, and implementation of Snowflake and Tableau environments
* Manage and professionally lead the data team, including mentoring and employee development
* Define and implement data methodologies, standards, and best practices
* Lead cross-organizational strategic data projects in collaboration with senior executives, IT, and business units
* Manage external vendors and consulting companies
* Lead the AI domain within data, including implementation of advanced AI-enabled data infrastructures
* Act as a strategic partner to senior management, providing data -driven insights and leadership
Requirements:
MUST HAVE Requirements
* Proven experience working with Snowflake and Tableau, including architecture-level knowledge and BI implementation
* Proven experience in building or upgrading data Warehouses and enterprise data platforms
* Managerial experience leading teams and providing professional mentorship
* Strong background in data Engineering, BI, and Analytics
* Experience or significant knowledge in AI infrastructures in data environments - strong advantage
* Experience working with senior management and executive-level stakeholders
* Strong leadership, influence, and cross-functional collaboration skills
* Strategic mindset combined with hands-on technical capabilities
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519046
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Petah Tikva
Job Type: Full Time
We are looking for a highly skilled Data Engineer . to build and maintain robust, scalable data pipelines and data marts acting as the connective tissue for intelligence insights generation that serves executive stakeholders , internal customers and 3rd party
The Fintech AI & Data group is looking for a staff Data Engineer to work closely with analysts, data scientists, and software developers and strengthen Fintech by building data capabilities and AI transformation.
Responsibilities:
Gather data needs from internal customers like product and analysts, and translate those requirements into a working database and analytic software.
Design, build, and maintain scalable, reliable batch and real time data pipelines, data marts and warehouse supporting executive dashboards, operational analytics, and internal customer use cases
Ensure high data quality, observability, reliability, and governance across all data assets
Optimize data models for performance, cost-efficiency, and scalability
Develop data-centric software using leading-edge big data technologies.
Build data capabilities that enable automated agentic insights and decision intelligence
Develop reusable data services and APIs that power AI-driven workflows
Evolve our data architecture into an AI-native data layer designed to power LLMs, AI agents, and intelligent applications
Collaborate with analytics, product, and AI teams to translate business needs into scalable data solutions
Influence the software architecture and working procedures for building data and analytics
Work bBe the go-to person for anything and everything regarding understanding the data - exploration, pipelines, analytics, etc. and work both independently and as part of a team
How youll succeed
Have an impact on satisfying customers and reducing financial fraud
Help build the team by hiring the best talent
Contribute toexperiments and research on how to enhance our capabilities
Learn new technologies and methodologies
Collaborate with other data engineers, analysts, data scientists and developers
Be proactive with a self-starter attitude
Be a good listener, while also having strong opinions on what is right
Be fun to be around :)
Requirements:
Bachelors degree in Information Systems, Computer Science or similar
Extensive experience dealing directly with internal customers regarding their data needs
Excellent knowledge of SQL in a large-scale data warehouse or data lakehouse environment such as Spark, Databricks, Presto/Athena/Trino
Experience in designing, building and maintaining highly scalable, robust & fault-tolerant complex data processing pipelines from the ground up (ETL, DB schemas)
Experience with stream processing or near real-time data ingestion
Experience working in cloud environment, preferably AWS (EC2, S3 EMR elastic map)
Excellent knowledge of database / dimensional modeling / data integration tools
Experience writing scripts with languages like Python, and shell scripts in a Linux environment
Can-do attitude, hands-on approach, passionate about data
Preferred :
Some knowledge of Data Science/Machine Learning
Knowledge/Experience with Scala, Java
Knowledge of data visualization tools like Tableau or Qlik Sense
Some knowledge of graph databases
Some experience in Fintech industry, Cyber Security
Working with AI tools and leveraging AI into product development.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8574787
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a talented Data Engineer to join our Data team and spread the power. The Data team develops and maintains the infrastructure for internal data and product analytics. We are looking for data enthusiasts, independent, logical thinkers with a can-do approach and a passion for problem-solving. We run a SaaS-based stack using BigQuery, Snowflake and dbt.
WHAT YOU'LL DO
Design, build, and maintain data pipelines, datasets and catalogs for fast-growing products and business groups.
Develop self-service data analytics solutions and infrastructure.
Support ad hoc needs and requests of internal stakeholders.
Collaborate with analysts, engineers, and internal customers from Product, Finance, Revenue, and Marketing.
Requirements:
Bachelors or Masters degree in a relevant technical field, or equivalent hands-on experience in software development or DevOps.
3+ years of experience working as a Data Engineer, including end-to-end designing, orchestrating, and building cloud-based data pipelines (e.g., Airflow, Prefect, Dagster).
3+ years of experience with dimensional data modeling and data warehouse implementation, specifically MPP databases like BigQuery, Snowflake, and Redshift.
Strong knowledge of Python and Python-based data analysis tools such as Jupyter Notebooks and pandas.
Strong SQL writing skills. Ability to write highly performant queries.
Strong track record of executing projects independently in dynamic environments.
Fast understanding of data and business needs and ability to translate them into data models.
Team player with excellent communication skills.
Containerization (Docker): Essential for reproducible environments.
Knowledge of software engineering best practices: CI/CD concepts, code reviews, and unit testing.
ADVANTAGE
Production-level experience with dbt, including project design, transformation, testing, and documentation.
Infrastructure-as-Code (Terraform): Managing cloud resources (S3 buckets, IAM roles) via code.
CI/CD pipelines (GitHub Actions/Jenkins): Automating the testing and deployment of data models.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8573992
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
מיקום המשרה: אילות
סוג משרה: משרה מלאה
מגייסים תותח/ית data Platform Operations!
מחפשים לקחת Ownership תפעולי מלא על מערכת דאטה מורכבת מבוססת Google Cloud? מקומכם איתנו!
התפקיד כולל אחריות מקצה לקצה על יציבות וזמינות המערכת ב-Production, ניטור data Pipelines, אינטגרציית data Sources חדשים וניהול הרשאות (IAM).
מיקום: חבל אילות (אופציה להיברידית).
דרישות:
מה חשוב שיהיה לכם?
3+ שנות ניסיון ב- data Platform Operations
היכרות מעשית וידיים על המקלדת ב-GCP
ניסיון פיתוח ב- Python
הבנה מעמיקה בתהליכי data Ingestion, ELT, data Quality
היכרות עם עקרונות Security, IAM ו- data Governance המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8573816
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking an outstanding and passionate Data Platform Engineer to join our growing R&D team.

You will work in an energetic startup environment following Agile concepts and methodologies. Joining the company at this unique and exciting stage in our growth journey creates an exceptional opportunity to take part in shaping Finaloop's data infrastructure at the forefront of Fintech and AI.

What you'll do:

Design, build, and maintain scalable data pipelines and ETL processes for our financial data platform.

Develop and optimize data infrastructure to support real-time analytics and reporting.

Implement data governance, security, and privacy controls to ensure data quality and compliance.

Create and maintain documentation for data platforms and processes.

Collaborate with data scientists and analysts to deliver actionable insights to our customers.

Troubleshoot and resolve data infrastructure issues efficiently.

Monitor system performance and implement optimizations.

Stay current with emerging technologies and implement innovative solutions.
Requirements:
What you'll bring:

3+ years experience in data engineering or platform engineering roles.

Strong programming skills in Python and SQL.

Experience with orchestration platforms like Airflow/Dagster/Temporal.

Experience with MPPs like Snowflake/Redshift/Databricks.

Hands-on experience with cloud platforms (AWS) and their data services.

Understanding of data modeling, data warehousing, and data lake concepts.

Ability to optimize data infrastructure for performance and reliability.

Experience working with containerization (Docker) in Kubernetes environments.

Familiarity with CI/CD concepts.

Fluent in English, both written and verbal.

And it would be great if you have (optional):

Experience with big data processing frameworks (Apache Spark, Hadoop).

Experience with stream processing technologies (Flink, Kafka, Kinesis).

Knowledge of infrastructure as code (Terraform).

Experience building analytics platforms.

Experience building clickstream pipelines.

Familiarity with machine learning workflows and MLOps.

Experience working in a startup environment or fintech industry.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8573265
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8572794
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
06/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Staff AI Engineer to join our growing AI and engineering group. This is a highly impactful role for someone who wants to shape how AI is embedded across products, platforms, and business operations-from early experimentation to production-scale systems.As a Staff AI Engineer, youll operate end-to-end: identifying opportunities, designing solutions, and delivering real business value using modern AI and LLM-based systems.

What you'll be doing
Design, build, and deploy AI-powered solutions across Supersonics products and internal platforms
Partner closely with product, data, engineering, and business stakeholders to identify and execute high-impact AI use cases
Architect and implement agentic workflows using frameworks such as LangChain, LangGraph, or equivalent
Integrate and operate LLMs via SDKs, including prompt design, structured outputs, tool/function calling, and guardrails
Lead technical decisions around AI evaluation, monitoring, observability, and quality measurement
Own AI initiatives from concept through production, including iteration, scaling, and long-term maintenance
Stay up to date with emerging AI technologies, models, and best practices, and help bring them into production thoughtfully
Requirements:
8+ years of software engineering experience, with at least 2+ years in AI/ML platforms or intelligent automation.
Strong background in distributed systems, APIs, microservices, container orchestration (ECS/EKS), and cloud platforms (AWS/GCP/Azure)
Proven experience building and deploying LLM-based applications using platforms such as OpenAI, Anthropic, AWS Bedrock, or similar
Solid understanding of RAG pipelines, vector databases, embeddings, and retrieval techniques (chunking, indexing, filtering, relevance tuning)
Ability to thrive in ambiguous problem spaces, take ownership, and move quickly in a startup-like environment
Strong problem-solving and analytical skills, with a product- and impact-driven mindset
Experience collaborating across teams and leading technical projects end-to-end
Bachelors degree in Computer Science, AI, or a related field (or equivalent practical experience)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569987
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
We're seeking talented data engineers to join our rapidly growing team, which includes senior software and data engineers. Together, we drive our data platform from acquisition and processing to enrichment, delivering valuable business insights. Join us in designing and maintaining robust data pipelines, making an impact in our collaborative and innovative workplace.

Responsibilities
Design, implement, and optimize scalable data pipelines for efficient processing and analysis.
Build and maintain robust data acquisition systems to collect, process, and store data from diverse sources.
Take part in developing agentic capabilities.
Mentor, support, and guide junior team members, sharing expertise and fostering their professional development.
Collaborate with DevOps, Data Science, and Product teams to understand needs and deliver tailored data solutions.
Monitor data pipelines and production environments proactively to detect and resolve issues promptly.
Apply and be responsible for best practices in data security, integrity, and performance across all systems.
Requirements:
6+ years of experience in data or backend engineering, with strong proficiency in Python for data tasks.
Proven track record in designing, developing, and deploying complex data applications.
Hands-on experience with orchestration and processing tools such as Apache Airflow and Apache Spark.
Deep experience with public cloud platforms, and expertise in cloud-based data storage and processing.
Experience working with Docker and Kubernetes.
Hands-on experience with CI tools such as GitHub Actions.
Bachelors degree in Computer Science, Information Technology, or a related field - or equivalent practical experience.
Ability to perform under pressure and make strategic prioritization decisions in fast-paced environments.
Excellent communication skills and a strong team player, capable of working cross-functionally.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569768
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
we are a data driven company, the data Engineering team is the bridge between raw data and impactful business insights. You will lead a team of talented engineers to architect, build, and maintain the data infrastructure of our company. Your mission is to ensure our data is reliable, secure, and ready for everything from standard BI reporting to cutting-edge Generative AI applications. Youll act as a key partner to our business teams, translating high-level needs into technical reality and driving a massive impact on our bottom line. In addition youll spend time mentoring your team as well as tackling high-level architecture decisions, pushing technical strategy and contributing to the codebase.
What am I going to do?:

* Lead a team that designs and scales Real-Time data pipelines processing millions of events hourly.
* Utilize cutting-edge technologies to build scalable and high performant data infrastructure.
* Influence and drive architecture and data strategy decisions.
* Work closely with other stakeholders such as data Developers, Analysts, data Science and R&D.
* Hands-on development of data infrastructure tools (~50% of the time).
* Lead and mentor the team talent.
* Finops and governance of data infrastructure domains.
Equal opportunities:
At our company, we prioritize diversity. We celebrate difference and embed it into every aspect of our workplace and product, as well as our community. we are proud and committed to providing equal opportunity employment to all individuals regardless of race, color, religion, sex, sexual orientation, citizenship, national origin, disability, Veteran status, or any other characteristic protected by law. In addition, we will provide accommodation to individuals with disabilities or a special need.
Requirements:
* 5+ years of hands-on experience in data engineering, with at least 2 years in a team leadership role.
* Strong programming skills in Python.
* Experience with relevant technologies such as BigQuery, Airflow/Prefect, DBT, Kafka, Athena, BI Tools.
* Proven track record of design and implementation of highly scalable distributed data pipelines.
* Deep understanding of data modeling, ETL and Real-Time analytics.
* Great 360 collaboration with excellent communication skills.
* MSc./BSc. in Computer Sciences from a top university. At our company, were not about checklists. If you dont meet 100% of the requirements for this role but still feel passionate about the position and think you have the right skills and qualifications to excel at it, we want to hear from you.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569534
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Join global data team building the infrastructure that powers analytics and AI-driven insights across the organization. As a Data Engineer, you'll design and maintain scalable data pipelines and systems that enable product analytics, business intelligence, and AI applications in our high-growth fintech environment.
What you'll do:
Design, build, and maintain robust batch and streaming pipelines and orchestration across our modern stack (AWS, DBT, Airbyte, Airflow, Snowflake) to support AI-driven data products.
Develop and optimize data models in Snowflake, ensuring data quality, consistency, and performance at scale.
Collaborate with Product Analysts and AI specialists to implement data solutions for customer segmentation, ranking systems, and predictive models.
Partner with cros-functional teams to translate technical requirements into scalable data architecture.
Implement end-to-end observability (data quality checks, monitoring, alerting) and cost/performance optimization in Snowflake and AWS.
Requirements:
6+ years of experience as a Data Engineer or similar role.
Expert proficiency in SQL and hands-on experience with modern data warehouse platforms (Snowflake - advantage).
Strong experience building ETL/ELT pipelines using tools like DBT, Airflow, or similar orchestration frameworks.
Proficiency in Python or another programming language for data processing.
Solid understanding of data modeling techniques (dimensional modeling, Data Vault, etc).
Experience with cloud platforms, preferably AWS.
Proven ability to design and maintain reliable, scalable data systems with a strong focus on data quality.
Strong communication skills and the ability to work effectively with both technical and business stakeholders.
Experience with fintech, financial services, or cryptocurrency/blockchain - advantage.
Familiarity with real-time data processing or streaming technologies - advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569095
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a highly enthusiastic Data Engineer to join our group on the journey of leveraging Big Data to revolutionize our offering, business operations and decision making across the companys ecosystem.


Job Responsibilities:

Design, build & deploy backend data solutions to prod, starting from research and design to development and testing.
Work closely with data engineers, product, architects and other R&D teams to deliver the best solutions to the business.
Monitor the solutions in production to make sure they are fully stable, scalable and performant at all times.
Work closely with data sciences experts
Requirements:
Profile and Experience:

At least 3 Years of proven hands on experience with big data solutions and frameworks in production (Spark, Flink) - mandatory
Proven ability of writing complex SQL queries - mandatory
Strong analytical and problem-solving skills with attention to details - mandatory
Production grade experience of writing spark applications using Scala or Java - mandatory
Experience with Apache Airflow and AWS tools (EMR, Glue, Athena) - a big advantage
Solid knowledge in Python and Linux operating systems - a big advantage
Experience with Clickhouse - a big advantage
Familiarity with the Ad Tech industry and RTB - an advantage
Extensive experience in Functional programming, Unit testing/TDD, continuous Deployment - an advantage
Familiarity with NodeJS - an advantage
Fluent verbal and written English skills required
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569028
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
מיקום המשרה: מרכז
סוג משרה: משרה מלאה
דרוש/ה Pre-Sale ברעננה להובלת תהליכי מכירה של פתרונות data בתחומי אינטגרציית נתונים, איכות נתונים, ממשל נתונים ואינטגרציית API.
לשיתוף פעולה עם מנהלי לקוחות וממשקים פנימיים, והובלת ההיבט הטכנולוגי בתהליך המכירה מול לקוחות קיימים ופוטנציאליים.
תחומי אחריות:
זיהוי צרכים עסקיים והתאמתם לפתרונות הדאטה והאנליטיקה של החברה (כגון Talend, Qlik Sense).
הצגת הערך המוסף והובלת תהליכי הוכחת יכולת (POC) ומעקב אחריהם.
ליווי תהליכי המכירה מההיבט הטכנולוגי לכל אורך הדרך, תוך שיתוף פעולה צמוד עם צוותי המכירה.
ביצוע הכשרות טכנולוגיות שוטפות לצוותי המכירות ולעובדים חדשים.
שמירה על עדכניות מקצועית והיכרות עם חידושי טכנולוגיה ומוצר.
ביצוע הדרכות וכשירויות לאנשי המכירות.
שכר 28-32 K
דרישות:
ניסיון 2+ שנים בתפקידי data Pre-Sale, או בתפקידי data Engineer המעוניינים בתפקיד Pre-Sale - חובה
תואר ראשון רלוונטי או הכשרה מקצועית רלוונטית - חובה.
הבנה חזקה של השוק העסקי הישראלי ויכולת חשיבה עסקית.
כושר ורבלי גבוה, יכולת שכנוע והצגת פתרונות טכנולוגיים מול לקוחות.
אנגלית ברמה גבוהה מאוד (קריאה וכתיבה).
יכולת הדרכה טובה.
יתרונות:
ניסיון בפיתוח תהליכי ETL ו- data Pipelines.
שליטה ב-SQL ובשפת תכנות אחת לפחות: Python / Scala / JAVA.
ניסיון בעבודה עם טכנולוגיות כגון: Spark, Kafka, Talend.
ניסיון עם פתרונות ענן (AWS, Azure, GCP).
ניסיון בתהליכי POC. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
8568741
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Engineer to join our growing team!
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
Our success has been built through intense innovation, a customer-first mentality and a team of fearless who leverage their skills & experiences to make real market impact. This is an opportunity to be a key contributor at a pivotal time in our companys growth and at a pivotal point in computing history.
In this role, you will be responsible for:
Designing, building, and maintaining scalable data pipeline architectures
Developing ETL processes to integrate data from multiple sources
Creating and optimizing data models for efficient storage and retrieval
Implementing data quality controls and monitoring systems
Collaborating with data scientists and analysts to deliver data solutions
Building and maintaining data warehouses and data lakes
Performing in-depth data analysis and providing insights to stakeholders
Taking full ownership of data quality, documentation, and governance processes
Building and maintaining comprehensive reports and dashboards
Ensuring data security and regulatory compliance
Requirements:
Bachelor's degree in Computer Science, Engineering, or related field
3+ years experience in data engineering
Strong proficiency in SQL and Python
Experience with ETL tools and data warehousing solutions
Knowledge of big data technologies (Hadoop, Spark, etc.)
Experience with cloud platforms (AWS, Azure, or GCP)
Understanding of data modeling and database design principles
Familiarity with data visualization tools - Tableau, Sisense
Strong problem-solving and analytical skills
Excellent communication and collaboration abilities
Experience with version control systems (Git).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8568224
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
02/03/2026
Location: Tel Aviv-Yafo and Ra'anana
Job Type: Full Time
Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566447
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו