רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
דרושים בNishapro
איסוף, ניתוח ועיבוד של נתונים פיננסיים והתנהגותיים לצורך הבנה, מדידה וניהול של האשראי.
פיתוח ויישום מודלים סטטיסטיים ואלגוריתמים מתקדמים לניבוי סיכון, דירוג אשראי, סיווג לקוחות וזיהוי מגמות חריגות.
ביצוע ניתוחים אנליטיים לצורך תמיכה בהחלטות עסקיות, רגולטוריות וניהול סיכונים.
עבודה עם מאגרי נתונים גדולים ( Big Data ), תוך שימוש בכלי BI, SQL ושפות תכנות רלוונטיות (כגון Python / R).
בדיקות תקופתיות לבחינת ביצועי המודלים (Model Monitoring Validation) ושיפורם בהתאם לצורך.
משרה היברידית- יום 1 מהבית
מיקום- לוד
דרישות:
תואר ראשון לפחות בסטטיסטיקה / מתמטיקה / כלכלה / מדעי המחשב / הנדסה תעשייה וניהול או תחום רלוונטי - חובה
ניסיון של שנתיים לפחות כאנליסט/ית נתונים או מפתח/ת מודלים חובה
עדיפות לניסיון בתחום הפיננסים/בנקאות.
שליטה גבוהה ב- SQL - חובה - שנתיים אחרונות לפחות
ניסיון בעבודה עם Python או SAS לצורך ניתוח סטטיסטי ופיתוח מודלים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8471406
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בקונסיסט מערכות בע"מ
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
ארגון ממשלתי מחפש מהנדס נתונים לירושלים!
תיאור התפקיד: 
יועץ דאטה מנוסה להשתלב בצוות התכנון וההקמה של תשתיות הדאטה הארגוניות החדשות. התפקיד כולל תכנון, הקמה, ותחזוקה של תהליכי ETL, תפעול שוטף של PipeLines קריטיים, והשתתפות בהנגשת מידע אמין ומדויק לצרכים אנליטיים מגוונים - הכול בסביבה רגישה, מורכבת ועם השפעה ישירה על השירות לציבור.
תחומי אחראיות עיקריים:
תכנון, הקמה, תחזוקה ואופטימיזציה של תהליכי ETL באמצעות Informatica.
בניית PipeLines יעילים להעברת, ניקוי ועיבוד נתונים בין מקורות שונים.
עבודה עם בסיסי נתונים אנליטיים שונים.
שיתוף פעולה עם צוותי אנליזה BI,ומוצר ליצירת שכבות מידע תומכות החלטה.
הובלת תהליך הקמת וחיבור מקורות הדאטה למערכות AI רלוונטיות.
תמיכה שוטפת בתשתיות מידע קיימות תוך השתתפות בהטמעת פתרונות חדשים.
הקפדה על סטנדרטים של איכות נתונים, אבטחת מידע ועמידה בדרישות רגולציה.
דרישות:
המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8497266
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באלעד מערכות
מיקום המשרה: חיפה
אלעד מערכות מגייסת  data Engineer לחברה ביטחונית מובילה בצפון לתפקיד החלפה לחל"ד!

 מה בתפקיד?
- פיתוח ותחזוקה של תהליכי ETL
-בניית מודלי נתונים לאנליטיקה ודוחות
-עבודה עם SQL וData Warehousing
-פיתוח פתרונות סקיילביליים בPython וPySpark
-עבודה צמודה עם צוותים חוציארגון ותרגום צרכים עסקיים לפתרונות טכנולוגיים
דרישות:
מה אנחנו מחפשים?
?? תואר רלוונטי (מדעי המחשב / מערכות מידע / הנדסת תוכנה )
?? ניסיון בSQL, data Modeling וETL
?? ניסיון בPython וPySpark
?? היכרות עם data Lake ופלטפורמות דאטה מודרניות (Microsoft Fabric - יתרון)
?? חשיבה אנליטית ויכולת עבודה בסביבה מהירה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8492823
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים ביערה פיינר-אבחון והשמה
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת אנרגיה יזמית ציבורית גלובלית דרוש/ה
מנהל /ת אגירת אנרגיה (Energy Storage Manager)

מטה החברה - מרכז הארץ

תפקיד מרכזי בפיתוח, ניתוח וניהול פרויקטי אגירת אנרגיה, החל משלב התכנון והאפיון ועד לתמיכה בקבלת החלטות השקעה והתקשרויות מסחריות.

תחומי אחריות עיקריים:
ניתוח תחזיות הכנסות לפרויקטי אגירת אנרגיה, כולל בניית מודלים כלכליים, ניתוח תרחישי שוק והשוואת תחזית מול ביצוע בפועל.
ליווי ומעקב שוטף אחר פרויקטי אגירה בשלבי הפיתוח, התכנון וההקמה.
עבודה שוטפת וממשקי עבודה הדוקים עם גורמים פנימיים: פיתוח עסקי, הנדסה, רגולציה, מימון ותפעול.
השתתפות פעילה בישיבות מומ מסחריות וטכניות מול ספקי סוללות, אינטגרטורים, יועצים ונותני שירותים נוספים.
בחינה וניתוח של הצעות מסחריות וטכניות, השוואת חלופות והצגת המלצות מקצועיות להנהלה.
מעקב שוטף אחר מגמות שוק, טכנולוגיות אגירה, מחירי סוללות ומודלים עסקיים רלוונטיים.
תמיכה והכנת חומרים לתהליכי קבלת החלטות השקעה, לרבות ועדות השקעה (Investment Committee).
דרישות:
תואר ראשון בהנדסה, כלכלה, מנהל עסקים או תחום רלוונטי.
ניסיון של 3 שנים לפחות בתחום האנרגיה, אגירה, תשתיות או מימון פרויקטים - יתרון לניסיון בשווקי אירופה.
הבנה כלכלית חזקה ויכולת עבודה עם מודלים פיננסיים ותחזיות הכנסות.
ניסיון בעבודה מול ספקים ובמו"מ מסחרי - יתרון משמעותי.
יכולת עבודה עצמאית, ניהול מספר משימות במקביל וראייה מערכתית.
אנגלית ברמה גבוהה (דיבור, קריאה וכתיבה). המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8492144
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
לחברת סקיוריטי בעולם הרכב דרוש/ה Senior data Engineer
תיאור המשרה:
תכנון, בנייה ותחזוקה של פייפלייני נתונים סקיילביליים לטעינה ועיבוד של דאטה בBatch בData Lake, כולל תמיכה באנליטיקה ו-ML, תוך שמירה על איכות נתונים, ממשל (governance), תצפיות (observability) וCI/CD.
בנייה והרחבה של תשתית הנתונים הבסיסית data Lake, מנוע אנליטיקה, ומערכי Batch Processing.
יצירת תשתיות חזקות שיאפשרו פייפליינים אוטומטיים לטעינה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלים וטכנולוגיות קוד פתוח, Cloud-agnostic.
פיתוח ותחזוקת ארכיטקטורות ופריסות הData Lake לגישה יעילה לנתונים ולניתוחים מתקדמים.
בניית פלטפורמת הML ואוטומציה של מחזור חיי הML.
הובלת פרויקטי ML חוצי-ארגון מהיבט הנדסי.
פיתוח וניהול כלי אקטרציה, כלים לממשל נתונים, כלים לגילוי נתונים ועוד.
עבודה בשיתוף פעולה עם אדריכלי נתונים, אנליסטים ומדעני נתונים, לצורך בניית פתרונות מבוססי Use Cases המגדירים זרימות נתונים טכניות.
דרישות:
תואר ראשון במדעי המחשב, הנדסה או תחום רלוונטי
לפחות 5 שנות ניסיון בתכנון ובנייה של פייפלייני נתונים, כלים אנליטיים וData Lakes
לפחות 7 שנות ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכו)
ניסיון בטכנולוגיות data Engineering: כלים לETL ואורקסטרציה (כמו Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כמו Spark, Kafka, Presto)
ניסיון בעבודה עם Python חובה
ניסיון בעבודה עם מוצרים מבוססי קוד פתוח יתרון גדול
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כמו Kubernetes) יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439164
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בקבוצת Aman
מיקום המשרה: רמת גן
פיתוח ותחזוקה של תהליכים בסביבת ענן (Azure) עם DataBricks ו- DataFactory לעיבוד נתונים בקנה מידה גדול, אופטימיזציה של ביצועים וניהול נתונים בקבצי Parquet בענן.
עצמאות ועבודה שוטפת מול משתמשים.
קבלת הדרישה מהמשתמשים, כתיבת אפיונים טכניים וליווי הפיתוח כולל בדיקות, עלייה לייצור והטמעה מול המשתמשים.
הגדרת ממשקים מול מערכות בארגון ומחוצה לו
דרישות:
ניסיון של 3 שנים לפחות ב Python - חובה
ניסיון בכתיבת שאילתות SQL ברמה מורכבת - חובה
ניסיון בSpark - חובה
ניסיון בעבודה עם בסיסי נתונים גדולים, כולל אופטימיזציה של שאילתות - יתרון
ניסיון פיתוח בReact - יתרון
תואר ראשון במדעי המחשב - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8376478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל במרכז דרוש/ה data ENGINEER
התפקיד כולל ניהול תהליכי הסבת נתונים ממערכות המקור לבסיסי נתונים ו/או מאגרי אחסון בסביבת הענן.
הובלת תהליכי פיתוח, ניטור ובקרה על תהליכי עיבוד נתונים וניהול ממשקי עבודה מול הגורם העסקי
דרישות:
תואר ראשון במדעי המחשב / הנדסת תוכנה / תחום רלוונטי
מינימום 3 שנות ניסיון מוכח כ- data Engineer
היכרות עם כלי AWS: Glue, Lambda, EMR/Spark
היכרות עם כלי CI/CD: Jenkins / GitLab CI / GitHub Actions, Harness
אורקסטרציה: Apache Airflow (DAG design, XCom, pools)
שפות תכנות: JAVA / Python
יתרונות:
היכרות עם DB מבוססי ענן (PostgreSQL, DocumentDB, OpenSearch)
היכרות עם Apache Kafka
ניסיון בKubernetes / EKS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355779
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.

תחומי אחריות:

פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL) חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים

מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות
גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355699
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בNishapro
סוג משרה: משרה מלאה
דרוש/ה טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -

בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה - חובה.

שליטה ב- Python - חובה.

ניסיון בעבודה עם בסיסי נתונים (SQL) - חובה.

הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים


מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית

יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות

גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519703
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time and Hybrid work
We're hiring a data Engineer
Were looking for a data Engineer with solid experience building and maintaining large-scale data pipelines in the cloud.
Youll be joining a collaborative R D team working on cutting-edge SaaS products, with full ownership over data workflows, architecture and performance.
Requirements:
What were looking for:
2-3 years of experience in data engineering roles
Hands-on experience with Azure cloud services, especially data Factory, data Lake, and Databricks
Solid knowledge of Databricks, including Spark-based processing, notebook orchestration, and ML pipeline integration
Proficient in Python and SQL for data manipulation and automation
Experience with orchestration tools like Airflow
Familiarity with Docker, CI/CD, and working in cross-functional development teams
Youll work closely with data scientists, engineers and product teams to build data -driven features
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8302213
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בG-NESS
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
אנחנו, חברה פיננסית מובילה, מחפשים data Engineer סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעולם העסקי, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
תחומי אחריות-
פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
הכרות עם DBT ותהליכי פיתוח מודרניים (CICD וכו)
דרישות:
5 שנות ניסיון שנים בפיתוח פתרונות דאטה - חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL)- חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים
אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות וגמישות מחשבתית, ראש גדול ויכולת פתרון בעיות מורכבות
ניסיון מחברת ביטוח או פיננסים- יתרון
שליטה ב Informatica- יתרון.
ניסיון עם ענן AWS / MICROSOFT- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519056
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה עוסקת בפיתוח פתרונות data ו-Analytics בקנה מידה עצום, ומפעילה מערכות זמן-אמת שמבצעות עיבוד נתונים בהיקפים גבוהים במיוחד.

החברה ממוקמת באזור השרון, משלבת מודל עבודה הירידי ומונה מעל 1000 עובדים.

מהות התפקיד: חלק מצוות שאחראי על פתרון הסגמנטציה המתקדם בתעשייה. מטפלים ב-Pipelines מורכבים, עדכוני קהלים בזמן אמת, אינטגרציות עמוקות עם שותפי מדיה מובילים ובונים יכולות Predictive Audiences מבוססות AI. סטאק טכנולוגי: Scala, Spark, AWS, Microservices, Airflow.
דרישות:
- 6 שנות ניסיון בפיתוח backend
- 3 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח ב-Spark המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8513214
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
סוג משרה: משרה מלאה
יישום והטמעה של פתרונות BI אנליטיים אצל לקוחות

ניתוח תהליכים עסקיים ופיננסיים ואופטימיזציה של תהליכי אנליזה קיימים

אפיון דרישות עסקיות ותרגומן לתוצרים אנליטיים

עבודה שוטפת מול גורמים עסקיים, כספים וטכנולוגיה

עבודה בסביבת Agile ובממשקים מרובים
דרישות:
ניסיון של לפחות שנתיים כאנליסט/ית פיננסי, BI / כלכלן/ית / מפתח/ת BI

ניסיון בעבודה מול לקוחות ובחברות גדולות

חשיבה אנליטית גבוהה וראייה תהליכית

יכולת אפיון והמרת דרישות עסקיות לתוצרים אנליטיים

ניסיון בסיסי בעבודה עם SQL

שליטה מעולה ב-Excel

אנגלית ברמה גבוהה מאוד

היכרות מעמיקה עם תהליכים פיננסיים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8449315
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים ביערה פיינר-אבחון והשמה
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה יזמית יזמית ציבורית גלובלית דרוש/ה
אנליסט/ית דאטה לצוות האנליטיקה ומערכת ניהול האנרגיה (EMS).

מיקום: מרכז הארץ

ה-EMS מהווה את המוח התפעולי של אתרי החברה אחראי על אופן ייצור האנרגיה, אגירתה, מסחר והזרמה לרשת. התפקיד כולל עבודה אנליטית שמשפיעה באופן ישיר על ביצועים, יציבות והכנסות הפרויקטים.

תחומי אחריות:
ניתוח נתונים תפעוליים ונתוני שוק לזיהוי פערי ביצועים, חוסר יעילות והזדמנויות לאופטימיזציה.
חקירת שורש חריגות בייצור, זמינות והכנסות, והפקת תובנות והמלצות אופרטיביות.
אחריות מקצה לקצה על דוחות, דשבורדים ותהליכי אוטומציה של נתונים ממערכות EMS, SCADA ומקורות חיצוניים.
תמיכה ושיפור תהליכי קבלת החלטות במערכת EMS להגדלת יעילות, יציבות ותפוקת אנרגיה.
יישום, מעקב וניטור אופטימיזציה תוךיומית (Intraday) לצורך מקסום הכנסות.
עבודה שוטפת מול צוותי הנדסה, תפעול ומסחר להטמעת תובנות אנלטיות בשטח
דרישות:
תואר ראשון בהנדסה / מדעי הנתונים / תחום כמותי רלוונטי בוגרי טכניון/ת"א עם התמחות במערכות מידע
ניסיון של 2-3 שנים כ- data Analyst / BI Analyst.
שליטה גבוהה בפיתוח- Python ו-SQL (יתרון ל- SQL server ).
ניסיון בעבודה עם כלי BI כגון Power BI או Tableau.
היכרות עם APIs, אוטומציות וData Pipelines.
חשיבה אנליטית חזקה, ירידה לפרטים ותחושת בעלות.
יכולת עבודה עצמאית ובממשקים מרובים, כישורי תקשורת מצוינים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8459515
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ramat Gan
Job Type: Full Time
Were looking for a Senior Data Engineer to lead the architecture and development of large-scale, production-grade data pipelines supporting ML inference systems.
What will your job look like:
Architect and own end-to-end data pipelines for large-scale model inference
Design high-throughput, scalable data streaming to the cloud
Integrate data conversion into data collection and inference pipelines
Drive performance, scalability, and reliability across distributed systems
Partner with ML, platform, and infrastructure teams
Requirements:
5+ years of experience as a Data Engineer in production environments
Strong Python expertise
Hands-on experience with Spark, Polars, Pandas, DuckDB, AWS
Proven experience designing distributed data architectures
Strong understanding of data performance, I/O, and scalability
Experience working with ML or inference pipelines
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8515746
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a Principal Data Engineer to join our Engineering team. This is a hybrid role based in Israel, reporting to the Senior Manager, Software Development Engineering. You will play a key role in designing, building, and maintaining the data pipelines that fuel business insights for the worlds largest cloud security platform. You will bring vision and passion to a team of experts enabling organizations worldwide to harness speed and agility through a cloud-first strategy.
What youll do (Role Expectations):
Design, develop, and implement scalable resilient data pipelines using Apache Spark, Databricks, and Delta Lake
Lead projects end-to-end through implementation, testing, deployment, and monitoring while collaborating with engineering teams across the organization
Research and investigate new SaaS platforms and APIs to uncover opportunities for new security detections
Optimize data infrastructure to ensure smooth operation, performance efficiency, and data integrity throughout the data lifecycle
Act as a force multiplier by mentoring senior engineers and setting high technical standards across the team.
Requirements:
Who You Are (Success Profile):
You thrive in ambiguity. You're comfortable building the path as you walk it. You thrive in a dynamic environment, seeing ambiguity not as a hindrance, but as the raw material to build something meaningful.
You act like an owner. Your passion for the mission fuels your bias for action. You operate with integrity because you genuinely care about the outcome. True ownership involves leveraging dynamic range: the ability to navigate seamlessly between high-level strategy and hands-on execution.
You are a problem-solver. You love running towards the challenges because you are laser-focused on finding the solution, knowing that solving the hard problems delivers the biggest impact.
You are a high-trust collaborator. You are ambitious for the team, not just yourself. You embrace our challenge culture by giving and receiving ongoing feedback-knowing that candor delivered with clarity and respect is the truest form of teamwork and the fastest way to earn trust.
You are a learner. You have a true growth mindset and are obsessed with your own development, actively seeking feedback to become a better partner and a stronger teammate. You love what you do and you do it with purpose.
What Were Looking for (Minimum Qualifications):
7+ years of experience in data engineering with a proven track record of designing and building large-scale data systems
Demonstrated mastery of Apache Spark (PySpark preferred) and a deep architectural understanding of distributed data processing frameworks
Expert-level proficiency in SQL, data modeling, and the principles of modern data warehousing and data lake architecture
What Will Make You Stand Out (Preferred Qualifications):
Direct experience working in cybersecurity, threat intelligence, or a related security-focused domain
Proven experience building production-grade data solutions specifically using Databricks
A security-first mindset and a strong curiosity for understanding how systems can be monitored and secured.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8515641
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Herzliya
Job Type: Full Time
were looking for skilled professionals to help shape our data platform and drive the next generation of trading technology.

In this role you will:
Design, implement, and maintain scalable data pipelines using Python and orchestration tools like Apache Airflow.

Take a leading role in evaluating and selecting foundational components of our data stack (e.g., Databricks vs. Snowflake).

Architect and optimize data workflows across AWS and on-premise environments.

Work with modern file formats (Iceberg, Parquet, ORC) and understand their trade-offs for performance, cost, and scalability.

Collaborate with analysts, engineers, and stakeholders to provide accessible and reliable datasets.

Help assess and implement frameworks such as DBT for data transformation and modeling.

Develop best practices and internal standards for data engineering, monitoring, and testing.

Contribute to the long-term vision and roadmap of Fin-on-exs data infrastructure.
Requirements:
5+ years of hands-on experience as a Data Engineer or similar role.

Strong proficiency in Python for data processing and workflow automation.

Experience with Apache Airflow (managed or self-hosted).

Experience with Data Platform (e.g. snowflake, databricks).

Solid understanding of data lake and table formats like Iceberg, Parquet, Delta Lake, and their use cases.

Familiarity with big data processing (e.g., Apache Spark) and query engines (e.g., Trino).

Experience working in AWS environments, and comfort with hybrid cloud/on-premise infrastructure.

Proven ability to work independently, drive decisions, and evaluate technologies with minimal oversight.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8514476
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are Crafting Tomorrow's Retail Experience
We started with a simple question: How can vision AI make shopping better for everyone? Today, our team of passionate experts is transforming how people shop and how retailers operate, one store at a time.
Our goal is to solve real retail challenges by developing advanced computer vision AI that prevents loss, enables grab-and-go shopping, and turns store data into valuable insights, all while delivering clear value from day one.
With multiple global deployments, deep partnerships with leading retailers, and a product suite thats proving its impact every day, our company isnt just imagining the future of retail, were building it.
We are looking for a Data Engineer to join our Customer Performance team and help shape the foundation of our companys data platform.
You will own the data layer, evolve our BI semantic layer on a modern BI platform, and enable teams across the company to access and trust their data. Working closely with analysts and stakeholders in Operations, Product, R&D, and Customer Success, youll turn complex data into insights that drive performance and customer value.
A day in the life
Build and expand our companys analytics data stack
Design and maintain curated data models that power self-service analytics and dashboards
Develop and own the BI semantic layer on a modern BI platform
Collaborate with analysts to define core metrics, KPIs, and shared business logic
Partner with Operations, R&D, Product, and Customer Success teams to translate business questions into scalable data solutions
Ensure data quality, observability, and documentation across datasets and pipelines
Support complex investigations and ad-hoc analyses that drive customer and operational excellence.
Requirements:
6+ years of experience as a Data Engineer, Analytics Engineer, or similar hands-on data role
Strong command of SQL and proficiency in Python for data modeling and transformation
Experience with modern data tools such as dbt, BigQuery, and Airflow (or similar)
Proven ability to design clean, scalable, and analytics-ready data models
Familiarity with BI modeling and metric standardization concepts
Experience partnering with analysts and stakeholders to deliver practical data solutions
A pragmatic, problem-solving mindset and ownership of data quality and reliability
Excellent communication skills and ability to connect technical work with business impact
Nice to have
Experience implementing or managing BI tools such as Tableau, Looker, or Hex
Understanding of retail, computer vision, or hardware data environments
Exposure to time-series data, anomaly detection, or performance monitoring
Interest in shaping a growing data organization and influencing its direction.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8514427
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Petah Tikva
Job Type: Full Time
Our team is responsible for the data and data infrastructure that processes billions of records daily, driving critical business insights for both internal and external customers across the organization.
Our Data team consists of highly skilled senior software and data professionals who collaborate to solve complex data challenges. We process billions of records daily from multiple sources using diverse infra and multi-stage pipelines with intricate data structures and advanced queries, and complex BI.
A bit about our infrastructure. Our main databases are Snowflake, Iceberg on AWS, and Trino. Spark on EMR processes the huge influx of data. Airflow does most of the ETL.
The data we deliver drives insights both for internal and external customers. Our internal customers use it routinely for decision-making across the organization, such enhancing our product offerings.
What Youll Do
Build, maintain, and optimize data infrastructure.
Contribute to the evolution of our AWS-based infrastructure.
Work with database technologies - Snowflake, Iceberg, Trino, Athena, and Glue.
Utilize Airflow, Spark, Kubernetes, ArgoCD and AWS.
Provide AI tools to ease data access for our customers.
Integrate external tools such as for anomaly detection or data sources ingestion.
Use AI to accelerate your development.
Assures the quality of the infra by employed QA automation methods.
Requirements:
5+ years of experience as a Data Engineer, or Backend Developer.
Experience with Big Data and cloud-based environments, preferably AWS.
Experience with Spark and Airflow.
Experience with Snowflake, Databrick, BigQuery or Iceberg.
Strong development experience in Python.
Knowledge of Scala for Spark is a plus.
A team player that care about the team, the service, and his customers
Strong analytical skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8514322
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
מפתח/ת אינטגרציה Hands-On לצוות טכנולוגיות ודיגיטל, לפיתוח ותחזוקת ממשקי API (REST/SOAP) ותהליכי data בין מערכות ליבה, מערכות חיצוניות ו- BI, כולל עבודה עם SQL, CI/CD וסטנדרטים מעולם הבריאות.
תל אביב.
קו"ח למייל. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8513265
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Operate and debug object store-backed data lake infrastructure, enabling schema-on-read access, high-throughput ingestion, advanced searching strategies, and performance tuning for large-scale workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8512434
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Your Mission As a Senior Data Engineer, your mission is to build the scalable, reliable data foundation that empowers us to make data-driven decisions. You will serve as a bridge between complex business needs and technical implementation, translating raw data into high-value assets. You will own the entire data lifecycle-from ingestion to insight-ensuring that our analytics infrastructure scales as fast as our business.

Key Responsibilities:
Strategic Data Modeling: Translate complex business requirements into efficient, scalable data models and schemas. You will design the logic that turns raw events into actionable business intelligence.
Pipeline Architecture: Design, implement, and maintain resilient data pipelines that serve multiple business domains. You will ensure data flows reliably, securely, and with low latency across our ecosystem.
End-to-End Ownership: Own the data development lifecycle completely-from architectural design and testing to deployment, maintenance, and observability.
Cross-Functional Partnership: Partner closely with Data Analysts, Data Scientists, and Software Engineers to deliver end-to-end data solutions.
Requirements:
What You Bring:
Your Mindset:
Data as a Product: You treat data pipelines and tables with the same rigor as production APIs-reliability, versioning, and uptime matter to you.
Business Acumen: You dont just move data; you understand the business questions behind the query and design solutions that provide answers.
Builders Spirit: You work independently to balance functional needs with non-functional requirements (scale, cost, performance).
Your Experience & Qualifications:
Must Haves:
6+ years of experience as a Data Engineer, BI Developer, or similar role.
Modern Data Stack: Strong hands-on experience with DBT, Snowflake, Databricks, and orchestration tools like Airflow.
SQL & Modeling: Strong proficiency in SQL and deep understanding of data warehousing concepts (Star schema, Snowflake schema).
Data Modeling: Proven experience in data modeling and business logic design for complex domains-building models that are efficient and maintainable.
Modern Workflow: Proven experience leveraging AI assistants to accelerate data engineering tasks.
Bachelors degree in Computer Science, Industrial Engineering, Mathematics, or an equivalent analytical discipline.
Preferred / Bonus:
Cloud Data Warehouses: Experience with BigQuery or Redshift.
Coding Skills: Proficiency in Python for data processing and automation.
Big Data Tech: Familiarity with Spark, Kubernetes, Docker.
BI Integration: Experience serving data to BI tools such as Looker, Tableau, or Superset.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8511741
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Are you a talented and experienced Data Engineer? If so, we want you to be part of our dynamic Data Engineering Team, a part of the R&D, contributing to our vision and making a difference in the eCommerce landscape. Join us on this journey as we seek the best and brightest minds to drive our mission forward.

Responsibilities:
Developing, implementing and supporting robust, scalable solutions to improve business analysis capabilities.
Managing data pipelines from multiple sources, including designing, implementing, and maintaining.
Translating business priorities into data models by working with business analysts and product analysts.
Collaborate across the business with various stakeholders, such as data developers, systems analysts, data scientists and software engineers.
Owning the entire data development process, including business knowledge, methodology, quality assurance, and maintenance.
Work independently while considering all functional and non-functional aspects and provide high quality and robust infrastructures to the organization.
Requirements:
What you need:
Bachelors degree in Computer Science, Industrial engineering, Maths, or other numerate/analytical degree equivalent.
4 years of experience working as a BI Developer / Data Engineer or a similar role.
Advanced proficiency and deep understanding of SQL.
Skills in data modeling, business logic processes, as well as experience with DWH design.
An enthusiastic, fast-learning, team-player, motivated individual who loves data.

Advantage:
Experience working with DBT (big advantage).
Knowledge in BI tools such as Looker, Tableau or Superset.
Experience with Python.
Experience working with DWH, such as BigQuery/Snowflake/Redshift.
Experience working with Spark, Kubernetes, Docker.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8511686
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Jerusalem
Job Type: Full Time
we are seeking a BI Director to lead and expand our Business Intelligence capabilities within the Information Systems department.
This leadership role combines strategic vision with technical expertise, overseeing BI strategy, architecture, and execution while managing teams and working closely with business leaders. The ideal candidate will be both a strong leader and a hands-on expert, capable of driving data ecosystem to the next level.
What will your job look like:
Define and own the company-wide BI strategy, roadmap, and vision, aligning with growth.
Lead, mentor, and grow global BI teams, including data engineers, BI developers, and analysts.
Present actionable insights and recommendations to stakeholders and executives to translate business needs into scalable BI and analytics solutions.
Oversee the architecture, design, and implementation of BI and data platforms (Data Warehouse, ETL/ELT processes).Stay hands-on with BI tools and technologies, setting technical standards and ensuring best practices in data modeling, reporting, and system performance.
Establish and enforce data governance, security, and quality frameworks across the organization.
Promote adoption of self-service BI, advanced analytics, and data-driven culture across departments.Evaluate, integrate, and optimize new BI and data technologies to ensure scalability and innovation.
Requirements:
Bachelor's degree in computer science, Information Systems, Business, or related field; advanced degree (MBA/technical) - an advantage.
10+ years of experience in BI, Analytics, or Data Engineering, with at least 6 years in leadership roles.
Proven track record in leading enterprise-scale BI platforms, data warehouses, and reporting systems.Strong hands-on expertise with BI and data technologies (e.g., Power BI, Tableau, Qlik, Snowflake, SQL, Big Data platforms).
Experience in data governance, data architecture, and end-to-end BI solution delivery.
Proven business knowledge and ability to partner effectively with executives and cross-functional teams.
Great leadership, communication, and team management skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8511653
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Engineer to join our growing team!
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
In this role, you will be responsible for:
Designing, building, and maintaining scalable data pipeline architectures
Developing ETL processes to integrate data from multiple sources
Creating and optimizing data models for efficient storage and retrieval
Implementing data quality controls and monitoring systems
Collaborating with data scientists and analysts to deliver data solutions
Building and maintaining data warehouses and data lakes
Performing in-depth data analysis and providing insights to stakeholders
Taking full ownership of data quality, documentation, and governance processes
Building and maintaining comprehensive reports and dashboards
Ensuring data security and regulatory compliance.
Requirements:
Bachelor's degree in Computer Science, Engineering, or related field
3+ years experience in data engineering
Strong proficiency in SQL and Python
Experience with ETL tools and data warehousing solutions
Knowledge of big data technologies (Hadoop, Spark, etc.)
Experience with cloud platforms (AWS, Azure, or GCP)
Understanding of data modeling and database design principles
Familiarity with data visualization tools - Tableau, Sisense
Strong problem-solving and analytical skills
Excellent communication and collaboration abilities
Experience with version control systems (Git).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8511545
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/01/2026
Location: Ra'anana
Job Type: Full Time and Hybrid work
Required Senior Data Engineer
Full-time
Company Description
A dynamic technology firm dedicated to building exceptional products using modern technologies for the world's most admired companies. We pride ourselves on innovation, collaboration, and delivering excellence in every project.
Job Description
Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.
Additional Information
Location: Ra'anana
Start Date: Immediate.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8510219
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Senior Data Engineer
About us:
A pioneering health-tech startup on a mission to revolutionize weight loss and well-being. Our innovative metabolic measurement device provides users with a comprehensive understanding of their metabolism, empowering them with personalized, data-driven insights to make informed lifestyle choices.
Data is at the core of everything we do. We collect and analyze vast amounts of user data from our device and app to provide personalized recommendations, enhance our product, and drive advancements in metabolic health research. As we continue to scale, our data infrastructure is crucial to our success and our ability to empower our users.
About the Role:
As a Senior Data Engineer, youll be more than just a coder - youll be the architect of our data ecosystem. Were looking for someone who can design scalable, future-proof data pipelines and connect the dots between DevOps, backend engineers, data scientists, and analysts.
Youll lead the design, build, and optimization of our data infrastructure, from real-time ingestion to supporting machine learning operations. Every choice you make will be data-driven and cost-conscious, ensuring efficiency and impact across the company.
Beyond engineering, youll be a strategic partner and problem-solver, sometimes diving into advanced analysis or data science tasks. Your work will directly shape how we deliver innovative solutions and support our growth at scale.
Responsibilities:
Design and Build Data Pipelines: Architect, build, and maintain our end-to-end data pipeline infrastructure to ensure it is scalable, reliable, and efficient.
Optimize Data Infrastructure: Manage and improve the performance and cost-effectiveness of our data systems, with a specific focus on optimizing pipelines and usage within our Snowflake data warehouse. This includes implementing FinOps best practices to monitor, analyze, and control our data-related cloud costs.
Enable Machine Learning Operations (MLOps): Develop the foundational infrastructure to streamline the deployment, management, and monitoring of our machine learning models.
Support Data Quality: Optimize ETL processes to handle large volumes of data while ensuring data quality and integrity across all our data sources.
Collaborate and Support: Work closely with data analysts and data scientists to support complex analysis, build robust data models, and contribute to the development of data governance policies.
Requirements:
Bachelor's degree in Computer Science, Engineering, or a related field.
Experience: 5+ years of hands-on experience as a Data Engineer or in a similar role.
Data Expertise: Strong understanding of data warehousing concepts, including a deep familiarity with Snowflake.
Technical Skills:
Proficiency in Python and SQL.
Hands-on experience with workflow orchestration tools like Airflow.
Experience with real-time data streaming technologies like Kafka.
Familiarity with container orchestration using Kubernetes (K8s) and dependency management with Poetry.
Cloud Infrastructure: Proven experience with AWS cloud services (e.g., EC2, S3, RDS).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8510072
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/01/2026
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time
our company Security is one of the main pillars of our company's long-term strategy. We are pushing the boundaries of security analysis for both binaries and code, shifting left and delivering powerful capabilities to developers and DevOps teams. We are looking for an experienced Senior Database Engineer with deep PostgreSQL expertise and strong application-side awareness to join our DevOps organization and support multiple R&D teams at scale.
As a Senior Database Engineer at our company Security you will
Own PostgreSQL performance, scalability, and reliability across large-scale security and scanning workloads
Deep dive into database performance issues, including query optimization, execution plans, indexing strategies, locking, bloat, vacuuming, and connection management
Work closely with application teams to optimize database access patterns from services and APIs
Review application code and SQL usage with a focus on correctness, performance, and scalability
Design, evolve, and optimize schemas and migrations for long-lived, high-volume datasets
Support and fine-tune PostgreSQL in both cloud-managed environments, such as RDS and self-managed deployments
Establish best practices, standards, and guidelines for PostgreSQL usage across teams
Mentor engineers and raise the overall database maturity of the organization
Act as a trusted expert for troubleshooting complex production database incidents.
Requirements:
5+ years of hands-on experience working with PostgreSQL in production high-scale environments
Proven expertise in PostgreSQL performance tuning, optimization, and internals
Excellent SQL skills, including complex and performance-critical queries
Strong understanding of how applications interact with databases, including connection pools, ORMs, transaction patterns, and failure modes
Experience working with large datasets up to a few TBs in volume and high concurrency with 5000+ connections
Familiarity with Go and/or Python at a level sufficient for code review and performance analysis - an advantage
Experience with both cloud-managed PostgreSQL and self-managed deployments
Solid understanding of schema design, migrations, and backward-compatible data evolution
Ability to work cross-team as part of a DevOps organization providing shared infrastructure and expertise
Strong communication skills with the ability to mentor, influence standards, and guide teams under pressure.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509945
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a DevOps Engineer (Data Platform Group).
Main responsibilities:
Data Architecture Direction: Provide strategic direction for our data architecture, selecting the appropriate componments for various tasks. Collaborate on requirements and make final decisions on system design and implementation.
Project Management: Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Cost Optimization: Monitor and optimize cloud costs associated with data infrastructure and processes.
Efficiency and Reliability: Design and build monitoring tools to ensure the efficiency, reliability, and performance of data processes and systems.
DevOps Integration: Implement and manage DevOps practices to streamline development and operations, focusing on infrastructure automation, continuous integration/continuous deployment (CI/CD) pipelines, containerization, orchestration, and infrastructure as code. Ensure scalable, reliable, and efficient deployment processes.
Our stack: Azure, GCP, Kubernetes, ArgoCD, Jenkins, Databricks, Snowflake, Airflow, RDBMS, Spark, Kafka, Micro-Services, bash, Python, SQL.
Requirements:
5+ Years of Experience: Demonstrated experience as a DevOps professional, with a strong focus on big data environments, or Data Engineer with strong DevOps skills.
Data Components Management: Experiences managing and designing data infrastructure, such as Snowflake, PostgreSQL, Kafka, Aerospike, and Object Store.
DevOps Expertise: Proven experience creating, establishing, and managing big data tools, including automation tasks. Extensive knowledge of DevOps concepts and tools, including Docker, Kubernetes, Terraform, ArgoCD, Linux OS, Networking, Load Balancing, Nginx, etc.
Programming Skills: Proficiency in programming languages such as Python and Object-Oriented Programming (OOP), emphasizing big data processing (like PySpark). Experience with scripting languages like Bash and Shell for automation tasks.
Cloud Platforms: Hands-on experience with major cloud providers such as Azure, Google Cloud, or AWS.
Preferred Qualifications:
Performance Optimization: Experience in optimizing performance for big data tools and pipelines - Big Advantage.
Security Expertise: Experience in identifying and addressing security vulnerabilities within the data platform - Big Advantage.
CI/CD Pipelines: Experience designing, implementing, and maintaining Continuous Integration/Continuous Deployment (CI/CD) pipelines - Advantage.
Data Pipelines: Experience in building big data pipelines - Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509784
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו