רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 9 שעות
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברת הייטק בתחום המדיקל בחיפה מגייסת data Engineer
להצטרף לצוות Point of Care ו-Handheld Ultrasound Algorithm באתר החברה בחיפה.
התפקיד כולל פיתוח, עיצוב ותחזוקה של פתרונות ניהול נתונים חדשניים, המותאמים לעולמות ה-AI המתפתחים בתחום האולטרסאונד הרפואי.

תחומי אחריות:
תמיכה ואופטימיזציה של תהליכי דאטה ואוטומציה
הובלת יוזמות דאטה חוצות ארגון, בשיתוף פעולה עם צוותי אלגוריתמים, קליניקה, ולידציה ומוצר
תרגום צרכים קליניים ומוצרים לארכיטקטורת דאטה
הכנת וניתוח נתונים לפיתוח AI ולהגשות רגולטוריות
הגדרה, פיתוח ותחזוקה של פתרונות מסדי נתונים
דרישות:
דרישות:
ניסיון בתחום של 1-2 שנים לפחות - חובה
תואר ראשון בהנדסה ביו-רפואית / מדעי המחשב / הנדסת חשמל / data Science או תחום דומה - חובה
ניסיון מעשי בפיתוח דאטה בשפת Python וניהול ועיבוד נתונים - חובה
ניסיון עם פורמטים כמו JSON, CSV, Parquet, DICOM - חובה

יתרון:
ניסיון בכתיבת בדיקות unit, component, integration ו-end-to-end
היכרות עם SQL, MongoDB ואופטימיזציה של שאילתות - יתרון
ידע ב-Docker, תהליכי CI/CD וכלים לתשתיות כקוד (AWS CloudFormation, terraform, CDK)
ניסיון עם ספריות מבוססות Dataframe (Pandas, Polars, PySpark) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8365488
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 9 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אצלנו באגף ארגון ושיטות חיים ונושמים תהליכים חכמים ושיפור מתמיד.
אנחנו מגייסים בודק/ת דאטה עם עין חדה, חשיבה אנליטית ואהבה לפרטים הקטנים, כי שם מתחבאת האיכות האמיתית.
 
במסגרת התפקיד -
בדיקה, ניתוח ווידוא שהתהליכים והמערכות באגף פועלים באופן תקין.
כתיבת תרחישי ותסריטי בדיקה בהתאם למסמכי אפיון בתחום דאטה.
איתור, תיעוד ומעקב אחר תקלות ושגיאות עד לפתרונן.
עבודה צמודה עם מהנדסים, מנתחי מערכות, וצוותי פיתוח.
דרישות:
מה אנחנו מחפשים?
ניסיון של שנתיים ומעלה בבדיקות על DB ומסדי נתונים - חובה
ניסיון מעשי ב- SQL ברמה גבוהה - חובה
ניסיון בעבודה עם מסדי נתונים גדולים חובה
ניסיון בבדיקות ידניות ואוטומציה חובה
ניסיון ב - Tableau יתרון משמעותי
הבנה של תהליכים עסקיים מורכבים - יתרון
 

משרה מלאה, ימים א'-ה' 8.5 שעות
יום עבודה מהבית לאחר תקופת ההכשרה
רמת גן, מתחם הבורסה צמוד לרכבת סבידור מרכז ולרכבת הקלה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8300038
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 10 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אצלנו באגף ארגון ושיטות חיים ונושמים תהליכים חכמים ושיפור מתמיד.
אנחנו מגייסים בודק/ת דאטה עם עין חדה, חשיבה אנליטית ואהבה לפרטים הקטנים, כי שם מתחבאת האיכות האמיתית.
 
במסגרת התפקיד -
בדיקה, ניתוח ווידוא שהתהליכים והמערכות באגף פועלים באופן תקין.
כתיבת תרחישי ותסריטי בדיקה בהתאם למסמכי אפיון בתחום דאטה.
איתור, תיעוד ומעקב אחר תקלות ושגיאות עד לפתרונן.
עבודה צמודה עם מהנדסים, מנתחי מערכות, וצוותי פיתוח.
דרישות:
מה אנחנו מחפשים?
ניסיון של שנתיים ומעלה בבדיקות על DB ומסדי נתונים - חובה
ניסיון מעשי ב- SQL ברמה גבוהה - חובה
ניסיון בעבודה עם מסדי נתונים גדולים חובה
ניסיון בבדיקות ידניות ואוטומציה חובה
ניסיון ב - Tableau יתרון משמעותי
הבנה של תהליכים עסקיים מורכבים - יתרון
 

משרה מלאה, ימים א'-ה' 8.5 שעות
יום עבודה מהבית לאחר תקופת ההכשרה
רמת גן, מתחם הבורסה צמוד לרכבת סבידור מרכז ולרכבת הקלה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8356408
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 12 שעות
דרושים בQpoint Technologies
סוג משרה: משרה מלאה
לחברה גדולה ומובילה דרוש/ה מומחה/ית הנדסת נתונים, תשתיות ואינטגרציה לעבודה בסביבות מורכבות ורבמערכתיות.
מה בתפקיד?
- תכנון, הקמה, תפעול ותחזוקה של מערכות אינטגרציה ותשתיות נתונים
- עבודה עם מערכות אינטגרציה וETL (APIM, MQ, DataPower, DataStage, ADF, NiFi, Talend ועוד)
- עבודה עם Big Data (Cloudera)
- ניהול זהויות והרשאות (SailPoint)
- ליווי פרויקטים טכנולוגיים, טיפול בתקלות מורכבות ושיפור ביצועים
דרישות:
מה חשוב לנו?
- ניסיון של 5+ שנים בתחום
- ניסיון משמעותי בSailPoint וניהול זהויות
- ידע בעבודה עם בסיסי נתונים, כלי אינטגרציה וETL
- ניסיון עם Linux / Windows וכתיבת סקריפטים
- שליטה בשפות: JAVA / SQL / Python
- אנגלית ברמה גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8462801
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 15 שעות
דרושים במלונות אסטרל
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
אפיון, פיתוח ותחזוקה של דוחות ודשבורדים ב- QlikView בהתאם לצרכים העסקיים
כתיבת סקריפטים לטעינה, ניקוי ואיחוד נתונים ממקורות כמו SQL, Excel ו-APIs
פיתוח תהליכי ETL משלב איסוף הנתונים ועד הצגתם במערכת
עבודה עם בסיסי נתונים וכתיבת שאילתות SQL מורכבות
בקרה על איכות הנתונים וזיהוי בעיות או כפילויות
הבנת הדרישות העסקיות והגדרת מדדים (KPIs) יחד עם מנהלים בכירים
תכנון מבנה דשבורדים - בחירת מדדים, פילוחים, ויזואליזציות וסדר הצגה
שיפור ביצועים ואופטימיזציה של דוחות קיימים
ניהול הרשאות וגישה למידע לפי מדיניות הארגון
הטמעת פתרונות ה- BI, הדרכת משתמשים בארגון והבטחת שימוש רציף במודלים המפותחים
דרישות:
ניסיון- לפחות שלוש שנים
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8462323
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time and Hybrid work
We're hiring a data Engineer
Were looking for a data Engineer with solid experience building and maintaining large-scale data pipelines in the cloud.
Youll be joining a collaborative R D team working on cutting-edge SaaS products, with full ownership over data workflows, architecture and performance.
Requirements:
What were looking for:
2-3 years of experience in data engineering roles
Hands-on experience with Azure cloud services, especially data Factory, data Lake, and Databricks
Solid knowledge of Databricks, including Spark-based processing, notebook orchestration, and ML pipeline integration
Proficient in Python and SQL for data manipulation and automation
Experience with orchestration tools like Airflow
Familiarity with Docker, CI/CD, and working in cross-functional development teams
Youll work closely with data scientists, engineers and product teams to build data -driven features
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8302213
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל במרכז דרוש/ה data ENGINEER
התפקיד כולל ניהול תהליכי הסבת נתונים ממערכות המקור לבסיסי נתונים ו/או מאגרי אחסון בסביבת הענן.
הובלת תהליכי פיתוח, ניטור ובקרה על תהליכי עיבוד נתונים וניהול ממשקי עבודה מול הגורם העסקי
דרישות:
תואר ראשון במדעי המחשב / הנדסת תוכנה / תחום רלוונטי
מינימום 3 שנות ניסיון מוכח כ- data Engineer
היכרות עם כלי AWS: Glue, Lambda, EMR/Spark
היכרות עם כלי CI/CD: Jenkins / GitLab CI / GitHub Actions, Harness
אורקסטרציה: Apache Airflow (DAG design, XCom, pools)
שפות תכנות: JAVA / Python
יתרונות:
היכרות עם DB מבוססי ענן (PostgreSQL, DocumentDB, OpenSearch)
היכרות עם Apache Kafka
ניסיון בKubernetes / EKS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355779
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בקבוצת Aman
מיקום המשרה: רמת גן
פיתוח ותחזוקה של תהליכים בסביבת ענן (Azure) עם DataBricks ו- DataFactory לעיבוד נתונים בקנה מידה גדול, אופטימיזציה של ביצועים וניהול נתונים בקבצי Parquet בענן.
עצמאות ועבודה שוטפת מול משתמשים.
קבלת הדרישה מהמשתמשים, כתיבת אפיונים טכניים וליווי הפיתוח כולל בדיקות, עלייה לייצור והטמעה מול המשתמשים.
הגדרת ממשקים מול מערכות בארגון ומחוצה לו
דרישות:
ניסיון של 3 שנים לפחות ב Python - חובה
ניסיון בכתיבת שאילתות SQL ברמה מורכבת - חובה
ניסיון בSpark - חובה
ניסיון בעבודה עם בסיסי נתונים גדולים, כולל אופטימיזציה של שאילתות - יתרון
ניסיון פיתוח בReact - יתרון
תואר ראשון במדעי המחשב - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8376478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בקורן טק טכנולוגיות
מיקום המשרה: רחובות
אנחנו מחפשים אנליסט/ית נתונים עם הבנה עמוקה של תהליכי ייצור לתפקיד מאתגר בצוות הנדסת הייצור.
תפקיד משמעותי המחבר בין פיתוח לייצור, ומאפשר להוביל תובנות ופתרונות מבוססי נתונים שישפיעו על קווי הייצור ועל מוצרים חדשים.
דרישות:
לפחות 3 שנות ניסיון כ- data Analyst
ניסיון מוכח בניתוח נתוני ייצור/תהליכים
SQL ברמה גבוהה
ניסיון עם כלי BI כמו Tableau ו-Power BI
יכולת עבודה עצמאית, למידה מהירה ותקשורת מצוינת
תואר ראשון רלוונטי (הנדסת תעו"נ / מערכות מידע או תחום מקביל) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439535
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
לחברת סקיוריטי בעולם הרכב דרוש/ה Senior data Engineer
תיאור המשרה:
תכנון, בנייה ותחזוקה של פייפלייני נתונים סקיילביליים לטעינה ועיבוד של דאטה בBatch בData Lake, כולל תמיכה באנליטיקה ו-ML, תוך שמירה על איכות נתונים, ממשל (governance), תצפיות (observability) וCI/CD.
בנייה והרחבה של תשתית הנתונים הבסיסית data Lake, מנוע אנליטיקה, ומערכי Batch Processing.
יצירת תשתיות חזקות שיאפשרו פייפליינים אוטומטיים לטעינה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלים וטכנולוגיות קוד פתוח, Cloud-agnostic.
פיתוח ותחזוקת ארכיטקטורות ופריסות הData Lake לגישה יעילה לנתונים ולניתוחים מתקדמים.
בניית פלטפורמת הML ואוטומציה של מחזור חיי הML.
הובלת פרויקטי ML חוצי-ארגון מהיבט הנדסי.
פיתוח וניהול כלי אקטרציה, כלים לממשל נתונים, כלים לגילוי נתונים ועוד.
עבודה בשיתוף פעולה עם אדריכלי נתונים, אנליסטים ומדעני נתונים, לצורך בניית פתרונות מבוססי Use Cases המגדירים זרימות נתונים טכניות.
דרישות:
תואר ראשון במדעי המחשב, הנדסה או תחום רלוונטי
לפחות 5 שנות ניסיון בתכנון ובנייה של פייפלייני נתונים, כלים אנליטיים וData Lakes
לפחות 7 שנות ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכו)
ניסיון בטכנולוגיות data Engineering: כלים לETL ואורקסטרציה (כמו Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כמו Spark, Kafka, Presto)
ניסיון בעבודה עם Python חובה
ניסיון בעבודה עם מוצרים מבוססי קוד פתוח יתרון גדול
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כמו Kubernetes) יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439164
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים ביוניטסק
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
מהנדס דאטה שיצטרף לקבוצת הדאטה בתחום הראייה הממוחשבת (Computer Vision) צוות האחראי על פיתוח ותחזוקה של תשתיות הדאטה המניעות מערכות בינה מלאכותית מתקדמות בתחום הוויזואלי.
התפקיד כולל:
ארגון, סינון ותיוג של נתונים מעולמות Computer Vision
בניית תהליכי data Pipeline והכנסת מידע למערכות מתקדמות
כתיבת סקריפטים בפייתון לתהליכי דאטה
בדיקות איכות נתונים ועבודה שוטפת מול צוותי AI וAnnotation
דרישות:
הכשרה פורמלית הנדסית בתחום תוכנה / בוגרי/ות קורס QA בעלי/ות רקע טכני חזק וידע ב- Python
ידע ויכולת בפיתוח תוכנה בשפת Python ; עדיפות לניסיון בכתיבת סקריפטים.
ניסיון בעבודה עם מערכות מידע.
שליטה בעבודה עם כלי Office וWindows.
יכולת כתיבת מסמכים טכניים בעברית ובאנגלית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439394
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: חיפה
סוג משרה: משרה מלאה
ארגון גדול ומוביל מחפש איש IAM מנוסה עם התמחות במערכות לניהול זהויות והרשאות, לתפקיד משמעותי בלב העשייה הטכנולוגית.

מה אנחנו מחפשים?
מועמד/ת עם ניסיון מוכח בעבודה בסביבות מורכבות, ראייה מערכתית רחבה, יכולת הובלת משימות ופרויקטים, ורצון להיות גורם מקצועי משמעותי בארגון.
דרישות:
ניסיון של 5 שנים ומעלה בתחום ניהול זהויות והרשאות (IAM)

ניסיון מעשי בעבודה עם מערכות IAM מתקדמות (בדגש על SailPoint)

ניסיון בתפעול מערכות, טיפול בתקלות, שדרוגים ושיפור ביצועים

עבודה עם מערכות מידע ארגוניות, בסיסי נתונים וכלי אינטגרציה

ידע בשפות פיתוח וסקריפטים (כגון JAVA / Python / SQL)

ניסיון בעבודה בסביבות Linux ו-Windows

ניסיון בליווי פרויקטים טכנולוגיים, עבודה מול ממשקים מרובים וכתיבת תיעוד

יתרון משמעותי
ניסיון בארגונים גדולים

היכרות עם כלי BI ודוחות ניהוליים

רקע באבטחת מידע המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8460888
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.

תחומי אחריות:

פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL) חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים

מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות
גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355699
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה עוסקת בהקמה של פרויקטים תרמו-סולארים שהוקמו בארצות הברית. מדובר בתחנות כוח לייצור חשמל מאנרגיות מתחדשות המפעילות טורבינה בכוח קיטור שמקורו במים שחוממו על ידי עשרות אלפי מראות.

החברה ממוקמת בירושלים, משלבת מודל עבודה היברידי ומונה 100 עובדים בארץ.

מהות התפקיד: ניהול צוות של 2 סניורים, 40% Hands On. דיווח ל-VP, פיתוח ב- Python, סביבת AWS, data Pipelines, Modern data Technologies.
דרישות:
- שנת ניסיון בניהול/Tech Lead
- 4 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח עם Cloud
- ניסיון בפיתוח ב- Python / JAVA המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8453376
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
Job Type: Full Time
We're in search of an experienced and skilled Senior Data Engineer to join our growing data team. As part of our data team, you'll be at the forefront of crafting a groundbreaking solution that leverages cutting-edge technology to combat fraud. The ideal candidate will have a strong background in designing and implementing large-scale data solutions, with the potential to grow into a leadership role. This position requires a deep understanding of modern data architectures, cloud technologies, and the ability to drive technical initiatives that align with business objectives.
Our ultimate goal is to equip our clients with resilient safeguards against chargebacks, empowering them to safeguard their revenue and optimize their profitability. Join us on this thrilling mission to redefine the battle against fraud.
Your Arena
Design, develop, and maintain scalable, robust data pipelines and ETL processes
Architect and implement complex data models across various storage solutions
Collaborate with R&D teams, data scientists, analysts, and other stakeholders to understand data requirements and deliver high-quality solutions
Ensure data quality, consistency, security, and compliance across all data systems
Play a key role in defining and implementing data strategies that drive business value
Contribute to the continuous improvement of our data architecture and processes
Champion and implement data engineering best practices across the R&D organization, serving as a technical expert and go-to resource for data-related questions and challenges
Participate in and sometimes lead code reviews to maintain high coding standards
Troubleshoot and resolve complex data-related issues in production environments
Evaluate and recommend new technologies and methodologies to improve our data infrastructure.
Requirements:
What It Takes - Must haves::
5+ years of experience in data engineering, with specific, strong proficiency in Python & software engineering principles - Must
Extensive experience with AWS, GCP, Azure and cloud-native architectures - Must
Deep knowledge of both relational (e.g., PostgreSQL) and NoSQL databases - Must
Designing and implementing data warehouses and data lakes - Must
Strong understanding of data modeling techniques - Must
Expertise in data manipulation libraries (e.g., Pandas) and big data processing frameworks - Must
Experience with data validation tools such as Pydantic & Great Expectations - Must
Proficiency in writing and maintaining unit tests (e.g., Pytest) and integration tests - Must
Nice-to-Haves:
Apache Iceberg - Experience building, managing and maintaining Iceberg lakehouse architecture with S3 storage and AWS Glue catalog - Strong Advantage
Apache Spark - Proficiency in optimizing Spark jobs, understanding partitioning strategies, and leveraging core framework capabilities for large-scale data processing - Strong Advantage
Modern data stack tools - DBT, DuckDB, Dagster or any other Data orchestration tool (e.g., Apache Airflow, Prefect) - Advantage
Designing and developing backend systems, including- RESTful API design and implementation, microservices architecture, event-driven systems, RabbitMQ, Apache Kafka - Advantage
Containerization technologies- Docker, Kubernetes, and IaC (e.g., Terraform) - Advantage
Stream processing technologies (e.g., Apache Kafka, Apache Flink) - Advantage
Understanding of compliance requirements (e.g., GDPR, CCPA) - Advantage
Experience mentoring junior engineers or leading small project teams
Excellent communication skills with the ability to explain complex technical concepts to various audiences
Demonstrated ability to work independently and lead technical initiatives
Relevant certifications in cloud platforms or data technologies.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8462760
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Design, implement, and maintain robust data pipelines and ETL/ELT processes on GCP (BigQuery, Dataflow, Pub/Sub, etc.).
Build, orchestrate, and monitor workflows using Apache Airflow / Cloud Composer.
Develop scalable data models to support analytics, reporting, and operational workloads.
Apply software engineering best practices to data engineering: modular design, code reuse, testing, and version control.
Manage GCP resources (BigQuery reservations, Cloud Composer/Airflow DAGs, Cloud Storage, Dataplex, IAM).
Optimize data storage, query performance, and cost through partitioning, clustering, caching, and monitoring.
Collaborate with DevOps/DataOps to ensure data infrastructure is secure, reliable, and compliant.
Partner with analysts and data scientists to understand requirements and translate them into efficient data solutions.
Mentor junior engineers, provide code reviews, and promote engineering best practices.
Act as a subject matter expert for GCP data engineering tools and services.
Define and enforce standards for metadata, cataloging, and data documentation.
Implement monitoring and alerting for pipeline health, data freshness, and data quality.
Requirements:
Bachelors or Masters degree in Computer Science, Engineering, or related field.
6+ years of professional experience in data engineering or similar roles, with 3+ years of hands-on work in a cloud env, preferably on GCP.
Strong proficiency with BigQuery, Dataflow (Apache Beam), Pub/Sub, and Cloud Composer (Airflow).
Expert-level Python development skills, including object-oriented programming (OOP), testing, and code optimization.
Strong data modeling skills (dimensional modeling, star/snowflake schemas, normalized/denormalized designs).
Solid SQL expertise and experience with data warehousing concepts.
Familiarity with CI/CD, Terraform/Infrastructure as Code, and modern data observability tools.
Exposure to AI tools and methodologies (i.e, Vertex AI).
Strong problem-solving and analytical skills.
Ability to communicate complex technical concepts to non-technical stakeholders.
Experience working in agile, cross-functional teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8462182
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
This role has been designed as Hybrid with an expectation that you will work on average 2 days per week from an HPE office.
Job Description:
We are looking for a highly skilled Senior Data Engineer with strong architectural expertise to design and evolve our next-generation data platform. You will define the technical vision, build scalable and reliable data systems, and guide the long-term architecture that powers analytics, operational decision-making, and data-driven products across the organization.
This role is both strategic and hands-on. You will evaluate modern data technologies, define engineering best practices, and lead the implementation of robust, high-performance data solutionsincluding the design, build, and lifecycle management of data pipelines that support batch, streaming, and near-real-time workloads.
What Youll Do
Architecture & Strategy
Own the architecture of our data platform, ensuring scalability, performance, reliability, and security.
Define standards and best practices for data modeling, transformation, orchestration, governance, and lifecycle management.
Evaluate and integrate modern data technologies and frameworks that align with our long-term platform strategy.
Collaborate with engineering and product leadership to shape the technical roadmap.
Engineering & Delivery
Design, build, and manage scalable, resilient data pipelines for batch, streaming, and event-driven workloads.
Develop clean, high-quality data models and schemas to support analytics, BI, operational systems, and ML workflows.
Implement data quality, lineage, observability, and automated testing frameworks.
Build ingestion patterns for APIs, event streams, files, and third-party data sources.
Optimize compute, storage, and transformation layers for performance and cost efficiency.
Leadership & Collaboration
Serve as a senior technical leader and mentor within the data engineering team.
Lead architecture reviews, design discussions, and cross-team engineering initiatives.
Work closely with analysts, data scientists, software engineers, and product owners to define and deliver data solutions.
Communicate architectural decisions and trade-offs to technical and non-technical stakeholders.
Requirements:
610+ years of experience in Data Engineering, with demonstrated architectural ownership.
Expert-level experience with Snowflake (mandatory), including performance optimization, data modeling, security, and ecosystem components.
Expert proficiency in SQL and strong Python skills for pipeline development and automation.
Experience with modern orchestration tools (Airflow, Dagster, Prefect, or equivalent).
Strong understanding of ELT/ETL patterns, distributed processing, and data lifecycle management.
Familiarity with streaming/event technologies (Kafka, Kinesis, Pub/Sub, etc.).
Experience implementing data quality, observability, and lineage solutions.
Solid understanding of cloud infrastructure (AWS, GCP, or Azure).
Strong background in DataOps practices: CI/CD, testing, version control, automation.
Proven leadership in driving architectural direction and mentoring engineering teams
Nice to Have
Experience with data governance or metadata management tools.
Hands-on experience with DBT, including modeling, testing, documentation, and advanced features.
Exposure to machine learning pipelines, feature stores, or MLOps.
Experience with Terraform, CloudFormation, or other IaC tools.
Background designing systems for high scale, security, or regulated environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8461496
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Netanya
Job Type: Full Time
We are looking for a talented and experienced Data QA Engineer to join our data team. In this role, you will be responsible for ensuring the quality of the data we collect from websites. You will work closely with the development team, data analysts, Project Managers etc. to ensure that the data meets the highest standards of accuracy, integrity, and consistency.
Responsibilities
Planning, developing, and executing comprehensive test scenarios for data clients, that are based on public Web data:
Designing tests for client data needs, based on manual and automated methods
Performing manual and automated testing of data - integrity, accuracy etc.
Leveraging SQL to retrieve and analyze data from various databases
Documenting and tracking bugs and data quality issues
Analyzing large data sets to identify trends, anomalies, and potential problems
Communicating test findings clearly and effectively to various stakeholders
Defining QA standards and tools for partners developing data scrapers or performing basic QA testing for data:
Designing tests for different types of data being collected online
Building automated tests where relevant
Documenting methods and tools
Training the partners as needed
Validating the partner QA effectiveness
Developing and maintaining automated testing tools and scripts
Working closely with team members to ensure that the QA meets business and technical requirements
Staying updated with new testing technologies and methodologies.
Requirements:
Proven experience of 2 years as a QA Engineer, preferably in the field of Web data or e-commerce- Must
At least 2 years of in-depth experience working with data (data quality, integrity, data enrichment and automation, datasets) - as a Data Analyst / Product Data Analyst
Excellent command of SQL
Experience working with test management tools (Jira)
Experience in writing scripts (Python, Shell Scripting) for test automation
Experience leveraging automated testing tools
Excellent analytical ability and ability to analyze large amounts of data
Strong attention to detail and accuracy
Excellent interpersonal communication skills
Ability to learn quickly and adapt to changes
Bachelors degree in computer science or another relevant field - an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8461482
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a highly motivated and experienced Data Engineering Team Lead to guide a global team responsible for building and maintaining the data infrastructure that powers our products. This team collaborates closely with software engineers, data scientists, product managers, analysts, and external partners to deliver scalable, high-quality data solutions that drive business impact.

Key Responsibilities

Lead a global team of software engineers, centered in Israel, operating under the Agile Scrum methodology.
Own the teams execution, quality, and alignment to data architecture and company-wide engineering standards.
Work together with product managers to define priorities for each sprint and align engineering efforts to business goals.
Guide the teams involvement in cross-functional projects alongside Software, ML, Analytics, and Partner teams.
Ensure secure, reliable, and efficient access to internal and third-party data sources across all products.
Actively participate in roadmap planning, resource allocation, and technical design reviews.
Provide mentorship, technical guidance, and growth opportunities to team members.
Requirements:
5+ years of hands-on experience in data engineering, with at least 2 years in a team or technical leadership role.
Strong technical background in building and maintaining production-grade data pipelines using tools like Airflow, Spark, Kafka, or similar.
Excellent communication skills, with the ability to clearly convey technical ideas to both technical and non-technical stakeholders.
Strong cross-functional collaboration skills, including working directly with product managers on sprint planning and aligning engineering with business priorities.
Proven experience working with both structured and unstructured data, including RDBMS and NoSQL solutions.
Deep understanding of cloud-based data platforms (preferably AWS) and infrastructure as code.

Nice to have:
Familiarity with ML pipelines, feature stores, and supporting data scientists in production environments.
Familiarity with Generative AI tools such as Cursor, GitHub Copilot, Claude Code or similar technologies.
Strong grasp of data security, reliability, and compliance practices.
Exposure to real-time or near-real-time data systems in mobility, IoT, or similar domains.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8460082
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
the Senior Data Engineer position is a central role in the Tech Org. The Data Engineering (DE) team is a Change Agent Team that plays a significant role in the ongoing (at advanced stages) migration of to cloud technologies. The ideal candidate is a senior data engineer with a strong technical background in data infrastructure, data architecture design and robust data pipes building. The candidate must also have collaborative abilities to interact effectively with Product managers, Data scientists, Onboarding engineers, and Support staff.
Responsibilities:
Deploy and maintain critical data pipelines in production.
Drive strategic technological initiatives and long-term plans from initial exploration and POC to going live in a hectic production environment.
Design infrastructural data services, coordinating with the Architecture team, R&D teams, Data Scientists, and product managers to build scalable data solutions.
Work in Agile process with Product Managers and other tech teams.
End-to-end responsibility for the development of data crunching and manipulation processes within the product.
Design and implement data pipelines and data marts.
Create data tools for various teams (e.g., onboarding teams) that assist them in building, testing, and optimizing the delivery of the product.
Explore and implement new data technologies to support data infrastructure.
Work closely with the core data science team to implement and maintain ML features and tools.
Requirements:
B.Sc. in Computer Science or equivalent.
7+ years of extensive SQL experience (preferably working in a production environment)
Experience with programming languages (preferably, Python) a must!
Experience with "Big Data" environments, tools, and data modeling (preferably in a production environment).
Strong capability in schema design and data modeling.
Understanding of micro-services architecture.
Familiarity with Airflow, ETL tools, Snowflake, and MSSQL.
Quick, self-learning and good problem-solving capabilities.
Good communication skills and collaborative.
Process and detailed oriented.
Passion to solve complex data problems.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8459882
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Rishon Letsiyon
Job Type: Full Time
A fast-growing fintech AI start-up company, focused on eliminating fraud and chargebacks in online commerce, is looking for an experienced Senior Data Engineer.
In this Roll, you will build large-scale, cutting-edge data solutions for fraud prevention, with the potential to grow into a technical leadership role.
The company is located in Modi'in, central Israel. Hybrid work model.
Responsibilities
Build and maintain scalable data pipelines and ETL processes.
Design complex data models and optimize data architecture.
Collaborate with teams to deliver high-quality, compliant solutions.
Troubleshoot production issues and implement best practices.
Recommend new technologies to enhance the data infrastructure.
Requirements:
Must Haves:
5+ years in data engineering with strong Python & software engineering skills
Extensive experience with cloud platforms (AWS, GCP, Azure) and cloud-native architectures
Deep knowledge of relational (PostgreSQL) and NoSQL databases
Experience designing and implementing data warehouses and data lakes
Strong understanding of data modeling techniques
Expertise in data manipulation libraries (e.g., Pandas) and big data frameworks
Experience with data validation tools (Pydantic, Great Expectations)
Proficiency in writing and maintaining unit and integration tests (e.g., Pytest)
Nice to Haves / Advantage:
Apache Iceberg, Apache Spark, or modern data stack tools (DBT, DuckDB, Dagster, Airflow, Prefect)
Backend system design: RESTful APIs, microservices, event-driven systems, RabbitMQ, Kafka
Containerization & IaC: Docker, Kubernetes, Terraform
Stream processing: Kafka, Flink
Knowledge of compliance (GDPR, CCPA)
Mentoring or leading small teams
Excellent communication and ability to explain technical concepts clearly
Relevant cloud or data certifications.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8458254
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
What Youll Be Doing:
Help improve our analytics practices by gathering better data, making it more trustworthy and accessible, and nurturing a top-grade data culture across the company.
Design, develop, scale, and optimize the data pipelines, ETLs and various data models.
Use SQL, DBT, Python and any other relevant tools and technologies.
Identify blind spots in how we use data and lead initiatives to illuminate them.
Collaborate with various stakeholders across the company to translate requirements into high-quality data pipelines and models.
We are currently rebuilding and redesigning much of our tech-stack and processes. Play a major role in designing the future data-work within the company.
Requirements:
Have 5+ years of experience as a BI Developer or Data Engineer including ETL design, implementation, optimization and maintenance.
Very strong understanding of business processes and the ability to translate business needs into relevant data products.
An independent, self-motivated learner with a strong passion for data.
Experienced in writing complex SQL queries, Data Modeling and working with DBT.
Experience analyzing user behavior and modeling data.
Proven track record of merging multiple data sources to develop a single source of truth for reporting/analysis/research needs.
Experience preparing data for business intelligence tools such as Tableau, Looker, or similar platforms.
Bachelors or Masters Degree in Computer Science, Information Systems or a related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8456760
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Haifa
Job Type: Full Time
We seek a highly skilled and experienced Solution Architect with a deep understanding of Data and operations to join our team. In this role, you will be responsible for designing and implementing data-centric solutions that enable our customers to achieve their business objectives, with a strong focus on building efficient and reliable ETL pipelines. You will work closely with clients to understand their needs, translate them into technical requirements, and architect scalable, reliable, and secure data pipelines.
Key Responsibilities:
Collaborate with clients to gather requirements and understand their data
challenges.
Design and implement end-to-end DataOps solutions, including data
ingestion, processing, storage, and analysis.
Leverage cloud technologies and best practices to architect scalable and
cost-effective data architectures.
Ensure data quality, integrity, and security throughout the data lifecycle.
Automate data pipelines and workflows to improve efficiency and reduce
manual effort.
Stay up-to-date with the latest DataOps trends and technologies.
Provide technical guidance and mentorship to other team members.
Requirements:
Proven experience as a Solution Architect or in a similar role, with a strong focus on DataOps.
Deep understanding of data management principles, data modeling, and ETL processes.
Expertise in cloud technologies (AWS, Azure, GCP) and data platforms (Hadoop, Spark, Snowflake, Looker).
Strong knowledge of programming languages (Python, Java, Scala) and scripting languages (Bash, PowerShell).
Experience with DevOps tools and practices (CI/CD, containerization, orchestration).
Excellent communication and collaboration skills, with the ability to work effectively with both technical and non-technical stakeholders.
Strong problem-solving and analytical skills
Bachelors degree in Computer Science, Engineering, or a related field.
Additional Info:
Send us your CV in English and become part of our team!
Only short-listed candidates will be contacted.
Confidentiality of all applications is assured!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8456701
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are seeking a Data Engineer to join our dynamic data team. In this role, you will design, build, and maintain robust data systems and infrastructure that support data collection, processing, and analysis. Your expertise will be crucial in developing scalable data pipelines, ensuring data quality, and collaborating with cross-functional teams to deliver actionable insights.

Key Responsibilities:
Design, develop, and maintain scalable ETL processes for data transformation and integration.
Build and manage data pipelines to support analytics and operational needs.
Ensure data accuracy, integrity, and consistency across various sources and systems.
Collaborate with data scientists and analysts to support AI model deployment and data-driven decision-making.
Optimize data storage solutions, including data lakehouses and databases, to enhance performance and scalability..
Monitor and troubleshoot data workflows to maintain system reliability.
Stay updated with emerging technologies and best practices in data engineering.

Please note that this role is on a hybrid model of 4 days/week in our Tel-Aviv office.
Requirements:
Requirements
3+ years of experience in data engineering or a related role within a production environment.
Proficiency in Python and SQL
Experience with both relational (e.g., PostgreSQL) and NoSQL databases (e.g., MongoDB, Elasticsearch).
Familiarity with big data AWS tools and frameworks such as Glue, EMR, Kinesis etc.
Experience with containerization tools like Docker and Kubernetes.
Strong understanding of data warehousing concepts and data modeling.
Excellent problem-solving skills and attention to detail.
Strong communication skills, with the ability to work collaboratively in a team environment.

Preferred Qualifications:
Experience with machine learning model deployment and MLOps practices.
Knowledge of data visualization tools and techniques.
Practical experience democratizing the companys data to enhance decision making.
Bachelors degree in Computer Science, Engineering, or a related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8456661
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are hiring a Staff Data AI Lead to lead our AI initiatives.As a Staff Data AI Lead you will be responsible for leading SuperSonic organization AI integration efforts and serving as the bridge between advanced AI technologies and our business needs, implementing cutting-edge Data & AI technologies, creating AI-driven strategies and integrating innovative AI solutions across multiple platforms.
What you'll be doing
Develop and execute AI strategies aligned with business objectives
Advise leadership on AI capabilities and potential applications
Guide teams in adopting AI tools and methodologies
Ensure ethical and efficient implementation of AI technologies
Design and oversee AI-driven process improvements
Collaborate with various departments to identify AI opportunities
Stay current with the latest AI trends and advancements
Conduct AI-related training and workshops for staff
Manage AI projects from conception to implementation
Evaluate and recommend AI tools and platforms
Leading a team of AI engineers.
Requirements:
Deep understanding of AI technologies, including large language models
Expertise in prompt engineering and AI-powered automation
Proficiency with AI tools such as ChatGPT, Claude, Midjourney, and Copilot
Knowledge of AI ethics and regulatory considerations
Strong problem-solving and analytical skills
Proficiency with Python or TypeScript for building AI workflows and data pipelines
Excellent communication and leadership abilities
Ability to translate complex AI concepts for non-technical audiences
Experience in project management and cross-functional collaboration
You might also have
Advanced degree in Computer Science, AI, or related field
Previous experience in AI implementation within an organizational setting
Certifications in relevant AI technologies or platforms
Familiarity with no-code AI application development
Bachelor's degree in Computer Science, AI, or related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8454258
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands-on data infrastructure and platform engineer with proven leadership skills to lead and evolve our self-service data platform that powers petabyte-scale batch and streaming, near-real-time analytics, experimentation, and the feature platform. Youll guide an already excellent team of senior engineers, own reliability and cost efficiency, and be the focal point for pivotal, company-wide data initiatives- feature platform, lakehouse, and streaming.
Own the lakehouse backbone: Mature Iceberg at high scalepartitioning, compaction, retention, metadataand extend our IcebergManager in-house product to automate the lakehouse management in a self serve fashion.
Unify online/offline for features: Drive Flink adoption and patterns that keep features consistent and low-latency for experimentation and production.
Make self-serve real: Build golden paths, templates, and guardrails so product/analytics/DS engineers can move fast safely.
Run multi-tenant compute efficiently: EMR on EKS powered by Karpenter on Spot instances; right-size Trino/Spark/Druid for performance and cost.
Cross-cloud interoperability: BigQuery + BigLake/Iceberg interop where it makes sense (analytics, experimentation, partnership).
What you'll be doing
Leading a senior Data Platform team: setting clear objectives, unblocking execution, and raising the engineering bar.
Owning SLOs, on-call, incident response, and postmortems for core data services.
Designing and operating EMR on EKS capacity profiles, autoscaling policies, and multi-tenant isolation.
Tuning Trino (memory/spill, CBO, catalogs), Spark/Structured Streaming jobs, and Druid ingestion/compaction for sub-second analytics.
Extending Flink patterns for the feature platform (state backends, checkpointing, watermarks, backfills).
Driving FinOps work: CUR-based attribution, S3 Inventory-driven retention/compaction, Reservations/Savings Plans strategy, OpenCost visibility.
Partnering with product engineering, analytics, and data science & ML engineers on roadmap, schema evolution, and data product SLAs.
Leveling up observability (Prometheus/VictoriaMetrics/Grafana), data quality checks, and platform self-service tooling.
Requirements:
2+ years leading engineers (team lead or manager) building/operating large-scale data platforms; 5+ years total in Data Infrastructure/DataOps roles.
Proven ownership of cloud-native data platforms on AWS: S3, EMR (preferably EMR on EKS), IAM, Glue/Data Catalog, Athena.
Production experience with Apache Iceberg (schema evolution, compaction, retention, metadata ops) and columnar formats (Parquet/Avro).
Hands-on depth in at least two of: Trino/Presto, Apache Spark/Structured Streaming, Apache Druid, Apache Flink.
Strong conceptual understanding of Kubernetes (EKS), including autoscaling, isolation, quotas, and observability
Strong SQL skills and extensive experience with performance tuning, with solid proficiency in Python/Java.
Solid understanding of Kafka concepts, hands-on experience is a plus
Experience running on-call for data platforms and driving measurable SLO-based improvements.
You might also have
Experience building feature platforms (feature definitions, materialization, serving, and online/offline consistency).
Airflow (or similar) at scale; Argo experience is a plus.
Familiarity with BigQuery (and ideally BigLake/Iceberg interop) and operational DBs like Aurora MySQL.
Experience with Clickhouse / Snowflake / Databricks / Starrocks.
FinOps background (cost attribution/showback, Spot strategies).
Data quality, lineage, and cataloging practices in large orgs.
IaC (Terraform/CloudFormation).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8454253
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/12/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a talented and experienced Data Engineer to join our data group.
The team is responsible for processing and transforming data from multiple external sources while building and maintaining an internal serving platform. Our key challenges include operating at scale, integrating with diverse external interfaces, and ensuring the data is served in a consistent and reliable manner.
Responsibilities
Designing and implementing our data platform
Transforming, modeling, and serving all our medical data.
Utilize data best practices, to improve the product and allow data-driven decision-making.
Collaborate closely with cross-functional teams to understand business requirements and translate them into data-driven solutions.
Stay updated with the latest research and advancements in the data field.
Requirements:
5+ years of experience in software development, with at least 3 years as a data engineer.
Proven track record designing and implementing scalable ETL/ELT data pipelines.
Strong SQL skills.
Experience with relational and analytical data platforms (e.g., PostgreSQL, Snowflake, data lakes).
Strong coding skills (preferably in Python), with prior software engineering experience (e.g., API development) a plus.
Experience with cloud environments, AWS preferable.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8452349
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a talented Architect to join us. As a Data Architect, you will be the organizational point of contact for all things related to data persistence and architecture. You will work closely with engineering teams across the Product, Platform, and Data groups to design, govern, and evolve our data models, databases, and data-related systems. Your goal will be to ensure scalability, reliability, security, and efficiency for all data storage and retrieval across the organization.
A few of the things you will do:
Be the primary point of contact and subject matter expert for data persistence across the entire engineering organization.
Define and govern the data architecture strategy, standards, and best practices for relational, NoSQL, and data warehouse systems.
Partner with engineering teams from product, platform, and data groups to design and implement scalable and robust data models for new and existing services.
Lead the design and optimization of the organizations data flows. You will help to ensure that data moves efficiently, consistently, and with high quality across all systems and domains.
Evaluate and recommend new technologies and data solutions to meet evolving business needs.
Drive initiatives to improve data quality, consistency, and integrity across all production systems, from ideation to hands-on execution.
Establish, maintain, and communicate documentation for all data models and architectural decisions.
Requirements:
8+ years of experience in software engineering, with at least 3+ years in a dedicated Data Architect or Principal Database Engineer role.
Deep expertise in designing and scaling complex transactional and analytical data systems (e.g., PostgreSQL, MySQL, NoSQL databases like Cassandra or MongoDB).
Strong understanding of distributed systems, microservices architecture, and their impact on data persistence.
Excellent collaboration and communication skills, with the ability to influence technical decisions across the organization.
Grasp of the big picture: we are on a mission to improve the way our users work and to revolutionize the entire events industry.
Team player with strong communication skills, an egoless and transparent approach, and a positive attitude.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450581
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/12/2025
Location: Rishon Letsiyon
Job Type: Full Time
We're looking for a DataOps Engineer to join our DataOps team, part of the DevOps & Infrastructure group. In this role, you will ensure the performance, reliability, and scalability of our large-scale (multi-terabyte) database systems that underpin the platform. You will be implementing best practices for database infrastructure, improving complex query performance, security, and maintenance. If you are passionate about data, building complex infrastructure and collaboration in a fast-paced environment, this role will be a great fit for you.
How Youll Spend Your Day
Manage, maintain and monitor our ClickHouse, Microsoft SQL Server, PostgreSQL, and OpenSearch databases, ensuring HA, backups, and proper security measures to protect data integrity
Use scripting tools (Python, Bash, PowerShell) to automate regular database and CI/CD tasks.
Collaborate closely with R&D, Security, and Product teams to enhance data infrastructure
Help plan migrations or deployments of database systems to the cloud when needed
Requirements:
3+ years Experience as a DataOps Engineer
Experience with NoSQL databases (OpenSearch, Mongo, ClickHouse) - a must
Experience with RDBMS (MSSQL, PostgreSQL) on cloud environments (Azure, AWS)
Proven experience in managing and optimizing large-scale databases (hundreds of GB to multi-terabyte)
Strong background in database infrastructure, architecture and schema design
Proficiency in at least one scripting language or tool (Bash, PowerShell, or Python)
Experience with CI/CD tools such as Azure DevOps, Liquibase
Ability to work independently and off standard hours when required
Hands-on experience creating or supporting BI reports using SQL
Strong communication and teamwork skills
Experience with linux systems and Docker - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450580
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו