רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 8 דקות
דרושים ביוניטסק
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
מהנדס דאטה שיצטרף לקבוצת הדאטה בתחום הראייה הממוחשבת (Computer Vision) צוות האחראי על פיתוח ותחזוקה של תשתיות הדאטה המניעות מערכות בינה מלאכותית מתקדמות בתחום הוויזואלי.
התפקיד כולל:
ארגון, סינון ותיוג של נתונים מעולמות Computer Vision
בניית תהליכי data Pipeline והכנסת מידע למערכות מתקדמות
כתיבת סקריפטים בפייתון לתהליכי דאטה
בדיקות איכות נתונים ועבודה שוטפת מול צוותי AI וAnnotation
דרישות:
הכשרה פורמלית הנדסית בתחום תוכנה / בוגרי/ות קורס QA בעלי/ות רקע טכני חזק וידע ב- Python
ידע ויכולת בפיתוח תוכנה בשפת Python ; עדיפות לניסיון בכתיבת סקריפטים.
ניסיון בעבודה עם מערכות מידע.
שליטה בעבודה עם כלי Office וWindows.
יכולת כתיבת מסמכים טכניים בעברית ובאנגלית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439394
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 38 דקות
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בגב מערכות
מיקום המשרה: חיפה
סוג משרה: משרה מלאה
ארגון גדול ומוביל מחפש איש IAM מנוסה עם התמחות במערכות לניהול זהויות והרשאות, לתפקיד משמעותי בלב העשייה הטכנולוגית.

מה אנחנו מחפשים?
מועמד/ת עם ניסיון מוכח בעבודה בסביבות מורכבות, ראייה מערכתית רחבה, יכולת הובלת משימות ופרויקטים, ורצון להיות גורם מקצועי משמעותי בארגון.
דרישות:
ניסיון של 5 שנים ומעלה בתחום ניהול זהויות והרשאות (IAM)

ניסיון מעשי בעבודה עם מערכות IAM מתקדמות (בדגש על SailPoint)

ניסיון בתפעול מערכות, טיפול בתקלות, שדרוגים ושיפור ביצועים

עבודה עם מערכות מידע ארגוניות, בסיסי נתונים וכלי אינטגרציה

ידע בשפות פיתוח וסקריפטים (כגון JAVA / Python / SQL)

ניסיון בעבודה בסביבות Linux ו-Windows

ניסיון בליווי פרויקטים טכנולוגיים, עבודה מול ממשקים מרובים וכתיבת תיעוד

יתרון משמעותי
ניסיון בארגונים גדולים

היכרות עם כלי BI ודוחות ניהוליים

רקע באבטחת מידע המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8460888
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.

תחומי אחריות:

פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL) חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים

מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות
גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355699
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 19 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אצלנו באגף ארגון ושיטות חיים ונושמים תהליכים חכמים ושיפור מתמיד.
אנחנו מגייסים בודק/ת דאטה עם עין חדה, חשיבה אנליטית ואהבה לפרטים הקטנים, כי שם מתחבאת האיכות האמיתית.
 
במסגרת התפקיד -
בדיקה, ניתוח ווידוא שהתהליכים והמערכות באגף פועלים באופן תקין.
כתיבת תרחישי ותסריטי בדיקה בהתאם למסמכי אפיון בתחום דאטה.
איתור, תיעוד ומעקב אחר תקלות ושגיאות עד לפתרונן.
עבודה צמודה עם מהנדסים, מנתחי מערכות, וצוותי פיתוח.
דרישות:
מה אנחנו מחפשים?
ניסיון של שנתיים ומעלה בבדיקות על DB ומסדי נתונים - חובה
ניסיון מעשי ב- SQL ברמה גבוהה - חובה
ניסיון בעבודה עם מסדי נתונים גדולים חובה
ניסיון בבדיקות ידניות ואוטומציה חובה
ניסיון ב - Tableau יתרון משמעותי
הבנה של תהליכים עסקיים מורכבים - יתרון
 

משרה מלאה, ימים א'-ה' 8.5 שעות
יום עבודה מהבית לאחר תקופת ההכשרה
רמת גן, מתחם הבורסה צמוד לרכבת סבידור מרכז ולרכבת הקלה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8300038
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 21 שעות
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה עוסקת בהקמה של פרויקטים תרמו-סולארים שהוקמו בארצות הברית. מדובר בתחנות כוח לייצור חשמל מאנרגיות מתחדשות המפעילות טורבינה בכוח קיטור שמקורו במים שחוממו על ידי עשרות אלפי מראות.

החברה ממוקמת בירושלים, משלבת מודל עבודה היברידי ומונה 100 עובדים בארץ.

מהות התפקיד: ניהול צוות של 2 סניורים, 40% Hands On. דיווח ל-VP, פיתוח ב- Python, סביבת AWS, data Pipelines, Modern data Technologies.
דרישות:
- שנת ניסיון בניהול/Tech Lead
- 4 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח עם Cloud
- ניסיון בפיתוח ב- Python / JAVA המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8453376
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אצלנו באגף ארגון ושיטות חיים ונושמים תהליכים חכמים ושיפור מתמיד.
אנחנו מגייסים בודק/ת דאטה עם עין חדה, חשיבה אנליטית ואהבה לפרטים הקטנים, כי שם מתחבאת האיכות האמיתית.
 
במסגרת התפקיד -
בדיקה, ניתוח ווידוא שהתהליכים והמערכות באגף פועלים באופן תקין.
כתיבת תרחישי ותסריטי בדיקה בהתאם למסמכי אפיון בתחום דאטה.
איתור, תיעוד ומעקב אחר תקלות ושגיאות עד לפתרונן.
עבודה צמודה עם מהנדסים, מנתחי מערכות, וצוותי פיתוח.
דרישות:
מה אנחנו מחפשים?
ניסיון של שנתיים ומעלה בבדיקות על DB ומסדי נתונים - חובה
ניסיון מעשי ב- SQL ברמה גבוהה - חובה
ניסיון בעבודה עם מסדי נתונים גדולים חובה
ניסיון בבדיקות ידניות ואוטומציה חובה
ניסיון ב - Tableau יתרון משמעותי
הבנה של תהליכים עסקיים מורכבים - יתרון
 

משרה מלאה, ימים א'-ה' 8.5 שעות
יום עבודה מהבית לאחר תקופת ההכשרה
רמת גן, מתחם הבורסה צמוד לרכבת סבידור מרכז ולרכבת הקלה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8356408
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים ביערה פיינר-אבחון והשמה
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה יזמית יזמית ציבורית גלובלית דרוש/ה
אנליסט/ית דאטה לצוות האנליטיקה ומערכת ניהול האנרגיה (EMS).

מיקום: מרכז הארץ

ה-EMS מהווה את המוח התפעולי של אתרי החברה אחראי על אופן ייצור האנרגיה, אגירתה, מסחר והזרמה לרשת. התפקיד כולל עבודה אנליטית שמשפיעה באופן ישיר על ביצועים, יציבות והכנסות הפרויקטים.

תחומי אחריות:
ניתוח נתונים תפעוליים ונתוני שוק לזיהוי פערי ביצועים, חוסר יעילות והזדמנויות לאופטימיזציה.
חקירת שורש חריגות בייצור, זמינות והכנסות, והפקת תובנות והמלצות אופרטיביות.
אחריות מקצה לקצה על דוחות, דשבורדים ותהליכי אוטומציה של נתונים ממערכות EMS, SCADA ומקורות חיצוניים.
תמיכה ושיפור תהליכי קבלת החלטות במערכת EMS להגדלת יעילות, יציבות ותפוקת אנרגיה.
יישום, מעקב וניטור אופטימיזציה תוךיומית (Intraday) לצורך מקסום הכנסות.
עבודה שוטפת מול צוותי הנדסה, תפעול ומסחר להטמעת תובנות אנלטיות בשטח
דרישות:
תואר ראשון בהנדסה / מדעי הנתונים / תחום כמותי רלוונטי.
ניסיון של 23 שנים כ- data Analyst / BI Analyst.
שליטה גבוהה ב- Python ו-SQL (יתרון ל- SQL server ).
ניסיון בעבודה עם כלי BI כגון Power BI או Tableau.
היכרות עם APIs, אוטומציות וData Pipelines.
חשיבה אנליטית חזקה, ירידה לפרטים ותחושת בעלות.
יכולת עבודה עצמאית ובממשקים מרובים, כישורי תקשורת מצוינים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8459515
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לארגון מוביל בת"א דרוש/ה data Engineer לתפקיד פיתוח תהליכי שינוע נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע במערכת salesforce
קריאת נתונים ממקורות data שונים: data Lake, Kafka, MongoDB
פיתוח ותחקור נתונים באמצעות SQL
ביצוע בדיקות Unit / Integration
עבודה בסביבה מרובת מפתחים מול Artifactory
פיתוח data Pipelines לפלטפורמת salesforce
דרישות:
מעל שנתיים ניסיון בעולמות Big Data, בדגש על Hive
יכולת כתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בתהליכי CI/CD
ניסיון בעבודה מול Control-M

יתרון משמעותי
ניסיון בעבודה עם Talend
היכרות עם salesforce
היכרות עם Quilliup המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בOne data
מיקום המשרה: מספר מקומות
התפקיד כולל אחריות על קליטה ועיבוד של כמויות נתונים גדולות ממקורות מגוונים, הבנת עומק של הדאטה ובחינתו יחד עם data Scientists, וכן עיצוב ופיתוח של תהליכי דאטה קריטיים בסביבות ענן וon-prem.
דרישות:
ניסיון של לפחות 3 שנים כ data engineer - חובה
ניסיון של 3 שנים עם Python בדגש על עבודה עם קבצי json  ועבודה מול בסיסי נתונים חובה
ניסיון מעשי של שנתיים לפחות ב AWS חובה
עבודה מול קבצי טקסט למטרות AI ו LLM יתרון משמעותי
ניסיון מעשי עם Spark עבור Large scale data -יתרון משמעותי
הבנות של טכניקות של אופטימיזציה ועבודה עם partitions של סוגים שונים של דאטה כמו parquet, Avro, hdfs, delta lake
ניסיון בתפיסה ועבודה עם docker, Linux, CI/CD tools, Kubernetes
הכרות עם פתרונות GenAI / prompt engineering יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8292310
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בOne data
מיקום המשרה: מספר מקומות
לתפקיד מאתגר ומלא אחריות בעולם הדאטה והייצור, אנו מחפשים Analytics Engineer שיצטרף לצוות הדאטה שלנו וינהל פרויקטי דאטה מקצה לקצה עבור אתר ייצור גדול בצפון הנגב.
עבודה עם טכנולוגיות מתקדמות.
דרישות:
ניסיון כAnalytics Engineer / מפתח/ת BI / data Engineer בתפקיד end-to-end כ-3 שנים - חובה.
שליטה מצוינת בSQL - חובה.
ניסיון מעשי עם dbt חובה.
ניסיון בסביבת AWS (יתרון משמעותי לRedshift, S3, Lambda, Glue) - חובה.
ניסיון עם Power BI וDAX - חובה.
היכרות עם עולמות ייצור / אחזקה / תפעול יתרון גדול, ניסיון במפעל תעשייתי יהווה בונוס משמעותי
יכולת עבודה עצמאית גבוהה, גישה של Can-do ושירותיות
יכולת ניהול לו"ז והערכה של זמני עבודה
היכרות עם SAP / Pi יתרון
יכולת עמידה בלו"ז והערכה של זמני עבודה
הכרות עם SAP, Pi - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8422269
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.
This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
35 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS-based data technologies.

Experience in building and maintaining advanced data pipelines from various data sources.

Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI, Tableau.
Experience with scripting/coding languages such as Python.
Ability to work independently, with attention to detail and strong initiative.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8236697
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתל אביב המפתחת מוצר AI דרוש/ה backend data engineer.
במסגרת התפקיד: פיתוח backend בשילוב data ברמה גבוהה במיוחד,
פיתוח Python בשילוב טכנולוגיות data כולל Kafka Hive Airflow,
עבודה שכוללת שילוב של מספר טכנולוגיות כולל JAVA Scala ועבודה מרובה
מול בסיסי נתונים.
דרישות:
תואר ראשון טכנולוגי - חובה
6 שנות ניסיון בעולמות backend - חובה
רקע של שנתיים בפיתוח data - חובה
ניסיון מעמיק מאוד ב- Python - חובה
רקע ב-Scala או JAVA
ניסיון בטכנולוגיות data מתקדמות - חובה
רמה אישית מעולה
אנגלית ברמה גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8450791
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת SaaS חזקה ומבוססת כלכלית דרוש/ה Senior Python data Developer.
במסגרת התפקיד: עבודה במשלבת פיתוח backend ברמה גבוהה במיוחד יחד עם שימוש
אקטיבי וקבוע בטכנולוגיות data, שימוש ב- Python Kafka Spark Hive וכן עבודה לעיתים
בפיתוח GO יחד עם DB מתקדמים במיוחד.
דרישות:
תואר ראשון טכנולוגי - חובה
רקע עשיר בפיתוח backend - חובה
עדיפות לגדולה לניסיון בפיתוח Python
יתרון לניסיון בפיתוח GO
רקע בפיתוח בטכנולוגיות data - חובה
ניסיון מחברות גלובליות
אנגלית טובה ברמת שיחה שוטפת המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8435093
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בOne data
הובלת הקמה של פלטפורמת דאטה חדשה (Greenfield), Cloud-Native וServerless-first
תכנון ופיתוח תשתיות דאטה על גבי Azure או AWS
בניית תהליכי Ingestion, ETL, Feature Engineering וEmbeddings
הובלת איכות נתונים, Lineage, Observability וSLA
עבודה עם Lakehouse: Delta / Iceberg / Hudi
הקמה ותחזוקה של CI/CD וInfrastructure as Code (Terraform / Bicep / CloudFormation)
יישום Best Practices של אבטחה, FinOps ואופטימיזציית עלויות
עבודה צמודה עם צוותי פיתוח וData Science
דרישות:
5+ שנות ניסיון בפלטפורמות דאטה בענן (Azure / AWS)
מומחיות בארכיטקטורות Serverless
שליטה גבוהה בPython וSQL
ניסיון בכלי data Quality (Great Expectations / Deequ)
ידע בCI/CD, IaC, אבטחה ורשתות
אנגלית ועברית ברמה גבוהה
ניסיון בדאטה גרפי יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8457338
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 19 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a highly motivated and experienced Data Engineering Team Lead to guide a global team responsible for building and maintaining the data infrastructure that powers our products. This team collaborates closely with software engineers, data scientists, product managers, analysts, and external partners to deliver scalable, high-quality data solutions that drive business impact.

Key Responsibilities

Lead a global team of software engineers, centered in Israel, operating under the Agile Scrum methodology.
Own the teams execution, quality, and alignment to data architecture and company-wide engineering standards.
Work together with product managers to define priorities for each sprint and align engineering efforts to business goals.
Guide the teams involvement in cross-functional projects alongside Software, ML, Analytics, and Partner teams.
Ensure secure, reliable, and efficient access to internal and third-party data sources across all products.
Actively participate in roadmap planning, resource allocation, and technical design reviews.
Provide mentorship, technical guidance, and growth opportunities to team members.
Requirements:
5+ years of hands-on experience in data engineering, with at least 2 years in a team or technical leadership role.
Strong technical background in building and maintaining production-grade data pipelines using tools like Airflow, Spark, Kafka, or similar.
Excellent communication skills, with the ability to clearly convey technical ideas to both technical and non-technical stakeholders.
Strong cross-functional collaboration skills, including working directly with product managers on sprint planning and aligning engineering with business priorities.
Proven experience working with both structured and unstructured data, including RDBMS and NoSQL solutions.
Deep understanding of cloud-based data platforms (preferably AWS) and infrastructure as code.

Nice to have:
Familiarity with ML pipelines, feature stores, and supporting data scientists in production environments.
Familiarity with Generative AI tools such as Cursor, GitHub Copilot, Claude Code or similar technologies.
Strong grasp of data security, reliability, and compliance practices.
Exposure to real-time or near-real-time data systems in mobility, IoT, or similar domains.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8460082
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
the Senior Data Engineer position is a central role in the Tech Org. The Data Engineering (DE) team is a Change Agent Team that plays a significant role in the ongoing (at advanced stages) migration of to cloud technologies. The ideal candidate is a senior data engineer with a strong technical background in data infrastructure, data architecture design and robust data pipes building. The candidate must also have collaborative abilities to interact effectively with Product managers, Data scientists, Onboarding engineers, and Support staff.
Responsibilities:
Deploy and maintain critical data pipelines in production.
Drive strategic technological initiatives and long-term plans from initial exploration and POC to going live in a hectic production environment.
Design infrastructural data services, coordinating with the Architecture team, R&D teams, Data Scientists, and product managers to build scalable data solutions.
Work in Agile process with Product Managers and other tech teams.
End-to-end responsibility for the development of data crunching and manipulation processes within the product.
Design and implement data pipelines and data marts.
Create data tools for various teams (e.g., onboarding teams) that assist them in building, testing, and optimizing the delivery of the product.
Explore and implement new data technologies to support data infrastructure.
Work closely with the core data science team to implement and maintain ML features and tools.
Requirements:
B.Sc. in Computer Science or equivalent.
7+ years of extensive SQL experience (preferably working in a production environment)
Experience with programming languages (preferably, Python) a must!
Experience with "Big Data" environments, tools, and data modeling (preferably in a production environment).
Strong capability in schema design and data modeling.
Understanding of micro-services architecture.
Familiarity with Airflow, ETL tools, Snowflake, and MSSQL.
Quick, self-learning and good problem-solving capabilities.
Good communication skills and collaborative.
Process and detailed oriented.
Passion to solve complex data problems.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8459882
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Rishon Letsiyon
Job Type: Full Time
A fast-growing fintech AI start-up company, focused on eliminating fraud and chargebacks in online commerce, is looking for an experienced Senior Data Engineer.
In this Roll, you will build large-scale, cutting-edge data solutions for fraud prevention, with the potential to grow into a technical leadership role.
The company is located in Modi'in, central Israel. Hybrid work model.
Responsibilities
Build and maintain scalable data pipelines and ETL processes.
Design complex data models and optimize data architecture.
Collaborate with teams to deliver high-quality, compliant solutions.
Troubleshoot production issues and implement best practices.
Recommend new technologies to enhance the data infrastructure.
Requirements:
Must Haves:
5+ years in data engineering with strong Python & software engineering skills
Extensive experience with cloud platforms (AWS, GCP, Azure) and cloud-native architectures
Deep knowledge of relational (PostgreSQL) and NoSQL databases
Experience designing and implementing data warehouses and data lakes
Strong understanding of data modeling techniques
Expertise in data manipulation libraries (e.g., Pandas) and big data frameworks
Experience with data validation tools (Pydantic, Great Expectations)
Proficiency in writing and maintaining unit and integration tests (e.g., Pytest)
Nice to Haves / Advantage:
Apache Iceberg, Apache Spark, or modern data stack tools (DBT, DuckDB, Dagster, Airflow, Prefect)
Backend system design: RESTful APIs, microservices, event-driven systems, RabbitMQ, Kafka
Containerization & IaC: Docker, Kubernetes, Terraform
Stream processing: Kafka, Flink
Knowledge of compliance (GDPR, CCPA)
Mentoring or leading small teams
Excellent communication and ability to explain technical concepts clearly
Relevant cloud or data certifications.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8458254
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
What Youll Be Doing:
Help improve our analytics practices by gathering better data, making it more trustworthy and accessible, and nurturing a top-grade data culture across the company.
Design, develop, scale, and optimize the data pipelines, ETLs and various data models.
Use SQL, DBT, Python and any other relevant tools and technologies.
Identify blind spots in how we use data and lead initiatives to illuminate them.
Collaborate with various stakeholders across the company to translate requirements into high-quality data pipelines and models.
We are currently rebuilding and redesigning much of our tech-stack and processes. Play a major role in designing the future data-work within the company.
Requirements:
Have 5+ years of experience as a BI Developer or Data Engineer including ETL design, implementation, optimization and maintenance.
Very strong understanding of business processes and the ability to translate business needs into relevant data products.
An independent, self-motivated learner with a strong passion for data.
Experienced in writing complex SQL queries, Data Modeling and working with DBT.
Experience analyzing user behavior and modeling data.
Proven track record of merging multiple data sources to develop a single source of truth for reporting/analysis/research needs.
Experience preparing data for business intelligence tools such as Tableau, Looker, or similar platforms.
Bachelors or Masters Degree in Computer Science, Information Systems or a related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8456760
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Haifa
Job Type: Full Time
We seek a highly skilled and experienced Solution Architect with a deep understanding of Data and operations to join our team. In this role, you will be responsible for designing and implementing data-centric solutions that enable our customers to achieve their business objectives, with a strong focus on building efficient and reliable ETL pipelines. You will work closely with clients to understand their needs, translate them into technical requirements, and architect scalable, reliable, and secure data pipelines.
Key Responsibilities:
Collaborate with clients to gather requirements and understand their data
challenges.
Design and implement end-to-end DataOps solutions, including data
ingestion, processing, storage, and analysis.
Leverage cloud technologies and best practices to architect scalable and
cost-effective data architectures.
Ensure data quality, integrity, and security throughout the data lifecycle.
Automate data pipelines and workflows to improve efficiency and reduce
manual effort.
Stay up-to-date with the latest DataOps trends and technologies.
Provide technical guidance and mentorship to other team members.
Requirements:
Proven experience as a Solution Architect or in a similar role, with a strong focus on DataOps.
Deep understanding of data management principles, data modeling, and ETL processes.
Expertise in cloud technologies (AWS, Azure, GCP) and data platforms (Hadoop, Spark, Snowflake, Looker).
Strong knowledge of programming languages (Python, Java, Scala) and scripting languages (Bash, PowerShell).
Experience with DevOps tools and practices (CI/CD, containerization, orchestration).
Excellent communication and collaboration skills, with the ability to work effectively with both technical and non-technical stakeholders.
Strong problem-solving and analytical skills
Bachelors degree in Computer Science, Engineering, or a related field.
Additional Info:
Send us your CV in English and become part of our team!
Only short-listed candidates will be contacted.
Confidentiality of all applications is assured!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8456701
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are seeking a Data Engineer to join our dynamic data team. In this role, you will design, build, and maintain robust data systems and infrastructure that support data collection, processing, and analysis. Your expertise will be crucial in developing scalable data pipelines, ensuring data quality, and collaborating with cross-functional teams to deliver actionable insights.

Key Responsibilities:
Design, develop, and maintain scalable ETL processes for data transformation and integration.
Build and manage data pipelines to support analytics and operational needs.
Ensure data accuracy, integrity, and consistency across various sources and systems.
Collaborate with data scientists and analysts to support AI model deployment and data-driven decision-making.
Optimize data storage solutions, including data lakehouses and databases, to enhance performance and scalability..
Monitor and troubleshoot data workflows to maintain system reliability.
Stay updated with emerging technologies and best practices in data engineering.

Please note that this role is on a hybrid model of 4 days/week in our Tel-Aviv office.
Requirements:
Requirements
3+ years of experience in data engineering or a related role within a production environment.
Proficiency in Python and SQL
Experience with both relational (e.g., PostgreSQL) and NoSQL databases (e.g., MongoDB, Elasticsearch).
Familiarity with big data AWS tools and frameworks such as Glue, EMR, Kinesis etc.
Experience with containerization tools like Docker and Kubernetes.
Strong understanding of data warehousing concepts and data modeling.
Excellent problem-solving skills and attention to detail.
Strong communication skills, with the ability to work collaboratively in a team environment.

Preferred Qualifications:
Experience with machine learning model deployment and MLOps practices.
Knowledge of data visualization tools and techniques.
Practical experience democratizing the companys data to enhance decision making.
Bachelors degree in Computer Science, Engineering, or a related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8456661
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are hiring a Staff Data AI Lead to lead our AI initiatives.As a Staff Data AI Lead you will be responsible for leading SuperSonic organization AI integration efforts and serving as the bridge between advanced AI technologies and our business needs, implementing cutting-edge Data & AI technologies, creating AI-driven strategies and integrating innovative AI solutions across multiple platforms.
What you'll be doing
Develop and execute AI strategies aligned with business objectives
Advise leadership on AI capabilities and potential applications
Guide teams in adopting AI tools and methodologies
Ensure ethical and efficient implementation of AI technologies
Design and oversee AI-driven process improvements
Collaborate with various departments to identify AI opportunities
Stay current with the latest AI trends and advancements
Conduct AI-related training and workshops for staff
Manage AI projects from conception to implementation
Evaluate and recommend AI tools and platforms
Leading a team of AI engineers.
Requirements:
Deep understanding of AI technologies, including large language models
Expertise in prompt engineering and AI-powered automation
Proficiency with AI tools such as ChatGPT, Claude, Midjourney, and Copilot
Knowledge of AI ethics and regulatory considerations
Strong problem-solving and analytical skills
Proficiency with Python or TypeScript for building AI workflows and data pipelines
Excellent communication and leadership abilities
Ability to translate complex AI concepts for non-technical audiences
Experience in project management and cross-functional collaboration
You might also have
Advanced degree in Computer Science, AI, or related field
Previous experience in AI implementation within an organizational setting
Certifications in relevant AI technologies or platforms
Familiarity with no-code AI application development
Bachelor's degree in Computer Science, AI, or related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8454258
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands-on data infrastructure and platform engineer with proven leadership skills to lead and evolve our self-service data platform that powers petabyte-scale batch and streaming, near-real-time analytics, experimentation, and the feature platform. Youll guide an already excellent team of senior engineers, own reliability and cost efficiency, and be the focal point for pivotal, company-wide data initiatives- feature platform, lakehouse, and streaming.
Own the lakehouse backbone: Mature Iceberg at high scalepartitioning, compaction, retention, metadataand extend our IcebergManager in-house product to automate the lakehouse management in a self serve fashion.
Unify online/offline for features: Drive Flink adoption and patterns that keep features consistent and low-latency for experimentation and production.
Make self-serve real: Build golden paths, templates, and guardrails so product/analytics/DS engineers can move fast safely.
Run multi-tenant compute efficiently: EMR on EKS powered by Karpenter on Spot instances; right-size Trino/Spark/Druid for performance and cost.
Cross-cloud interoperability: BigQuery + BigLake/Iceberg interop where it makes sense (analytics, experimentation, partnership).
What you'll be doing
Leading a senior Data Platform team: setting clear objectives, unblocking execution, and raising the engineering bar.
Owning SLOs, on-call, incident response, and postmortems for core data services.
Designing and operating EMR on EKS capacity profiles, autoscaling policies, and multi-tenant isolation.
Tuning Trino (memory/spill, CBO, catalogs), Spark/Structured Streaming jobs, and Druid ingestion/compaction for sub-second analytics.
Extending Flink patterns for the feature platform (state backends, checkpointing, watermarks, backfills).
Driving FinOps work: CUR-based attribution, S3 Inventory-driven retention/compaction, Reservations/Savings Plans strategy, OpenCost visibility.
Partnering with product engineering, analytics, and data science & ML engineers on roadmap, schema evolution, and data product SLAs.
Leveling up observability (Prometheus/VictoriaMetrics/Grafana), data quality checks, and platform self-service tooling.
Requirements:
2+ years leading engineers (team lead or manager) building/operating large-scale data platforms; 5+ years total in Data Infrastructure/DataOps roles.
Proven ownership of cloud-native data platforms on AWS: S3, EMR (preferably EMR on EKS), IAM, Glue/Data Catalog, Athena.
Production experience with Apache Iceberg (schema evolution, compaction, retention, metadata ops) and columnar formats (Parquet/Avro).
Hands-on depth in at least two of: Trino/Presto, Apache Spark/Structured Streaming, Apache Druid, Apache Flink.
Strong conceptual understanding of Kubernetes (EKS), including autoscaling, isolation, quotas, and observability
Strong SQL skills and extensive experience with performance tuning, with solid proficiency in Python/Java.
Solid understanding of Kafka concepts, hands-on experience is a plus
Experience running on-call for data platforms and driving measurable SLO-based improvements.
You might also have
Experience building feature platforms (feature definitions, materialization, serving, and online/offline consistency).
Airflow (or similar) at scale; Argo experience is a plus.
Familiarity with BigQuery (and ideally BigLake/Iceberg interop) and operational DBs like Aurora MySQL.
Experience with Clickhouse / Snowflake / Databricks / Starrocks.
FinOps background (cost attribution/showback, Spot strategies).
Data quality, lineage, and cataloging practices in large orgs.
IaC (Terraform/CloudFormation).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8454253
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a talented and experienced Data Engineer to join our data group.
The team is responsible for processing and transforming data from multiple external sources while building and maintaining an internal serving platform. Our key challenges include operating at scale, integrating with diverse external interfaces, and ensuring the data is served in a consistent and reliable manner.
Responsibilities
Designing and implementing our data platform
Transforming, modeling, and serving all our medical data.
Utilize data best practices, to improve the product and allow data-driven decision-making.
Collaborate closely with cross-functional teams to understand business requirements and translate them into data-driven solutions.
Stay updated with the latest research and advancements in the data field.
Requirements:
5+ years of experience in software development, with at least 3 years as a data engineer.
Proven track record designing and implementing scalable ETL/ELT data pipelines.
Strong SQL skills.
Experience with relational and analytical data platforms (e.g., PostgreSQL, Snowflake, data lakes).
Strong coding skills (preferably in Python), with prior software engineering experience (e.g., API development) a plus.
Experience with cloud environments, AWS preferable.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8452349
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a talented Architect to join us. As a Data Architect, you will be the organizational point of contact for all things related to data persistence and architecture. You will work closely with engineering teams across the Product, Platform, and Data groups to design, govern, and evolve our data models, databases, and data-related systems. Your goal will be to ensure scalability, reliability, security, and efficiency for all data storage and retrieval across the organization.
A few of the things you will do:
Be the primary point of contact and subject matter expert for data persistence across the entire engineering organization.
Define and govern the data architecture strategy, standards, and best practices for relational, NoSQL, and data warehouse systems.
Partner with engineering teams from product, platform, and data groups to design and implement scalable and robust data models for new and existing services.
Lead the design and optimization of the organizations data flows. You will help to ensure that data moves efficiently, consistently, and with high quality across all systems and domains.
Evaluate and recommend new technologies and data solutions to meet evolving business needs.
Drive initiatives to improve data quality, consistency, and integrity across all production systems, from ideation to hands-on execution.
Establish, maintain, and communicate documentation for all data models and architectural decisions.
Requirements:
8+ years of experience in software engineering, with at least 3+ years in a dedicated Data Architect or Principal Database Engineer role.
Deep expertise in designing and scaling complex transactional and analytical data systems (e.g., PostgreSQL, MySQL, NoSQL databases like Cassandra or MongoDB).
Strong understanding of distributed systems, microservices architecture, and their impact on data persistence.
Excellent collaboration and communication skills, with the ability to influence technical decisions across the organization.
Grasp of the big picture: we are on a mission to improve the way our users work and to revolutionize the entire events industry.
Team player with strong communication skills, an egoless and transparent approach, and a positive attitude.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450581
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Rishon Letsiyon
Job Type: Full Time
We're looking for a DataOps Engineer to join our DataOps team, part of the DevOps & Infrastructure group. In this role, you will ensure the performance, reliability, and scalability of our large-scale (multi-terabyte) database systems that underpin the platform. You will be implementing best practices for database infrastructure, improving complex query performance, security, and maintenance. If you are passionate about data, building complex infrastructure and collaboration in a fast-paced environment, this role will be a great fit for you.
How Youll Spend Your Day
Manage, maintain and monitor our ClickHouse, Microsoft SQL Server, PostgreSQL, and OpenSearch databases, ensuring HA, backups, and proper security measures to protect data integrity
Use scripting tools (Python, Bash, PowerShell) to automate regular database and CI/CD tasks.
Collaborate closely with R&D, Security, and Product teams to enhance data infrastructure
Help plan migrations or deployments of database systems to the cloud when needed
Requirements:
3+ years Experience as a DataOps Engineer
Experience with NoSQL databases (OpenSearch, Mongo, ClickHouse) - a must
Experience with RDBMS (MSSQL, PostgreSQL) on cloud environments (Azure, AWS)
Proven experience in managing and optimizing large-scale databases (hundreds of GB to multi-terabyte)
Strong background in database infrastructure, architecture and schema design
Proficiency in at least one scripting language or tool (Bash, PowerShell, or Python)
Experience with CI/CD tools such as Azure DevOps, Liquibase
Ability to work independently and off standard hours when required
Hands-on experience creating or supporting BI reports using SQL
Strong communication and teamwork skills
Experience with linux systems and Docker - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450580
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Rishon Letsiyon
Job Type: Full Time
Were looking for an experienced Data Engineer to join our DEX Platform and help drive the next stage of our growth. In this role, youll design, build, and scale data infrastructure and advanced processing pipelines that power real-time insights and intelligent automation across our platform.
As a senior data engineer, youll own the full service lifecyclefrom architecture and development to deployment, monitoring, and scalingwhile ensuring data quality, reliability, and compliance. Youll work closely with backend, AI, and data teams to deliver robust, production-ready systems that support our AI-first strategy and our mission to make the workplace run itself.
Requirements:
5+ years of backend/data engineering experience
Proficiency with Java (Vert.x, Spring or similar) - a must
Hands-on experience with Kafka and streaming frameworks like Kafka Streams, Flink, Spark, or Beam - a must
Solid understanding of microservices architecture and cloud platforms (Azure/AWS/GCP)
Familiarity with AI-first development tools (GitHub Copilot, Cursor) an advantage
Experience working in production-aware, observability-driven environments - monitoring troubleshooting, and optimizing
Knowledge of Postgres, Redis, MySQL or similar, Clickhouse
Experience in Node.js (NestJS/Express) - a big advantage
Strong foundation in object-oriented design, design patterns, and clean code practices
Comfortable designing, deploying, and maintaining backend services and data flows
Passion for learning, experimenting with new tech, and building reliable systems at scale
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450571
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Join a team that builds and operates the core data services behind products.
As a Senior Data Engineer, you will design, build and maintain:
Data pipelines and data services
Microservices and internal APIs
The infrastructure and tooling that keep our data systems reliable, observable, and scalable
This is a hands-on role that combines Data Engineering, Backend Development and DevOps.
Its ideal for someone who enjoys working across layers: from schema design and data flows, through microservice code, to Kubernetes, CI/CD and observability.
Responsibilities:
Design and maintain robust infrastructure for large-scale data processing and streaming systems.
Develop automation and deployment processes using CI/CD pipelines.
Build and operate Kubernetes-based environments and containerized workloads.
Collaborate with data engineers to optimize performance, cost, and reliability of data platforms.
Design and develop REST-API microservices.
Troubleshoot and resolve complex issues in production and staging environments.
Drive initiatives that enhance observability, scalability, and developer productivity.
Lead by example - share knowledge, mentor teammates, and promote technical best practices.
Requirements:
5 years of experience as a Data Engineer, Backend Developer, or DevOps.
5+ years of experience with Python/Java microservices (Flask, Spring, Dropwizard) and component testing.
Deep understanding of Kubernetes, Docker, and container orchestration.
Hands-on experience with CI/CD pipelines (e.g., Jenkins, GitHub Actions).
Proven experience with Snowflake, MySQL, RDS, or similar databases.
Familiarity with streaming systems(e.g., Kafka, FireHose), databases, or data pipelines.
Self-learner, proactive, and passionate about improving systems and automation.
Strong communication skills and a collaborative, team-oriented mindset.
Advantages:
Experience with Kafka, Airflow or other data processing tools.
Knowledge of Terraform, Pulumi, or other IaC frameworks.
Familiarity with Datadog, Prometheus or other observability tools.
Experience with AWS (Lambda, EKS, EC2, Step functions, SQS).
Working with or building AI-driven tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450513
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a highly skilled Senior Database Engineer to join our DBA team. In this role, youll design and optimize our large-scale database infrastructure while ensuring high availability, scalability, and performance. In your day-to-day, you will:
Design and optimize our large-scale database infrastructure to meet high availability and performance standards
Identify cost-effective areas for improvement in current databases
Collaborate with developers and software architects to model, create, and maintain robust data structures and the data layer
Lead and execute technical database-related POCs and benchmarks
Conduct regular audits of database design to ensure quality and compliance with service level agreements (SLAs)
Quickly identify and resolve critical production issues and provide on-call support as needed.
Requirements:
10+ years of hands-on production experience with MySQL, MongoDB, RDBMS, and NoSQL databases
Proven track record as a Senior Database Engineer, Technical Leader, or DBA TL with significant experience leading major database initiatives
Strong expertise in Data Solution Architecture, including high availability, scalability, backups, and disaster recovery (DR), data modeling, performance tuning, as well as conducting POCs and benchmarks
Experience with cloud platforms such as AWS and/or GCP and their data products
Fast learner with extensive infrastructure knowledge of Unix/Linux systems
Excellent interpersonal communication skills to collaborate effectively with professionals across various departments
Passion for automation, experience with tools like Ansible/Jenkins/Puppet/Chef an advantage
Knowledge of AI technologies and their applications in database management or optimizations, including experience with AI-driven analytics or machine learning models an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450482
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
08/12/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Data Engineering Lead to own and scale data platform infrastructure

Build our new data Lakehouse to support various product and business needs
Support cutting-edge AI Agents and cybersecurity use cases
Be part of the Data and AI Algorithms group
Collaborate closely with dev teams, AI/ML engineers, security researchers and business teams
Ensure the availability, reliability and quality of our data infrastructure
Help define best practices for data modeling and orchestration at scale
Requirements:
6+ years of hands-on experience in building, modelling and managing data warehouse at scale - Must
Production experience with big-data distributed systems such as Apache Spark, Ray or similar - Must
Hands-on with modern data lakes and open table formats (Delta Lake, Apache Iceberg) - Must
Experience in batch and streaming processing pipelines - Must
Strong coding skills in Python. Strong CI/CD and infrastructure-as-code capabilities.
Experience with cloud-native data services (e.g., AWS EMR, Athena, Azure Data Explorer etc.).
Familiarity with orchestration tools like Airflow, Kubeflow, Dagster or similar
Excellent communication skills, ownership mindset, and problem-solving capabilities
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8448818
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו