רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
סוג משרה: משרה מלאה
חברת הייטק בינלאומית ומובילת שוק בתחומה מחפשת Senior SQL Server DBA שיקח/תקח חלק בהובלת הצוות, י/תוביל קו חשיבה מקצועי כדמות אסקלטורית ויטמיע/תטמיע מתולוגיות עבודה לחברי הצוות.

במסגרת התפקיד
- DB administration Performance Tuning 
 ביצוע פעולות מתוזמנות ופרודוקטיביות לצורך איתור ומניעת בעיות.
-הסמכה לעבודה עם מערכת AimBetter המוצר שלנו לניהול ותחקור בעיות, ולשמש גורם משפיע בצוות באמצעות שיתוף ידע, הכנה והטמעת מתודולוגיות עבודה בקרב חברי הצוות.

משרה מלאה ממשרדי החברה באשקלון, ימים א-ה
כוננות לילה וסופשים מהבית (במקרי תקלות בלבד) 
לאחר חצי שנה, אפשרות ליום עבודה מהבית.

תנאים טובים למתאימים/ות, אווירה מקצועית, חמימה ומקצועית בעיקר!
דרישות:
- ניסיון מוכח בכתיבת קוד T-SQL ברמה גבוהה
  (Views, Triggers, Stored Procedures, Code Optimization)- חובה
- מומחיות בבנייה וטיוב אינדקסים וניסיון בעבודה עם Profiler- חובה
- ניסיון בהקמה ותחזוקה של מנגנוני HA וDR: Replication, Mirroring,
   Log  Shipping, Always On.
- עבודה עם SSIS, SSRS, DWH, BI, כולל קונפיגורציה בין גרסאות SQL.
- כתיבת אוטומציה (Replication, Backup, Always On) ושיפור ביצועים פרוצדורליים.
-יכולת ניתוח בעיות קוד קיימות והבנה בארכיטקטורת מער', עבודה מול צוותי פיתוח וCTO.
- ידע מעמיק בתשתיות מסדי נתונים, פתרון תקלות, קריפטוגרפיה ועקרונות תכנון DB.
- התקנה, הגדרה ותחזוקה של שרתי MSSQL.
- אוריינטציה שירותית ויכולת התבטאות גבוהה בעברית ובאנגלית (בכתב ובע"פ).
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8396128
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בהקואליציה הישראלית לטראומה
סוג משרה: משרה מלאה
לעמותת "הקואליציה הישראלית לטראומה" הממוקמת בנווה אילן, (סמוך לירושלים)
(נדרשת ניידות)

דרוש/ה: דרוש/ה רכז/ת מערך תפעול חשבונאי מרכז חוסן ארצי
היקף המשרה:
משרה מלאה (100%)
ימים א'-ה'

תיאור התפקיד:
1. טיפול בדיווחי דרישות חודשיות חשבונאים של הארגונים השותפים:
בדיקה וטיפול בחשבוניות.
קליטת דרישות תשלום חודשיות למערכת הנהלת חשבונות.
מעקב תקינות מתהליך הדרישה עד התשלום.
ניהול ריג'קטים מול הנהלת חשבונות וביטוח לאומי.
ניהול פיננסי, דיווחים ותשלומים.

2. ניהול מערכות המידע והתפעול של מרכז החוסן הארצי:
הקמת משתמשים חדשים וניהול הרשאות
ניהול הדאטה, ייצוא וייבוא נתונים
הדרכות מערכת למשתמשים חדשים
ניהול תקלות ומתן מענה טכני למשתמשים
עבודה מול שירות התמיכה של הטיפולוג

3. ניהול נתונים ואנליזה:
שליטה מעולה באקסל, כולל שימוש מתקדם בפונקציות VLOOKUP ויצירת טבלאות ציר (Pivot Tables)
איסוף, עיבוד וניתוח כמויות גדולות של נתונים מארגונים שונים.
חשיבה אנליטית ויכולת לזהות מגמות ותובנות מנתונים
ניהול דשבורד של מוקד חוסן ארצי
הפקת דוחות מורכבים והצגת נתונים
דרישות:
תואר ראשון -יתרון
ידע בהנהלת חשבונות - חובה
תעודה של דאטה אנליסט -יתרון
ניסיון בעבודה עם כלי BI כמו Tableau או Power BI
היכרות עם מושגים סטטיסטיים בסיסיים
מוסר עבודה גבוה ויחסי אנוש מצוינים
הערה: אין צורך בידע בשפות תכנות כמו Python או SQL. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8402311
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים בOne data
הזדמנות להשתלב בארגון גדול ודינמי, עם מאות משתמשים, הנמצא בתנופת עשייה ומעבר לטכנולוגיות חדשניות ומתקדמות!
הצטרף/י לצוות BI שאחראי על תפעול, פיתוח והובלת פרויקטים משמעותיים משלב האפיון ועד ליישום והטמעה מלאה של פתרונות דאטה ובינה עסקית.
במסגרת התפקיד:
אפיון דרישות עסקיות ומיפוי נתונים
הגדרת תהליכי ETL ותרשימי ERD
פיתוח ותחזוקת pipelines בסביבת data Lake
פיתוח דשבורדים ודוחות במערכות BI
מתן מענה שוטף לדרישות עסקיות, תקלות, ופרויקטים
עבודה עם טכנולוגיות מתקדמות בסביבת ענן
דרישות:
לפחות 8 שנות ניסיון בבניית ותחזוקת data Pipelines מקצה לקצה
ניסיון עם כלי SAP חובה
ניסיון עם Databricks ו-Snowflake חובה
שליטה מעמיקה ב-SQL (כולל stored procedures, Indexing, Performance Tuning)
ניסיון בפיתוח תהליכי שינוע נתונים בעולמות רלציוניים
ניסיון בכלי תשתית: SSIS, SAP -DI / SAP -DS, SQR
עבודה עם תהליכי CI/CD
ניסיון בעבודה בסביבת ענן AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8395320
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
תפקיד מנהל בסיסי נתונים ( ( DBA ) ) כולל אחריות על פיתוח תשתיות ותחזוקת מערכות נתונים שונות בארגון, כולל טיפול תקלות, כוונון ביצועים, גיבוי ושחזור נתונים. המשרה דורשת עבודה עם סוגי בסיסי נתונים שונים ודורשת ידע נרחב בניהול בסיסי נתונים מודרניים ובביצוע משימות יומיות של ( DBA ).
דרישות:
ניסיון רב עם MongoDB - ידע מתקדם בניהול, אופטימיזציה ותחזוקת בסיסי נתונים מסוג NoSQL.
היכרות עם InfluxDB - יתרון משמעותי לניסיון עם בסיסי נתונים של סידורי זמן לאחסון וניתוח נתונים בזמן אמת.
יכולת לאופטם ותחזוק בסיסי נתונים מסוג NoSQL ו-SQL.
ניסיון בניהול גיבויים, שחזור נתונים ופתרון תקלות.
ניסיון במערכות בסיסי נתונים עם זמינות גבוהה.
היכרות עם קונטיינרים ומיקרוסרביסים בסביבת Kubernetes.
היכרות עם Helm.
היכרות עם SQL server - יתרון.
ניסיון עם MySQL ו-PostgreSQL - יתרון.
יכולת עבודה עם כלי ניטור ומערכות התראה.
ניסיון באוטומציה של סקריפטים לשיפור תהליכים (Bash, PowerShell, Python ) - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8316031
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון ממשלתי במרכז הארץ מגייס חוקר/ת איומי סייבר בתחום מדעי הנתונים
במסגרת התפקיד: אפיון ויישום מערכות Big Data, פיתוח מודלים אנליטיים ואלגוריתמים לזיהוי אנומליות ומגמות במידע, שליפת נתונים ממאגרי מידע גדולים וניתוחם, הפקת תובנות מבוססות Machine Learning, עבודה שוטפת מול גורמי BI, מנהלי מוצר ומהנדסי נתונים לצורך יישום פתרונות מבוססי נתונים והעברתם לייצור ועוד.
דרישות:
- 3 שנות ניסיון בתחום הדאטה, מתוכן שנה כ- data Scientist
- ניסיון בעבודה עם Python ו-SQL, כולל פיתוח מודלים ואלגוריתמים לניתוח נתונים
- ניסיון בעבודה עם מערכות Big Data ו- ETL, ניהול ותחזוקת תהליכי עיבוד נתונים
- יכולת ניתוח סטטיסטי והבנה במודלים מתמטיים לזיהוי תובנות עסקיות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8400369
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה גדולה ויציבה באזור הצפון מגייסת data Engineer
התפקיד כולל: פיתוח והטמעה של תהליכי data Pipeline והזרמת מידע בין מערכות שונות, יישום לוגיקות עסקיות בפלטפורמת Splunk, התממשקות למערכות נוספות ועוד.
דרישות:
- שנתיים ניסיון כ- data engineer
- ידע וניסיון בעבודה עם מערכות Linux
- שליטה בשפות Scripting כגון: Python וShell
- הכרות עם מימוש יישומים מבוססי דאטה
- ניסיון בעבודה עם Splunk יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8399038
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים במלם תים
לתפקיד מאתגר בצוות data Warehouse אנו מחפשים מפתח/ת ETL מנוסה עבור גוף פיננסי מוביל.
התפקיד כולל פיתוח תהליכי ETL בכלי Talend ו-DataStage,כתיבת קוד PL/SQL בסביבת Oracle, ותחזוקת תהליכים בסביבת ייצור.
העבודה כוללת יישום פתרונות נתונים מורכבים, עבודה עם ממשקים מגוונים ושיתוף פעולה עם צוותים עסקיים וטכנולוגיים בארגון.
דרישות:
- ניסיון של לפחות 3 שנים בפיתוח תהליכי ETL בסביבת DWH
- ניסיון מוכח עם Talend, וכתיבת stored procedures /SQL מורכבות ב- Oracle
- ניסיון עם DataStage ועם מתזמן Control-M יתרון משמעותי
- השכלה טכנולוגית רלוונטית ויכולת עבודה בצוות ובאופן עצמאי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8327251
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון ממשלתי באזור השפלה מגייס מהנדס/ת תוכנה
התפקיד כולל: איסוף, אחסון ועיבוד נתונים מובנים ולאמובנים לצרכים אנליטיים, כולל פעולות של data Cleansing, פיתוח ותחזוקה של תהליכי ETL למאגרי מידע מגוונים, פיתוח data Pipelines תוך שימוש בטכנולוגיות מתקדמות ועוד.
דרישות:
- היכרות עם SQL, JSON ו-Postman
- הכרות עם Factors Success
- היכרות עם תחום HR ו-Domain המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8397275
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון ממשלתי בירושלים מגייס מהנדס/ת נתונים
התפקיד כולל: פיתוח, תחזוקה ושיפור תהליכי ETL, תכנון ויישום תהליכי אינטגרציה בין מערכות, מידול, טיוב והעשרת נתונים, עבודה עם בסיסי נתונים, כתיבת שאילתות מורכבות, אופטימיזציית ביצועים והשתתפות בפרויקטים בתחומי Big Data ואנליטיקה בשיתוף צוותי DBA, BI, data Science ועוד.
דרישות:
- 4 שנות ניסיון בהנדסת נתונים
- ניסיון בפיתוח ETL ועבודה עם כלי ETL
- ניסיון בבניית data Pipelines מורכבים
- שליטה גבוהה ב-SQL וכתיבת שאילתות מורכבות
- ניסיון עם Hadoop, Spark, Kafka / עבודה בענן יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8397238
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בHMS - הלפרין יועצים
מיקום המשרה: ירושלים
חברת הייעוץ hms מגייסת יועץ/ת דאטה וBI מנוסה להשתלבות בצוות הפיתוח ובהקמת תשתית דאטה ארגונית חדשה.
התפקיד כולל פיתוח ותחזוקה של תהליכי ETL, בניית data Pipelines, הקמת DWH, עבודה עם כלי Informatica, Power BI / Tableau ו-Vertica, ושיתוף פעולה עם צוותי BI, אנליזה ומוצר.
העבודה בסביבה טכנולוגית מתקדמת ובעלת השפעה ישירה על קבלת החלטות וחדשנות בארגון.
דרישות:
* לפחות 8 שנות ניסיון בעולם ה- BI, מתוכן 5 בתחום פיתוח תהליכי ETL ו- DWH.
* שליטה גבוהה מאוד ב-SQL
* ניסיון בעבודה עם Informatica או כלי ETL מקבילים
* ידע בארכיטקטורת BI ו- data Modeling
* השכלה רלוונטית- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8396750
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
דרושים בOne data
בנייה ואופטימיזציה של שאילתות Splunk ותהליכי Ingestion
עבודה עם Kafka, APIs לוגים ומקורות נוספים
העשרת נתונים בזמן אמת והקמת מערך התראות
שיתוף פעולה עם צוותי Dev, DevOps ומוניטורינג
דרישות:
לפחות 3 שנות ניסיון עם Splunk
ידע חזק בSPL - לוחות בקרה, מאקרו, ביצועים
ניסיון עם מערכות מבוססות אירועים (Kafka, REST APIs)
שליטה בJSON, XML ונתונים חצי-מובנים
סקריפטינג בPython או Bash
יכולת עבודה עצמאית והובלת פתרונות ברמת פרודקשן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8265056
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Shape the Future of Data - Join our mission to build the foundational pipelines and tools that power measurement, insights, and decision-making across our product, analytics, and leadership teams.
Develop the Platform Infrastructure - Build the core infrastructure that powers our data ecosystem including the Kafka events-system, DDL management with Terraform, internal data APIs on top of Databricks, and custom admin tools (e.g. Django-based interfaces).
Build Real-time Analytical Applications - Develop internal web applications to provide real-time visibility into platform behavior, operational metrics, and business KPIs integrating data engineering with user-facing insights.
Solve Meaningful Problems with the Right Tools - Tackle complex data challenges using modern technologies such as Spark, Kafka, Databricks, AWS, Airflow, and Python. Think creatively to make the hard things simple.
Own It End-to-End - Design, build, and scale our high-quality data platform by developing reliable and efficient data pipelines. Take ownership from concept to production and long-term maintenance.
Collaborate Cross-Functionally - Partner closely with backend engineers, data analysts, and data scientists to drive initiatives from both a platform and business perspective. Help translate ideas into robust data solutions.
Optimize for Analytics and Action - Design and deliver datasets in the right shape, location, and format to maximize usability and impact - whether thats through lakehouse tables, real-time streams, or analytics-optimized storage.
You will report to the Data Engineering Team Lead and help shape a culture of technical excellence, ownership, and impact.
Requirements:
5+ years of hands-on experience as a Data Engineer, building and operating production-grade data systems.
3+ years of experience with Spark, SQL, Python, and orchestration tools like Airflow (or similar).
Degree in Computer Science, Engineering, or a related quantitative field.
Proven track record in designing and implementing high-scale ETL pipelines and real-time or batch data workflows.
Deep understanding of data lakehouse and warehouse architectures, dimensional modeling, and performance optimization.
Strong analytical thinking, debugging, and problem-solving skills in complex environments.
Familiarity with infrastructure as code, CI/CD pipelines, and building data-oriented microservices or APIs.
Enthusiasm for AI-driven developer tools such as Cursor.AI or GitHub Copilot.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8397812
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructuresomeone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacksits about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakesdesigned for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Operate and debug object storebacked data lake infrastructure, enabling schema-on-read access, high-throughput ingestion, advanced searching strategies, and performance tuning for large-scale workloads.
Requirements:
24 years in software / solution or infrastructure engineering, with 24 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skillsyoull be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8384047
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are seeking a Big Data Engineer with at least 3 years of experience. A strong understanding of data structure is critical.
You will design, develop and maintain data systems, optimize pipelines, and ensure data integrity.
Data Engineers shape and improve leading mobile analytics solutions while using cutting edge technologies such as Scala, Spark, Hadoop, Astronomer, BigQuery, and many more.
What youll do
Own and develop our products and features end-to-end - from design to production
Collaborate with Product Managers and Software Engineers to deliver complex products.
Develop and maintain scalable data pipelines.
Implement ETL processes and data integration.
Optimize data performance and ensure security.
Requirements:
B.Sc. in computer science or an equivalent.
3+ years in Big Data engineering.
Proficiency in Spark or similar.
Strong programming skills (Scala, Python).
Experience in analyzing data and working with SQL.
Experience with cloud platforms (preference to AWS / GCP).
A get-things-done approach
Bonus points
Experience in building APIs for server-client applications.
Experience with data warehousing solutions.
Recommended by an employee.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8369720
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for a skilled and motivated Big Data Engineer to join our backend data infrastructure team. You will be at the core of Finals data ecosystem, building and maintaining high-performance data services and pipelines that support both real-time and batch workloads. Your work will directly impact how data is accessed and leveraged across the company from live production environments to ML training pipelines. You will design and maintain systems that span hybrid infrastructure (on-prem and cloud), and ensure our data platform is fast, reliable, and scalable. We value engineers who are curious, open-minded, and excited to learn new technologies and practices as the landscape evolves.



As a Big Data Engineer, you will:

Design, implement, and maintain backend services for managing and processing large-scale data.
Build and operate production-grade data pipelines and infrastructure.
Develop utilities ,libraries and services to support high-throughput data retrieval and access patterns.
Ensure observability, stability, and performance of data services in hybrid (cloud/on-prem) environments.
Monitor and troubleshoot issues in live systems and continuously improve their robustness.
Work cross-functionally to ensure data is accessible, well-modeled, and easy to consume by other teams.
Requirements:
Strong programming experience in at least one of the following: C++, Java, Rust, .NET, or Python.
Experience working with python data analytics libraries (such as numpy, pandas, polars).
Experience working on backend services or data-intensive applications.
Understanding of distributed systems, data pipelines, and production monitoring.
Experience in hybrid infrastructure environments (on-prem + cloud).
An open-minded technologist with a willingness to learn and adopt new technologies and best practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8368238
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
01/10/2025
Location: Netanya
Job Type: Full Time
we are a global pioneer of RADAR systems for active military protection, counter-drone applications, critical infrastructure protection, and border surveillance.
Were seeking a Data Tech Lead to drive technical excellence in data engineering and analytics. As the go-to expert, youll set the technical direction, optimize data pipelines, and tackle programming challengesclosing knowledge gaps, solving data-related questions, and streamlining operations. Youll also design scalable architectures, manage ETL workflows, and enhance data processing efficiency.
Key Responsibilities:
Oversee the technical aspects of data projects by making architectural and design decisions.
Streamline existing operations and implement improvements with the teams collaboration.
Guiding team members in technical matters, and supervising system modifications.
Conducting Code reviews for data analysts, BI Analysts and data engineers.
Bridge technical knowledge gaps within the data team, answering critical product-related questions.
Requirements:
5+ years of experience in data engineering & Big Data Analytics.
Data Engineering & Automation: Building robust, production-ready data pipelines using SQL, Python, and PySpark, while managing ETL workflows and orchestrating data processes with Airflow (unmanaged) and Databricks.
Big Data Analysis & Distributed Processing: Expertise in Databricks (Spark, etc.) for handling large-scale data analytics with optimized efficiency.
Cloud Infrastructure: Proficient in Cloud Services (preferably Azure) for data storage and processing.
Data Architecture: Expertise in data architecture to ensure best practices in scaling, cost efficiency, and performance optimization.
If youre passionate about building scalable data solutions and thrive in a fast-paced environment, wed love to hear from you!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8363365
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Big Data Software Engineer to join our growing team. In this role, you will be responsible to design and development of our big data processing engine.

Responsibilities:

Design and development of high-quality big data processing engineer.

Identify and proactively address potential product risks and challenges and ensuring success.

Work closely with stakeholders to transform requirements into technical specifications.

Ensure that the code is consistent with industry coding standards and best practices.

Take a deep dive into the technical details and provide expert advice and solutions.
Requirements:
5+ years of experience in the SW Engineering industry.

5+ years of hands-on experience with Java development.

3+ years of experience in Scala, Spark, Hadoop.

Experience in Spark on K8s and Airflow a big plus.

3+ years of experience with SQL and Non-SQL DBs.

3+ years of proven experience of designing and building cloud application on AWS (Azure, GCP).

Experience with Spring Framework Advantage.

Experience with microservice architecture Advantage.

Experience of working with DevOps and working with CI/CD practices Advantage.

Deep understanding of Agile principles, practices and values.

Solid understanding of design patterns, software development techniques, and clean code practices.

Team player, strong communication skills, and a positive attitude.

Fast learner, self-starter, broad-minded with a can do approach.

Advanced English written and verbal communication skills.

Bachelors, BScs or Masters degree in Computer Science or Engineering fields from leading academic school.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8363110
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a passionate Senior Data Scientist to join our all-star team.
This is an amazing opportunity to join a multi-disciplinary A-team while working in a fast-paced, results, marketing and data-oriented environment.
If you are experienced but still hungry to learn and impact - wed love to have you on our team!
What You'll Do:
Devise, initiate, manage and execute cutting edge exploration and exploitation projects.
Apply your knowledge of Data Science and algorithm development to create data solutions.
Analyze extremely large (petabytes) and diverse datasets to solve complex problems, and then develop algorithmic solutions to do it for you.
Proactively seek growth opportunities aligned with core KPIs.
Partner with other functions in the company, to support decision making.
Instant data gratification guaranteed!.
Requirements:
4+ years of practical analytics experience in big data businesses (preferable - B2C company).
A hands-on, passionate person who likes to get to the bottom of things in terms of algorithms, data and business.
Excellent analytical skills with experience in querying large, complex data sets.
Strong understanding of statistical significance.
Hands-on experience with machine learning algorithms; Python and data visualization tools such as Tableau, Looker, etc.
BSc degree (or higher) in Mathematics, Statistics, Engineering, Computer Science or any other quantitative field.
Self-learner, multi-tasker, able to work independently.
Self-sufficient proactive problem-solver.
Excellent communications skills, both written and verbal.
Familiarity with the Ad-Tech industry - a big plus.
Experience in implementing real-time machine learning and data mining algorithms in large scale environments - a big plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8362641
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Are you a software engineer passionate about building cutting-edge systems?enior
Are you excited about shaping the future of security through Big Data and AI?
Who We Are?
We're part of the Cloud Security Intelligence group, owning one of the largest Big Data environments in Israel.
Partner with the best
Our team builds and operates intelligence-driven products that enable customers to detect and respond to security threats at scale.
As a Senior Software & AI Software Engineer, you'll play a key role in
Designing, developing, and deploying cloud-native, high-scale Big Data systems, Cloud (Azure/GCP).
Building and optimizing data pipelines (Spark, Delta Lake, Airflow, Databricks).Integrating AI/ML models into production environments to deliver real-time insights.
Leading AI-driven initiatives, from PoCs to customer-facing features.
Collaborating across product, UX, data science, and engineering to shape the next generation of security tools.
Leveraging technologies such as Kubernetes, Kafka, ELK, Prometheus, Grafana, and more.
Requirements:
To be successful in this role you will:
Have 5+ years of experience in backend/data engineering (preferably in Big Data environments).
Have BSc in Computer Science or a related field
Be proficient in Java/Scala and frameworks like Spring Boot
Have hands-on experience with Kubernetes and cloud platforms (Azure, AWS, GCP).
Have experience with working with massive-scale data systems and distributed architecture.
Have understanding of core ML concepts (supervised/unsupervised learning, model lifecycle, evaluation metrics).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8360878
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ramat Gan
Job Type: Full Time
We are looking for a We are looking for a.
As a Big Data Team Lead, you will lead a core team focused on the ingestion of big data and the development of core algorithms. Your role will involve building scalable and robust solutions for processing massive geospatial datasets, including spatially-focused algorithms. You will also be responsible for developing innovative big data solutions to ensure accuracy and efficiency within a fast-paced and evolving technical ecosystem. This position requires a passionate leader with a strong background in big data technologies and a drive to innovate.
RESPONSIBILITIES:
Lead and manage a big data engineering team, focused on processing high-volume spatial-temporal data, while also engaging in hands-on technical tasks.
Collaborate daily with product managers, R&D stakeholders, and data scientists to translate requirements into robust data systems.
Prioritize and scope incoming feature requests and technical improvements to balance innovation with stability.
Maintain and evolve the teams Apache Spark-based data pipelines, including optimization and scaling.
Lead technical planning sessions, foster ownership and accountability within the team.
Drive project-level KPIs and data quality KPIs such as pipeline completion time, job reliability, data freshness metrics and data accuracy.
Manage 36 direct reports.
Requirements:
2 years of experience in leading a data engineering team
Strong expertise in Apache Spark, and big data pipeline design.
Deep understanding of big data architecture in cloud environments, ideally GCP (e.g., Dataproc, BigQuery, GCS, Composer).
Problem-solving mindset with the ability to diagnose complex system behavior and debug issues across layers of the stack.
Experience with geospatial data or spatial analytics (Advantage).
Familiarity with Airflow (Advantage) Proficiency in Scala (Advantage)
Effective communicator with adaptability and prioritization skills to align cross-functional teams and balance short- and long-term goals.
BSc in Computer Science, Engineering or a related technical field (or equivalent experience in the industry).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8358859
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ramat Gan
Job Type: Full Time
Were looking for a hands-on Individual Contributor Data Engineer to design, build, and operate large-scale data products. Youll own mission-critical pipelines and services, balancing pre-computation with on-demand execution to deliver complex, business-critical insights with the right cost, latency, and reliability.
RESPONSIBILITIES:
Design and run Spark data pipelines, orchestrated with Airflow, governed with Unity Catalog.
Build scalable batch and on-demand data products, aiming for the sweet spot between pre-compute and on-demand for complex logic - owning SLAs/SLOs, cost, and performance.
Implement robust data quality, lineage, and observability across pipelines.
Contribute to the architecture and scaling of our Export Center for off-platform report generation and delivery.
Partner with Product, Analytics, and Backend to turn requirements into resilient data systems.
Requirements:
BSc degree in Computer Science or an equivalent
5+ years of professional Backend/Data-Engineering experience
2+ years of Data-Engineering experience
Production experience with Apache Spark, Airflow, Databricks, and Unity Catalog.
Strong SQL and one of Python/Scala; solid data modeling and performance tuning chops.
Proven track record building large-scale (multi-team, multi-tenant) data pipelines and services.
Pragmatic approach to cost/latency trade-offs, caching, and storage formats.
Experience shipping reporting/exports pipelines and integrating with downstream delivery channels.
IC mindset: you lead through design, code, and collaboration (no direct reports).
OTHER REQUIREMENTS:
Delta Lake, query optimization, and workload management experience.
Observability stacks (e.g., metrics, logging, data quality frameworks).
GCS or other major cloud provider experience.
Terraform IAC experience.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8358829
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
28/09/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
At UVeye, we're on a mission to redefine vehicle safety and reliability on a global scale. Founded in 2016, we have pioneered the world's first fully automated suite of vehicle inspection systems. At the heart of this innovation lies our advanced AI-driven technology, representing the pinnacle of machine learning, GenAI, and computer vision within the automotive sector. With close to $400M in funding and strategic partnerships with industry giants such as Amazon, General Motors, Volvo, and CarMax, UVeye stands at the forefront of automotive technological advancement. Our growing global team of over 200 employees is committed to creating a workplace that celebrates diversity and encourages teamwork. Our drive for innovation and pursuit of excellence are deeply embedded in our vibrant company culture, ensuring that each individual's efforts are recognized and valued as we unite to build a safer automotive world.
We are looking for a Data Operations Group Manager to join our R&D team and manage a team of data taggers and validators responsible for tagging and labeling data for machine learning models.
A day in the life and how you’ll make an impact:
* Managing 4 teams (20+ employees) of data taggers in Israel and the US.
* Ensure that the data is accurately tagged and labeled.
* Ensure that the team is meeting its goals and deadlines.
* Managing an outsourced team that's performing the scale data tagging and labeling.
* Work with the data science team to ensure that the data is being used effectively.
* Develop and implement processes to improve the efficiency and accuracy of the data tagging process.
* Train new team members on the data tagging process.
Requirements:
* 5+ years of experience in data management or data annotation.
* 3+ years of experience managing a group, including team leaders.
* Bachelor’s degree in computer science, data science, or a related field.
* Strong analytical and problem-solving skills.
* Excellent communication and interpersonal skills.
* Experience with machine learning and data tagging - Advantage
Why UVeye: Pioneer Advanced Solutions: Harness cutting-edge technologies in AI, machine learning, and computer vision to revolutionize vehicle inspections. Drive Global Impact: Your innovations will play a crucial role in enhancing automotive safety and reliability, impacting lives and businesses on an international scale. Career Growth Opportunities: Participate in a journey of rapid development, surrounded by groundbreaking advancements and strategic industry partnerships.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8300167
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו