משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 5 שעות
דרושים בוראסיטי
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
כ-FinOps Engineer תהיה/י אחראי/ת לניהול, בקרה ואופטימיזציה של העלויות הפיננסיות של תשתיות הענן בארגון. התפקיד משלב עבודה אנליטית מעמיקה, שיתוף פעולה עם צוותים טכנולוגיים ועסקיים, ועבודה שוטפת מול ספקי ענן חיצוניים, במטרה להבטיח שימוש יעיל, חסכוני ושקוף במשאבי הענן.
תחומי אחריות:
ניהול ומעקב שוטף אחר עלויות תשתיות הענן (בדגש על AWS), כולל ניתוח חריגות, זיהוי מגמות והפקת תובנות כלכליות.
עבודה ישירה מול ספקי אירוח וענן חיצוניים לצורך ניהול הסכמים, תמחור, חיובים ובקרת עלויות.
בנייה, תחזוקה ושיפור של דוחות פיננסיים, דשבורדים ומודלים לחיזוי עלויות.
שיתוף פעולה הדוק עם צוותי DevOps, Engineering, Product ו-Finance לצורך הטמעת Best Practices של FinOps.
זיהוי הזדמנויות לאופטימיזציית עלויות (Rightsizing, Reserved Instances, Savings Plans, אוטומציות ועוד).
תמיכה בתהליכי תכנון תקציב (Budgeting), תחזיות (Forecasting) וניהול עלויות ברמה חודשית ורבעונית.
דרישות:
לפחות 2 שנות ניסיון בניהול פיננסי של סביבות ענן ואופטימיזציית עלויות.
היכרות מעמיקה עם AWS (Cost Explorer, Budgets, Billing, Reserved Instances וכו).
יכולות אנליטיות גבוהות ויכולת לתרגם נתונים מורכבים לתובנות ופעולות עסקיות.
שליטה גבוהה ב-Excel / Google Sheets וב-PowerPoint / Google Slides.
ניסיון בעבודה מול ספקים חיצוניים וניהול עלויות אירוח.
יכולות תכנון, ארגון ופתרון בעיות ברמה גבוהה, עם ירידה לפרטים.
יכולת עבודה עצמאית לצד עבודה בצוות ובממשקים מרובים.
תקשורת בין-אישית מצוינת ויכולת הצגה בפני גורמים שונים בארגון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8509785
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים במלם תים
סוג משרה: משרה מלאה
למוסד פיננסי גדול בלוד, מגייסים: data Analyst, התפקיד משלב ניתוח נתונים והסקת תובנות, בניית פאנלים וחיווים מבוססים חוקה עסקית ב-SQL, דוחות ודשבורדים בטאבלו.
בנוסף, במסגרת התפקיד:  פיתוח וביצוע שאילתות SQL מתקדמות לשליפה וניתוח של נתונים ממאגרי מידע.
אפיון ובניית פאנלים לשילוב במערכת לטובת הקמת הקמפיינים ודשבורדים, מדידה וניתוח אפקטיביות קמפיינים, כולל הפקת דוחות ועוד.
הובלה מקצה לקצה של תוצרים בתחום הדאטה - משלב האפיון ועד למימוש.
דרישות:
- ניסיון של לפחות 3 שנים בעבודה עם SQL - כולל כתיבת שאילתות מורכבות, לרבות ניסיון בכתיבת סקריפטים מתוזמנים לריצה יומית.
-  ניתוח נתונים בהיקפים גדולים, לרבות הצגת ממצאים.
- הבנה עסקית מעמיקה בעולם הפיננסים - לקוחות, מוצרים ותהליכים שיווקיים.
- ניסיון בעבודה עם כלי Tableau.
- ניסיון באנליזה שיווקית בארגון פיננסי. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8542682
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
לחברת Travel-Tech המפתחת פלטפורמת B2B2C עבור חברות תעופה דרוש/ה Technical Product Analyst.
החברה מפתחת פלטפורמה המתחברת למערכות האיקומרס הקיימות של חברות התעופה ומאפשרת הגדלת הכנסות באמצעות Marketplace חכם הכולל טיסות, מלונות, רכבים ותוכן משלים.
המודל העסקי מבוסס Revenue Share, ויוצר שותפות מסחרית מתמשכת עם חברות התעופה.
החברה פועלת כסטארטאפ קטן עם מוצר טכנולוגי מתקדם ולקוחות Enterprise גלובליים.
התפקיד משולב בצוות המוצר, בדיווח ישיר ל-Head of Product, וכולל אחריות על ניתוח נתוני מוצר, ניהול סביבת ה- data Warehouse והפיכת דאטה לתובנות עסקיות המשפיעות על קבלת החלטות.
התפקיד מהווה יד ימינו של מנהל המוצר בכל הקשור לקבלת החלטות מבוססות נתונים, וכולל עבודה שוטפת מול הנהלה בכירה וגורמים עסקיים.
דרישות:
- שליטה גבוהה מאוד ב-SQL - חובה
- ניסיון בעבודה אנליטית משמעותית (Product Analytics / data Analysis)
- ניסיון בניהול וארגון data Warehouse - בניית טבלאות, טיוב נתונים והבטחת איכות מידע
- ניסיון בהפקת דוחות ניהוליים, דשבורדים ו-KPIs להנהלה בכירה
- יכולת ניתוח מגמות, דפוסי שימוש ואנומליות במוצר
- יכולת עבודה עצמאית וחקירה מעמיקה של דאטה (לשחות בדאטה)
- יכולת תרגום נתונים טכניים מורכבים לתובנות עסקיות ברורות
- אנגלית ברמה גבוהה מאוד - כתיבה ודיבור
- יכולת למידה מהירה ועבודה בסביבה דינמית של סטארטאפ קטן
יתרון:
- ניסיון בעבודה עם Python לעיבוד נתונים
- היכרות עם Spark
- ניסיון בעבודה עם דאטה בהיקפים גדולים
- ניסיון קודם בסביבת SaaS או מוצר B2B המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8482341
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בסלע מסחר ולוגיסטיקה
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה מובילה בתחום הלוגיסטיקה וההפצה מגייסת DATA ANALYST לתפקיד משמעותי במחלקת מערכות מידע בחברה.

שליפה וניתוח של נתוני פעילות, טיוב נתוני מערכות החברה
אחריות בלעדית על נתוני הפעילות במערכות מידע
טיוב נתוני מערכות החברה
הסקת מסקנות משמעותיות ניתוח נתונים
הנגשת הנתונים למנהלים וללקוחות נחברה
ניהול הדאטא במערכות- תחזוקה שוטפת של הנתונים.

המשרה ממוקמת באשדוד
דרישות:
השכלה אקדמית בתחום - חובה
ידע וניסיון בSQL - חובה
מהנדס/ת תעשייה וניהול- יתרון משמעותי
ניסיון עם מסדי נתונים גדולים
ניסיון עם Power BI - יתרון משמעותי
עבודה בכמה פרוייקטים במקביל
עבודה במשרה מלאה: 08:00-17:00. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8505182
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 6 שעות
התפקיד כולל:
ניתוח נתונים וביצוע מדידה
הפקת דוחות ותובנות מבסיסי נתונים
זיהוי מגמות
בקרת איכות נתונים והבטחת דיוק המידע
ייעול תהליכי עבודה באמצעות אוטומציה וכלי ניתוח
דרישות:
ניסיון מחברה לוגיסטית
ניסיון של שנתיים לפחות בתפקיד דומה
שליטה באקסל
יכולת עבודה עצמאית לצד עבודת צוות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8259048
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בנס טכנולוגיות
מיקום המשרה: רעננה
ל NESS דרוש/ה מנהל /ת פרויקט הקמת פלטפורמת data בענן GCP
התפקיד כולל ניהול כולל של פרויקט data Lakehouse רחב- היקף בענן, ניהול של אספקת השירותים End to End Delivery, אחריות על תכנון, ביצוע ובקרה של תוכנית עבודה רב שנתית, ניהול תקציב, ניהול איכות עמידה בSLA, שיפור תהליכים, ניהול והובלת צוותים רב תחומיים.
משרה מלאה והיברידית ברעננה.
דרישות:
בעל/ת תואר ראשון - חובה.
ניסיון של 5 שנים ומעלה בניהול פרויקטים בעולמות הדאטה וה- IT - חובה.
ניסיון מוכח בניהול פרויקטים עתירי תקציב ובעלי ריבוי בעלי עניין - חובה.
ניסיון ניהול דליברי מתמשך ולא רק בפרויקט הקמה - חובה.
ניסיון בעבודה מול לקוחות ממשלתיים / ציבוריים - חובה.
הבנה עמוקה בעולמות data, DWH, Lakehouse, BI - חובה.
ניסיון בניהול פרויקטי דאטה בסביבת ענן ציבורי (עדיפות ל- GCP) - חובה.
ניסיון בניהול תקציב, תמחור, מעקב שעות ורווחיות - חובה.
ניסיון בהגדרת וניהול מדדי איכות, KPI, SLA וניהול סיכונים - חובה.
ניסיון בעבודה עם תוכניות עבודה, גאנטים ודוחות ניהוליים - חובה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8522647
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בhumanlink
מיקום המשרה: רעננה
שכר: 22,000-25,000
אנחנו פלטפורמת מימון טריידרים מהצומחות בעולם, וצוות הדאטה שלנו עובד AI-first - משלבים בינה מלאכותית בכל שלב, מהתשתית ועד הדוחות.
דרישות:
ניתוח נתונים מקצה לקצה - משאלה עסקית ועד תובנה ברורה
? עבודה עם SQL וכלי ויזואליזציה
? שילוב כלי AI בתהליכי העבודה היומיומיים
מה אנחנו מחפשים?
?? SQL ברמה גבוהה
?? ניסיון בכלי ויזואליזציה
?? שימוש יומיומי בכלי AI - חובה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8595608
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 6 שעות
דרושים בG-NESS
למשרד ממשלתי מוביל בירושלים דרוש/ה מנהל /ת פרוייקטים
דרישות:
ניסיון של לפחות 5 שנים בניהול פרויקטים טכנולוגים חוצי ארגון - יתרון
ניסיון בעבודה בפרויקטי data מורכבים ובעלי ממשקים מתודולוגיים
ניסיון בעבודה עם מערכות ענן, מערכות מבוזרות ואינטגרציה בין מערכות
ניסיון בניהול פרויקטים תקציביים גדולים (15 מיליון ומעלה)
ניסיון בפרויקטים עם שימוש ב-AI - יתרון
ניסיון בעבודה מול ספקים חיצוניים וניהול צוותי פיתוח יתרון.
4 שנות ניסיון + תואר / תואר וקורסים / הנדסאי/ת בוגר/ת מגמת מחשבים/טכנולוגיה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8315805
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בגולדמן מיון והשמה
התפקיד כולל:
ניתוח נתונים שוטף והפקת תובנות עסקיות
עבודה יומיומית על מערכת CRM
ריכוז data ממחלקות שונות בארגון
בניית דוחות, בקרה ומדדי ביצוע (KPIs)
זיהוי מגמות, פערים והזדמנויות לשיפור
הצגת מסקנות בצורה ברורה למנהלים ולצוותים
דרישות:
תואר ראשון רלוונטי- חובה
חשיבה אנליטית ויכולת הסקת מסקנות מנתונים
היכרות עם מערכות CRM - יתרון
סדר, דיוק ויכולת ירידה לפרטים
יכולת עבודה עצמאית ויוזמה
ניסיון קודם בתפקיד אנליטי - יתרון, לא חובה

**המשרה פונה לנשים וגברים כאחד** המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8590597
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 6 שעות
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
בואו להוביל יוזמות AI וחדשנות!


מה אנחנו מחפשים?
מנהל/ת פרויקטים טכנולוגיים עם זיקה לעולמות ה-Product - התפקיד פועל בתוך יחידת ה AI של הראל, ומטרתו להוביל יוזמות AI ואוטומציה מקצה לקצה החל מהיכרות, תיעדוף וזיהוי הצרכים העסקיים ועד הטמעה ובקרה שוטפת.
התפקיד מהווה ציר מחבר בין היחידות העסקיות, הדאטה, מערכות מידע ותפעול – תוך כדי הובלה מטריציונית של Squad ייעודי לתהליכי עבודה שבתיעדוף יוזמות ה AI של הארגון.
 
אחריות מרכזית
הובלת פרויקטים טכנולוגיים מקצה לקצה (E2E):
תכנון, ניהול וביצוע פרויקטים טכנולוגיים מעמיקים הן בעולמות ה AI, בניית Roadmap והגדרת אבני דרך בהתאם ליעדי היחידות העסקיות
הובלה על בסיס מתודולוגיית עבודה אג'ילית, ניהול שוטף של ההתקדמות, תקציבים, סיכונים ותפוקות
 
הובלת squads מטריציונים :
ניהול סקוואדים הכוללים: אנשי Data Science ,ארכיטקטים, מפתחים, מעצבים QA ,
יצירת תיאום בין יחידות עסקיות עם עולמות תוכן שונים בארגון
הנעת תהליכים טכנולוגים ואנושיים כאחד בסביבה מרובת גורמים, התנגשויות
בקרה שוטפת, ניתוח תהליכים פרויקטאלים בשלבים שונים (הוכחת יכולת, פיילוטים, הטמעה בייצור, אופטימיזציה וכו')
תכנון שוטף, תוכנית עבודה roadmap, ואבני דרך
הובלה בסביבת עבודה אג'ילית
הטמעת מוצרים ותהליכי AI בקרב משתמשים פנימיים, עסקיים ולקוחות הקצה
דרישות:
מינימום 3-5 שנות ניסיון בניהול פרויקטים טכנולוגיים.
ניסיון במתודולוגיות Agile וProduct Ownership
ניסיון מוכח של עבודה צמודה לבעלי תפקידים עסקיים בכירים ובסביבה מורכבת מרובת ממשקים ואינטגרציות למערכות ליבה.
ניסיון מוכח בבניה של תהליכי עבודה, roadmap, תיעדוף אבני דרך וכתיבת דרישות ניהול      )Product אפיון, כתיבת דרישות)
יכולת הובלה ולקיחת יוזמות משלב הרעיון ל-Delivery
יכולת לחשוב מחוץ לקופסא לזיהוי פתרונות טכנולוגיים יצירתיים לצד פתרונות AIחדשניים.
ידע בעולמות AI/ML/LLM - יתרון משמעותי
ניסיון בהובלת יוזמות DATA/AI - יתרון
ניסיון בביטוח/פיננסיםHealthcare  - יתרון
אנגלית ברמה גבוהה
 
אנחנו יושבים ברמת גן, מתחם הבורסה, סמוך לרכבת סבידור מרכז ולרכבת הקלה.
 * המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8582883
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה להצטרף לצוות הדאטה שלנו ולהיות שותף מרכזי בהקמה, פיתוח ותפעול של פלטפורמת Data & AI ארגונית מתקדמת בסביבת Azure.

במסגרת התפקיד:
תכנון, פיתוח ותפעול Lakehouse ארגוני על גבי Azure Databricks
בניית Data Pipelines מודרניים מקצה לקצה על בסיס Delta Lake במודל Bronze / Silver / Gold
פיתוח תהליכי Data Ingestion חכמים ממערכות ליבה, APIs וEvent Streams, כולל Incremental Loading וCDC
עבודה עם Unity Catalog לניהול Data Governance, הרשאות, Lineage ושיתוף נתונים מאובטח בין צוותים
שימוש יומיומי ביכולות מתקדמות של Databricks:
Workflows & Jobs
Autoloader
Delta Live Tables
Structured Streaming
עבודה שוטפת וצמודה עם Data Scientists ותמיכה בML Workflows
הטמעה וניהול של MLflow:
ניהול ניסויים
Model Tracking
Versioning וReproducibility
בניית סטנדרטים ארגוניים לData Quality, Monitoring וObservability
אופטימיזציה של ביצועים ועלויות בסביבת Azure (Cluster Sizing, Caching, Partitioning)
תמיכה בהקמת AI / Data Platform ארגונית התומכת בAgents, Machine Learning ומוצרי דאטה
דרישות:
מה אנחנו מחפשים?
ניסיון של 3-5 שנים בתפקיד Data Engineer בסביבת Cloud
ניסיון מעשי משמעותי עם Azure Databricks
שליטה גבוהה ב Python,SQL, Spark / PySpark
ניסיון בעבודה עם: Delta Lake, Unity Catalog, Databricks Workflows / Jobs
ניסיון בבניית Data Pipelines בסביבת Production, ניסיון בעבודה משותפת עם Data Scientists וML Pipelines
היכרות עם MLflow לניהול מודלים וניסויים
הבנה טובה של Data Modeling בסביבת Lakehouse
ניסיון בעבודה עם Git וCI/CD לתהליכי דאטה
יכולת עבודה בצוות רבתחומי, חשיבה מוצרית וראייה מערכתית על דאטה

אנחנו ממוקמים ברמת גן,
מתחם הבורסה, בסמוך לרכבת סבידור מרכז ולרכבת הקלה

* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8570851
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
התפקיד כולל -
אנחנו מחפשים Data Scientist מצטיין/ת להצטרף לצוות שלנו ולפתח פתרונות מתקדמים לעיבוד וניתוח מסמכים, זיהוי מסמכים חריגים ויישומי ML המשפיעים על תהליכי ליבה בארגון.
התפקיד משלב ML קלאסי, NLP  ו LLM ויכולות  Data Engineering בסיסיות, עם אימפקט אמיתי וחשיפה למערכות מתקדמות.
 
מה נעשה אצלנו:
פיתוח ויישום מודלים קלאסיים של ML&DL לטובת תהליכי קבלת החלטות חכמים.
ניתוח מסמכים כולל טקסטים, טפסים, PDF ותמונות.
בניית מודלים לאיתור מסמכים חריגים- שילוב של ראייה ממוחשבת ו LLM
פיתוח Workflows and Pipelines  בסביבות Azure ו Databricks
פיתוח FW להערכת איכות מודלים.
דרישות:
מה תביא/י איתך?
4-5  שנות ניסיון כ-  Data Scientist
שליטה גבוהה ב Python ובספריות ML מובילות.
ניסיון מוכח בעבודה עם Spark
ניסיון בבניית מודלים קלאסיים
ניסיון בעיבוד טקסטים או מסמכים
הבנה טובה של LLM ויישום שלהם בפרויקטים עסקיים
ניסיון משמעותי בכתיבת שאילתות SQL מורכבות, אופטימיזציה והבנה מעמיקה של מבני הנתונים.
עבודה בסביבת Cloud -
יכולת הובלה עצמית של משימות, חשיבה אנליטית חזקה
 
משרה מלאה, ימים א'-ה', 8.5 שעות ביום
רמת גן, מתחם הבורסה, צמוד לרכבת סבידור מרכז ובסמוך לרכבת הקלה
 * המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8415111
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 7 שעות
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: פתח תקווה
data + Product + Tech? זה השילוב שאנחנו מחפשים
חברת מוצר מגייסת Technical data Product Manager
אם יצא לך לעבוד עם דאטה בשירות הצבאי, לכתוב אפיונים טכניים ולהגדיר איך דאטה זורם במערכות - זה בול בשבילך.

מה בתפקיד?
כתיבת אפיונים טכניים כולל S2T
הגדרת לוגיקות דאטה וכתיבת לוגים וטבלאות backend
עבודה Hands-On עם SQL ותחקור דאטה
תכנון זרימות דאטה, data Pipelines ו- ETL /ELT
עבודה צמודה עם צוותי פיתוח, data Engineers ו- QA
דרישות:
-ניסיון של 2-3 שנים לפחות בניתוח מערכות / Technical Product בעולמות הדאטה
-ניסיון מוכח בכתיבת S2T - חובה
-שליטה ב-SQL וניסיון בתחקור דאטה
-ניסיון בהגדרת לוגיקות דאטה / עבודה עם טבלאות ולוגים ב- backend
-ניסיון בעולמות Big Data, ETL /ELT ו- data Modeling
-ניסיון בעבודה מול צוותי פיתוח ודאטה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8587592
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
לחברת סקיוריטי בעולם הרכב דרוש/ה data Engineer
טכנולוגיות מרכזיות:
Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
תיאור המשרה:
תכנון, פיתוח ותחזוקה של צינורות דאטה סקיילביליים לקליטה ועיבוד של נתוני Batch ב- data Lake, תוך הקפדה על איכות נתונים, ממשל נתונים (Governance), נראות (Observability) ו-CI/CD.
פיתוח והרחבת תשתיות הדאטה הבסיסיות, כולל data Lake, מנוע אנליטיקה ומסגרות לעיבוד Batch.
בניית תשתיות יציבות לאוטומציה של תהליכי קליטה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלי Open-Source ופתרונות Cloud-Agnostic.
פיתוח ותחזוקת ארכיטקטורות ומבני data Lake לגישה יעילה לנתונים ואנליטיקה מתקדמת.
פיתוח וניהול כלי אורקסטרציה, Governance, גילוי נתונים ( data Discovery) ועוד.
עבודה שוטפת עם חברי צוות נוספים - ארכיטקטי דאטה, אנליסטים ודאטה סיינטיסטים - בגישה מבוססת Use-Cases לבניית זרימות דאטה טכנולוגיות.
אחריות מקצה לקצה (End-to-End Ownership) וגישה פרואקטיבית
דרישות:
תואר ראשון במדעי המחשב / הנדסה או תחום רלוונטי
לפחות 4 שנות ניסיון בתכנון ובניית צינורות דאטה, כלי אנליטיקה ו- data Lakes
ניסיון בטכנולוגיות data Engineering: כלי ETL ואורקסטרציה (כגון Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כגון Spark, Kafka, Presto)
ניסיון מוכח ב Python - חובה
ניסיון בעבודה עם מוצרי Open-Source - יתרון
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כגון Kubernetes) - יתרון
ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכד) - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8531732
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Required ML Data Engineer
Israel: Tel Aviv/ Hybrid (Israel)
R&D | Full Time | Job Id: 24792
Key Responsibilities
Your Impact & Responsibilities:
As a Data Engineer - AI Technologies, you will be responsible for building and operating the data foundation that enables our LLM and ML research: from ingestion and augmentation, through labeling and quality control, to efficient data delivery for training and evaluation.
You will:
Own data pipelines for LLM training and evaluation
Design, build and maintain scalable pipelines to ingest, transform and serve large-scale text, log, code and semi-structured data from multiple products and internal systems.
Drive data augmentation and synthetic data generation
Implement and operate pipelines for data augmentation (e.g., prompt-based generation, paraphrasing, negative sampling, multi-positive pairs) in close collaboration with ML Research Engineers.
Build tagging, labeling and annotation workflows
Support human-in-the-loop labeling, active learning loops and semi-automated tagging. Work with domain experts to implement tools, schemas and processes for consistent, high-quality annotations.
Ensure data quality, observability and governance
Define and monitor data quality checks (coverage, drift, anomalies, duplicates, PII), manage dataset versions, and maintain clear documentation and lineage for training and evaluation datasets.
Optimize training data flows for efficiency and cost
Design storage layouts and access patterns that reduce training time and cost (e.g., sharding, caching, streaming). Work with ML engineers to make sure the right data arrives at the right place, in the right format.
Build and maintain data infrastructure for LLM workloads
Work with cloud and platform teams to develop robust, production-grade infrastructure: data lakes / warehouses, feature stores, vector stores, and high-throughput data services used by training jobs and offline evaluation.
Collaborate closely with ML Research Engineers and security experts
Translate modeling and security requirements into concrete data tasks: dataset design, splits, sampling strategies, and evaluation data construction for specific security use.
Requirements:
3+ years of hands-on experience as a Data Engineer or ML/Data Engineer, ideally in a product or platform team.
Strong programming skills in Python and experience with at least one additional language commonly used for data / backend (e.g., SQL, Scala, or Java).
Solid experience building ETL / ELT pipelines and batch/stream processing using tools such as Spark, Beam, Flink, Kafka, Airflow, Argo, or similar.
Experience working with cloud data platforms (e.g., AWS, GCP, Azure) and modern data storage technologies (object stores, data warehouses, data lakes).
Good understanding of data modeling, schema design, partitioning strategies and performance optimization for large datasets.
Familiarity with ML / LLM workflows: train/validation/test splits, dataset versioning, and the basics of model training and evaluation (you dont need to be the primary model researcher, but you understand what the models need from the data).
Strong software engineering practices: version control, code review, testing, CI/CD, and documentation.

Ability to work independently and in collaboration with ML engineers, researchers and security experts, and to translate high-level requirements into concrete data engineering tasks. 
Nice to Have 
Experience supporting LLM or NLP workloads, including dataset construction for pre-training / fine-tuning, or retrieval-augmented generation (RAG) pipelines. 
Familiarity with ML tooling such as experiment tracking (e.g., Weights & Biases, MLflow) and ML-focused data tooling (feature stores, vector databases). 
Background in security / cyber domains (logs, alerts, incidents, SOC workflows) or other high-volume, high-variance data environments. 
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597480
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Ready to lead the way in building our next-gen data platforms? Join us and shape the future of secure connectivity!
We are looking for a Data Engineering Team Leader with deep expertise in building and managing data pipelines and streaming architecture.
Job Id: 24787
This role is ideal for an experienced and proactive leader with strong technical skills in distributed systems and data platforms. You will drive the architecture, design, and development of scalable data ingestion and processing solutions. This is an exciting opportunity to join a growing product in an enterprise environment with significant impact and room for professional growth.
This job is located in Tel Aviv (hybrid).
About Us:
Were creating the industrys leading SASE platform, merging advanced security with seamless connectivity. Our mission is to empower businesses to thrive in a cloud-first world, and data is at the heart of this transformation.
Key Responsibilities:
Inspire and mentor a top-tier data engineering team to deliver mission-critical solutions
Architect and optimize data ingestion, enrichment, and storage for massive scale and reliability
Collaborate with cross-functional teams to ensure seamless integration and data availability
Define best practices and enforce engineering excellence across the data domain.
Requirements:
4+ years of hands-on experience in data engineering, with strong knowledge of streaming technologies (Kafka/MSK, Flink) and distributed systems on AWS
2+ years of leadership experience in data engineering or related fields.
Strong development skills in Java and deep understanding of data modeling, ETL, and real-time analytics
Experience in developing and maintain a multi-tenant SaaS solution on top of AWS
Experience with React - advantage
A natural leader with strong communication skills and a can-do, hands-on approach.
BSc in computer science/software engineering (or equivalent).
Fluent English (written & spoken).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597474
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are rapidly expanding and is looking for an experienced Business Analyst that will join us for an interesting and challenging role.
Job Id: 22566
As a Business Analyst in one of the worlds largest cyber companies, you will be at the center of all strategic decision-making in your business area.
Key Responsibilities
Analyze, optimize and build business models for our products, pricing, promotions, competitor trends, activities, KPIs, and business units as key part of strategic decisions.
Define metrics to evaluate performance; build reporting/dashboards to track performance and maintain it.
Create insight beyond numbers and help to influence, support and execute our strategic business decisions.
Create budget plans, bookings plans and targets for the related departments and businesses.
Communicate key metrics and insights to various partners and stakeholders clearly and effectively.
Requirements:
Bachelor's degree from a leading university in Economics, Business Administration or related quantitative field.
3-5 years of business experience.
Fluent in English.
Strong analytical, data mining and modelling skills.
Drive execution, initiate projects and manage them from start to end.
Process-oriented, well-organized, autonomous learner.
Experience working with Excel and MS office.
Excellent written and oral communication and good interpersonal skills.
Please share your GPA and psychometric score in your CV/ application form.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597443
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking an outstanding and passionate Data Platform Engineer to join our growing R&D team.

You will work in an energetic startup environment following Agile concepts and methodologies. Joining the company at this unique and exciting stage in our growth journey creates an exceptional opportunity to take part in shaping Finaloop's data infrastructure at the forefront of Fintech and AI.

What you'll do:

Design, build, and maintain scalable data pipelines and ETL processes for our financial data platform.

Develop and optimize data infrastructure to support real-time analytics and reporting.

Implement data governance, security, and privacy controls to ensure data quality and compliance.

Create and maintain documentation for data platforms and processes.

Collaborate with data scientists and analysts to deliver actionable insights to our customers.

Troubleshoot and resolve data infrastructure issues efficiently.

Monitor system performance and implement optimizations.

Stay current with emerging technologies and implement innovative solutions.
Requirements:
What you'll bring:

3+ years experience in data engineering or platform engineering roles.

Strong programming skills in Python and SQL.

Experience with orchestration platforms like Airflow/Dagster/Temporal.

Experience with MPPs like Snowflake/Redshift/Databricks.

Hands-on experience with cloud platforms (AWS) and their data services.

Understanding of data modeling, data warehousing, and data lake concepts.

Ability to optimize data infrastructure for performance and reliability.

Experience working with containerization (Docker) in Kubernetes environments.

Familiarity with CI/CD concepts.

Fluent in English, both written and verbal.

And it would be great if you have (optional):

Experience with big data processing frameworks (Apache Spark, Hadoop).

Experience with stream processing technologies (Flink, Kafka, Kinesis).

Knowledge of infrastructure as code (Terraform).

Experience building analytics platforms.

Experience building clickstream pipelines.

Familiarity with machine learning workflows and MLOps.

Experience working in a startup environment or fintech industry.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8573265
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Senior Data Scientist to lead strategic research initiatives focusing on our Auto loans asset class. This individual will be at the forefront of research, working hands-on to advance our models while also mentoring and collaborating with data scientists across the department.
Responsiilities:
Spearhead strategic research of new cutting edge Machine Learning models
Mentor and advise data scientists.
Design solutions for the companys core mission using Data Science methodologies from various domains
Work in a short life-cycle research and development environment
Generate and test working hypotheses in unexplored territory
Requirements:
5+ years of experience in Machine Learning, working with tabular data on predictive modeling
Track record of translating research into business impact
MSc or PhD in a related field- Math/EE/CS/Physics/Stats
Great interpersonal skills, and strong collaborator
Good applied statistics skills, such as distributions, statistical testing, regression, etc.
Proficient in Python and the Data Science Stack
Independent and fast learner that can work alone and in teams
Ability to learn and explore new fields of expertise
Knowledge in some of the following can be an advantage: optimization, risk and finance
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8567051
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Herzliya
Job Type: Full Time
Required Data Engineer
Description
Join our core platform engineering team, developing our AI-powered automotive data management platform.
We are developing the next generation data-driven products for the Automotive industry, focusing on cybersecurity (XDR) and vehicle quality. our products monitor and secure millions of vehicles worldwide and help automakers leverage connected vehicle data to deliver cyber resilience, safety, customer satisfaction and increase brand loyalty.
Our Data Engineering & Data Science Group leads the development of our Iceberg-based data platform, including data lake, query engine, and ML-Ops tools, serving as a solid AI-ready foundation for all our products.
At the core of our Engineering Team, you will build and operate scalable, production-grade customer-facing data and ML platform components, focusing on reliability and performance.
Technological background and focus: Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
This role is full-time and is Herzliya, Israel based.
Responsibilities
Design, build, and maintain scalable data pipelines to ingest and transform batch data on our data lake, enabling analytics and ML with strong data quality, governance, observability, and CI/CD.
Build and expand our foundational data infrastructure, including our data lake, analytics engine, and batch processing frameworks.
Create robust infrastructure to enable automated pipelines that will ingest and process data into our analytical platforms, leveraging open-source, cloud-agnostic frameworks and toolsets.
Develop and maintain our data lake layouts and architectures for efficient data access and advanced analytics.
Develop and manage orchestration tools, governance tools, data discovery tools, and more.
Work with other team members of the engineering group, including data architects, data analysts, and data scientists, to provide solutions using a use case-based approach that drives the construction of technical data flows.
End-to-end ownership mindset with a proactive, production-first approach.
Requirements:
BSc/BA in Computer Science, Engineering or a related field
At least 4 years of experience with designing and building data pipelines, analytical tools and data lakes
Experience with the data engineering tech stack: ETL & orchestration tools (e.g. Airflow, Argo, Prefect), and distributed data processing tools (e.g Spark, Kafka, Presto)
Experience with Python is a must
Experience working with open-source products - Advantage
Experience working in a containerized environment (e.g. k8s) - Advantage
Development experience, using a general purpose programming language (Java, Scala, Kotlin, Go, etc.) - Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560068
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Herzliya
Job Type: Full Time
Required Senior Data Engineer
Join our core platform engineering team, developing our AI-powered automotive data management platform.
We are developing the next generation data-driven products for the Automotive industry, focusing on cybersecurity (XDR) and vehicle quality. Our products monitor and secure millions of vehicles worldwide and help automakers leverage connected vehicle data to deliver cyber resilience, safety, customer satisfaction and increase brand loyalty.
Our Data Engineering & Data Science Group leads the development of our Iceberg-based data platform, including data lake, query engine, and ML-Ops tools, serving as a solid AI-ready foundation for all our products.
At the core of our Engineering Team, you will build and operate scalable, production-grade customer-facing data and ML platform components, focusing on reliability and performance.
Technological background and focus: Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
This role is full-time and is Herzliya, Israel based.
Responsibilities
Design, build, and maintain scalable data pipelines to ingest and transform batch data on our data lake, enabling analytics and ML with strong data quality, governance, observability, and CI/CD.
Build and expand our foundational data infrastructure, including our data lake, analytics engine, and batch processing frameworks.
Create robust infrastructure to enable automated pipelines that will ingest and process data into our analytical platforms, leveraging open-source, cloud-agnostic frameworks and toolsets.
Develop and maintain our data lake layouts and architectures for efficient data access and advanced analytics.
Develop and manage orchestration tools, governance tools, data discovery tools, and more.
Work with other team members of the engineering group, including data scientists, data architects, and data analysts, to provide solutions using a use case-based approach that drives the construction of technical data flows.
Requirements:
BSc/BA in Computer Science, Engineering or a related field
At least 6 years of experience with designing and building data pipelines, analytical tools and data lakes
Experience with the data engineering tech stack: ETL & orchestration tools (e.g. Airflow, Argo, Prefect), and distributed data processing tools (e.g Spark, Kafka, Presto)
Experience with Python is a must
Experience working in a containerized environment (e.g. k8s)
Experience working with open-source products
End-to-end ownership mindset with a proactive, production-first approach
Development experience, using a general purpose programming language (Java, Scala, Kotlin, Go, etc.) - An advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560075
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for an Experienced Big Data Engineer who loves solving complex problems at an extreme scale. In this role, you arent just building "internal pipelines"-you are developing the actual product our clients interact with. You will write high-performance code, optimize your own Spark processes for client freshness, and own features end-to-end. We need a "problem solver by nature, optimizer in their soul" who brings both technical depth and a great personality to a high-speed, deep technical team.

What youll do
Build Client-Facing Features: Design and implement high-scale product features for premium clients - from architecture to production deployment.
Performance Engineering: Optimize scalable data pipelines and distributed processes to meet strict client SLAs. Every millisecond of freshness matters.
System Integrity: Ensure uncompromising data accuracy and performance across massive, complex datasets.
Strategic Collaboration: Partner with upstream data providers, client-side teams, and Product Managers to turn raw events into production-grade features.
Requirements:
The Foundation: B.Sc. in Computer Science or an equivalent.
Relevant Track Record: 3+ years in Big Data Engineering (Backend experience is a plus, provided youve worked at scale).
Spark Mastery: 1+ years of deep, hands-on experience with Spark (or equivalent). You should understand "under the hood" complexities like memory management and execution plans.
Engineering Craft: Strong programming skills (Ideally Scala) with a deep understanding of distributed programming paradigms. You write clean, production-ready code that is optimized for execution across large-scale clusters.
The Scale Mindset: A natural obsession with high-scale problem solving and system optimization.
The Right DNA: A pragmatic, ownership-driven mindset with a personality that thrives in a collaborative environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8564986
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
מיקום המשרה: ראש העין
מחפש/ת תפקיד עם השפעה אמיתית על קבלת החלטות?
זו ההזדמנות שלך להוביל תהליכי הערכה, מחקר ונתונים בעשייה חינוכית משמעותית.

מה בתפקיד?
* הובלה ותכלול של תהליכי מחקר והערכה
* ניהול מערך מדידה התומך באסטרטגיה הארגונית
* עבודה עם תוכניות שטח וליווי תהליכי גיוס משאבים
* אחריות על מסדי נתונים ומערכות מידע
* תרגום נתונים לתובנות וKPIs ארגוניים
דרישות:
מה אנחנו מחפשים?
* סטודנט/ית שנה אחרונה או בוגר/ת תואר רלוונטי (סטטיסטיקה / תעשייה וניהול / מדעים מדויקים)
* ניסיון באנליזות, מחקר או עבודה עם נתונים
* שליטה גבוהה בOffice וCanva ויכולת ניסוח מעולה
* אנגלית ברמה גבוהה
* חשיבה אנליטית לצד יכולות בין-אישיות גבוהות

יתרון משמעותי:
* ניסיון במגזר השלישי
* רקע בData / ניתוח נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8595876
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Required Data Engineer
Israel: Tel Aviv/ Hybrid (Israel)
R&D | Full Time | Job Id: 25316
Why Join Us?
We are building next-generation GenAI security intelligence and SaaS Security Posture Management (SSPM) solutions that protect enterprises worldwide. If you enjoy turning complex security data into actionable insights and delivering end-to-end systems, this role is for you.
About the role:
You will own, build, and maintain our Pythonic data pipeline and enrichment system on top of PostgreSQL and BigQuery. This system powers security analytics, detections, and intelligence. A core part of your job will be to design and implement new components, improve reliability and performance, and ensure data quality and observability.
Key Responsibilities:
Own, build, and maintain production data pipelines and enrichment services using Python, PostgreSQL, and BigQuery.
Architect data systems end to end, including design, deployment, monitoring, and iterative improvement.
Analyze complex security datasets and SaaS telemetry to uncover risks, patterns, and opportunities.
Research emerging threat vectors and contribute to automated intelligence feeds and published reports.
Work across security domains such as SSPM, Shadow Integrations, DLP, and GenAI Protection.
Requirements:
4+ years in data-focused roles (engineering, analytics, science)
Strong SQL and Python skills
Experience with cloud platforms (GCP, AWS, Azure) and modern data warehouses (BigQuery, Databricks)
Proven ability to build data infrastructure from scratch
Ability to turn complex data into actionable insights
Fast learner with systematic problem-solving skills
Comfortable with technical research in unfamiliar domains
Independent and determined, with strong collaboration skills
BSc in Computer Science, Mathematics, Statistics, or related field
Excellent communication skills for technical and non-technical audiences.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597109
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Senior Data Analyst to serve as the primary interface and strategic analytics partner between Data Engineering / DWH teams, management, and business leaders. In this strategic role, you will work closely with leadership and business partners to translate business objectives into actionable data solutions, establish analytics standards and best practices, and lead experimentation across core business processes. You will also plan, prioritize, and manage analytics initiatives and roadmaps, ensuring the timely delivery of insights and solutions that drive informed decision-making across Marketing, Sales, Finance, Support, and Customer Success.
Key Responsibilities
Serve as the primary interface and analytics partner between Data Engineering / DWH teams and business stakeholders
Translate business needs into analytics requirements, specifications, roadmaps, and prioritized backlogs
Collaborate with Data Engineers on DWH requirements, data models, and pipelines
Plan, coordinate, and track analytics initiatives and projects to ensure timely delivery and alignment with business objectives
Support stakeholders in understanding, interpreting, and using ingested and production data
Define and own analytics standards, metrics, and best practices across the company
Design, execute, and analyze experiments to optimize core business processes
Define dashboard requirements and deliver impactful dashboards and insights
Work with Systems, Product, and R&D teams to map data sources, address data gaps, and improve data quality.
Requirements:
5+ years of experience in Data Analytics, Business Intelligence, or a related role
Experience building dashboards using modern BI tools
Strong ability to explain complex data concepts and insights to non-technical audiences
Extensive SQL skills and experience working with large, complex datasets
Strong program/project management skills
Experience working with data warehousing, data modeling, and ETL/ELT concepts
Strong understanding and experience with business domain processes (GTM, Finance, Support, Customer Success)
Strong presentation and communication skills and proficiency in English.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597071
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Our Senior Data Engineer will play an essential role by building the underlying infrastructures, collecting, storing, processing and analyzing large sets of data, while collaborating with researchers, architects, and engineers, in order to design and build high-quality data processing for our flows.

In this role, you are responsible for end-to-end development of the data pipeline and data models, working with major data flow that includes structured and unstructured data. You will also hold responsibility for operating parts of our production system. Your focus will be on developing and integrating systems that retrieve and analyzing data that influence people's lives. This role for our Tel Aviv office is a hybrid role working at least two days per week in the office.
Requirements:
The ideal candidate will be:
A technology enthusiast - who loves data and get shiver excitement from tech innovations.
Desire to know how things work and a greater desire to improve them.
Intellectual curiosity to find unusual ways to solve problems.
Comfortable taking on challenges and learning new technologies.
Comfortable working in a fast-paced dynamic environment.

Qualifications:
6+ years of experience in designing and implementing server-side Data solutions.
Highly experienced with CI/CD pipelines and using Terraform in data platforms.
Highly experienced with Spark and Python.
Experience with AWS ecosystem.
Experience with DWH solutions (e.g. Snowflake, Redshift, Databricks).
Experience with Kubernetes in Production.
Experience implementing GenAI into data flows - Advantage.
Experience with Apache Airflow - Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597055
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a talented Data Engineer to join our analytics team in the Big Data Platform group.
Job Id: 25380
You will support our product and business data initiatives, expand our data warehouse, and optimize our data pipeline architecture with an AI first attitude.
The ideal candidate is experienced in leveraging AI tools as part of modern data pipeline development, enabling scalable solutions, accelerating delivery, and continuously exploring new approaches and technologies.
The right candidate is excited by the prospect of building the data architecture for the next generation of products and data initiatives.
This is a unique opportunity to join a team full of outstanding people making a big impact on us.
We work on multiple products in many domains to deliver truly innovative solutions in the Cyber Security and Big Data realm.
This role requires the ability to collaborate closely with both R&D teams and business stakeholders, to understand their needs and translate them into robust and scalable data solutions.
Key Responsibilities
Maintain and develop enterprise-grade Data Warehouse and Data Lake environments
Create data infrastructure for various R&D groups across the organization to support product development and optimization
Work with data experts to assist with technical data-related issues and support infrastructure needs
Identify, design, and implement internal process improvements: automating manual processes, optimizing data delivery, redesigning infrastructure for scalability
Build and maintain robust ETL/ELT pipelines for data ingestion, transformation, and delivery across various systems
Incorporate AI-assisted tools into data pipeline design, development, and optimization to improve efficiency, scalability, and innovation
Requirements:
B.Sc. in Engineering or a related field
3+ years of experience as a Data Engineer working on production systems
Advanced SQL knowledge and experience with relational databases
Proven experience using Python
Hands-on experience building, optimizing, and automating data pipelines, architectures, and data sets
Experience in creating and maintaining ETL/ELT processes
Strong project management and organizational skills
Strong collaboration skills with both technical (R&D) and non-technical (business) teams
Experience using AI tools as part of the data engineering workflow, with a mindset of experimentation, working at scale, and exploring new technologies
Advantage: Azure data services, Databricks, EventHub, and Spark.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597003
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were hiring a Machine Learning Engineering Manager to guide and grow a high-impact ML team driving AI-powered innovation across Stamplis B2B SaaS platform. Youll lead the design and delivery of AI solutions while mentoring engineers and setting the technical direction for AI-first development at scale.

This is a leadership role with a balance of hands-on engineering and team management, perfect for someone who thrives on solving technical challenges, inspiring a team, and shaping the future of AI in fintech automation.

What You Will Do:
Lead & Mentor: Manage, mentor, and grow a team of ML engineers, fostering technical excellence and career development.
Set Technical Direction: Define the ML strategy, ensuring best practices in architecture, frameworks, and operationalization.
Build and deploy AI-based solutions: Oversee the development and deployment of GenAI/LLM-powered solutions that address real-world challenges across our products.
Scale & Operationalize: Establish scalable ML infrastructure, CI/CD, observability, and data pipelines for high-availability production systems.
Collaborate Cross-Functionally: Partner with product managers, engineers, and business stakeholders, clearly communicate progress, challenges, and outcomes.
Requirements:
7+ years of experience as a Backend Developer / Data Engineer / ML Engineer.
3+ years in a technical leadership role.
Python (Java as an advantage).
Bachelors degree in Computer Science or related STEM field (Masters preferred).
Proven track record of building and deploying AI-based solutions at scale.
Deep expertise with LLMs and ML frameworks (e.g., LangChain, LangGraph, Hugging Face, TensorFlow, PyTorch).
Strong background in system design, cloud-native architecture, and microservices.
Experience with NoSQL and real-time data processing pipelines.
Exceptional leadership, mentorship, and communication skills.
Strategic mindset with the ability to balance hands-on coding and team leadership.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8596972
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for an experienced Data Science Team Lead to lead and grow our Data Science team. This is a managerial role focused on leading a team of Data Scientists while driving the strategy, execution, and delivery of impactful AI and ML initiatives across our SaaS platform.

You will be responsible for both people leadership and technical direction - ensuring high standards of execution, mentoring team members, and aligning data science efforts with product and business goals. This role requires a strong hands-on background combined with proven team management experience.

What You Will Do:
Lead, mentor, and manage a team of 7-10 Data Scientists, fostering a culture of ownership, excellence, and continuous learning.
Own the teams roadmap, prioritization, and delivery of AI initiatives.
Provide technical and architectural guidance across projects.
Drive end-to-end execution of data science solutions - from problem definition and research to modeling, evaluation, deployment, monitoring and enhancement cycles.
Collaborate closely with Product, Engineering, and Business stakeholders to translate business needs into scalable AI solutions.
Ensure production-grade standards, model performance monitoring, and continuous improvement.
Stay up to date with advances in machine learning, GenAI, and LLM technologies, and translate them into business impact.
Take responsibility for hiring, onboarding, and developing top data science talent.
Requirements:
6+ years of experience in Data Science or Machine Learning roles.
At least 2+ years of managerial experience leading a team of 4 Data Scientists or more.
Proven experience delivering AI/ML solutions to production in a SaaS or product environment.
Strong expertise in machine learning frameworks such as PyTorch, TensorFlow, XGBoost, or similar.
Advanced SQL skills and experience working with large datasets.
Experience working in cross-functional environments with Product and Engineering teams.
Strong communication skills in English and Hebrew.
Bachelors degree in Computer Science, Engineering, data science related degree or related fields (Masters degree is an advantage).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8596959
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו