משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בקבוצת Aman
אנחנו מגייסים data Scientist מנוסה להצטרף לפרויקט ממשלתי אסטרטגי בירושלים פרויקט INSIGHT להקמת פלטפורמה מרכזית לניתוח מידע וקבלת החלטות מבוססות דאטה. הפלטפורמה תכלול אגם מידע אגפי מבוסס נימבוס, חיבור למקורות מידע ממשלתיים, אנליטיקה מתקדמת, מודלים של ML/AI, יכולות self-service ודשבורדים לשימוש משרדי ממשלה.
דרישות:
ניסיון של 7+ שנים בתחום הדאטה, מתוכן 3+ שנים ב- data Science
ניסיון ושליטה ב- Python ו-SQL
ניסיון מוכח בבניית מודלים ויישומם בסביבות ייצור
היכרות עם Big Data, ענן וטכנולוגיות מתקדמות
יכולת הובלה עצמאית של פרויקטי data End-to-End
ניסיון עם מסדי נתונים רלציוניים/לא-רלציוניים
היכרות עם תהליכי DQA
שליטה בכלי ויזואליזציה ודיווח
רקע בפיננסים/ממשל
תואר שני ומעלה בתחומים רלוונטיים (מדעי המחשב, סטטיסטיקה, חקר ביצועים, מתמטיקה, הנדסה ) או תואר שלישי + ניסיון רלוונטי של 9 שנים ומעלה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8131003
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בקונסיסט מערכות בע"מ
מיקום המשרה: לוד
סוג משרה: משרה מלאה
ארגון ממשלתי מחפש מפתח DS ללוד!
תיאור התפקיד: פיתוח מודלים מורכבים של נתונים, אסטרטגיות ואלגוריתמים באמצעות ניתוחים אוטומטיים. יישום ופיתוח מודלים סטטיסטיים ומתמטיים הכוללים חיזוי, סיווג, רשתות נוירונים, למידת מכונה (Learning Machine(, יתור אנומליות, ושיטות מדעיות אחרות. ממשק צמוד עם הגורמים השונים במשרד, לצורך מתן פתרונות מורכבים, לרבות יהוי ואינטגרציה של דאטה חדש ורלוונטי אל תוך המודל(ים). שימוש מתקדם ב- data Big באמצעות בניית מודלים, פיתוח ושימוש באלגוריתמים מורכבים וניתוח תהליכים לצורך זיהוי כיוונים ומגמות בארגון. העברה לייצור ביחידות הפיתוח וסיוע למנהל המוצר וליחידה העסקית בהטמעה.
דרישות:
5 שנות ניסיון ומעלה בתפקידי דאטה, מתוכן שנתיים לפחות ב- data science.
ידע מוכח בהטמעת ופריסת מודלי AI לסביבות ייצור (triton nvidia,torchserve)
ידע מוכח בשפת Python ובכתיבת קוד ל- (pydantic);production
ניסיון מוכח בעבודה ב- gcp לרבות שימוש ב-(artifact registry, cloud run jobs, workflow, gke) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8638874
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בהאוניברסיטה העברית בירושלים
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
מנהל /ת היחידה אמון על הובלת פעילות היחידה לצורך תמיכה בתהליכי ניתוח ותכנון מדיניות, וקידום תהליכים מרכזיים בארגון. במסגרת התפקיד, המנהל/ת ישמש/תשמש גורם מפתח בגיבוש מבנה נתונים רלוונטיים כיסוד לתהליכי קבלת החלטות של הנהלת האוניברסיטה, ובליווי תהליכי יישום תוכניות האוניברסיטה בשיתוף פעולה עם היחידות השונות.
יעוץ להנהלת האוניברסיטה בגיבוש מדיניות מבוססת מידע ונתונים, הכנת תוכניות לטווח קצר וארוך, ובהתוויית אסטרטגיה תומכת לקבלת החלטות בארגון.
סיוע במעקב שוטף אחר יישום התוכנית האסטרטגית של האוניברסיטה ותוכניות פיתוח של היחידות, זיהוי פערים ויזום צעדים לשיפור.
ייזום והובלת ניתוח מגמות והשוואת נתונים בין האוניברסיטה העברית לאוניברסיטאות אחרות בארץ ואוניברסיטאות מובילות בעולם, בפרמטרים הרלוונטיים להשכלה הגבוהה.
פיקוח על עיבוד נתונים כלכליים/סטטיסטיים והפקת דו"חות עבור גורמים שונים באוניברסיטה.
הנעת תהליכי מעקב, ניתוח וטיוב מאגרי המידע המועברים לוועדה לתכנון ותקצוב (ות"ת).
דרישות:
תואר אקדמי בסטטיסטיקה/ כלכלה/ מדע הנתונים/ תחום רלוונטי אחר.
ניסיון בניתוח נתונים והצגת תמונת מצב ותהליכים מורכבים בפני הנהלת הארגון או גורמים בכירים אחרים.
מיומנויות עבודה עם יישומי Office ועם מערכות IT ובכלל זה שליטה ב- EXCEL ובפרט PIVOT ונוסחאות כלכליות וסטטיסטיות מורכבות, היכרות ועבודה עם מערכות ERP, BI וכלי AI ברמה גבוהה מאוד.
היכרות טובה עם מערכת ההשכלה הגבוהה בישראל ואופן תקצובה- יתרון.
הכרות עם המערכת האוניברסיטאית והתרבות הארגונית באוניברסיטה- יתרון.
ניסיון בהובלת תהליכים ושינויים בארגונים גדולים - יתרון.
ניסיון בניהול צוות עובדים- יתרון.
ידיעת השפה העברית על בוריה ואנגלית ברמה טובה מאוד בעל פה ובכתב.
יכולת תקשורת בין-אישית גבוהה בדגש על מיומנויות הצגה, שכנוע וניהול קונפליקטים.
יכולות אנליטיות, חשיבה שיטתית ויכולת גבוהה של הסקת מסקנות מנתונים.
יוזמה, יצירתיות, יכולת למידה עצמית ויכולת עבודה עצמאית ובצוות.
יכולת להתמודד עם ריבוי משימות ועמידה בלו"ז. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8634166
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בלוגיקה IT
אנחנו מגייסים מנהל /ת מחלקת דאטה שייקח/תיקח אחריות מלאה על עולם הנתונים בארגון גדול במרכז, ויהפוך/תהפוך דאטה מתשתית טכנית למנוע קבלת החלטות חכם, מבוסס AI!

מה בתפקיד?
- הובלת מחלקת הדאטה וצוותים
- אחריות על ארכיטקטורת DWH
- אפיון ופיתוח בסביבת Oracle
- פיתוח תהליכי ETL (DataStage ודומים)
- עבודה עם BI (Qlik) והפקת תובנות עסקיות
- הובלת פרויקטים משמעותיים בעולם הדאטה והAI, כולל שילוב פתרונות AI  
  בתהליכים ארגוניים
דרישות:
למי זה מתאים?
למי שמביא/ה שילוב של עומק טכנולוגי, ראייה מערכתית ויכולת הובלה והשפעה אמיתית.
דרישות עיקריות:
- ניסיון ניהולי בדאטה / מערכות מידע
- ניסיון עם - PL/SQL וOracle
- ניסיון בפיתוח תהליכי ETL
- אפיון וניתוח מערכות דאטה  
- היכרות עם AI - יתרון
- הובלת צוותים ופרויקטים מורכבים

זו הזדמנות מעולה להיכנס לתפקיד עם השפעה משמעותית! המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628228
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בוראסיטי
מיקום המשרה: רחובות
סוג משרה: משרה מלאה
אנו מחפשים data Analyst מנוסה להצטרף לצוות הדאטה וה- BI בארגון. התפקיד כולל עבודה עם מקורות נתונים מגוונים, ניתוח ביזנס דאטה לצורך הפקת תובנות עסקיות, בניית דשבורדים ומדדים, וניתוח תהליכי ייצור באמצעות כלי אנליטיקה מתקדמים.במסגרת התפקיד תהיה עבודה שוטפת עם מערכות נתונים, פיתוח שאילתות ו-SPL ב-Splunk והובלת תהליכי ניתוח נתונים התומכים בקבלת החלטות עסקיות.
ניתוח נתונים עסקיים והפקת תובנות מבוססות דאטה לצוותי מוצר, תפעול וניהול.
עבודה עם בסיסי נתונים וכתיבת שאילתות מורכבות לצורך שליפה, עיבוד וניתוח נתונים.
פיתוח ותחזוקה של דשבורדים ודוחות BI (כולל עבודה עם Qlik Sense).
עבודה עם מערכת Splunk לניתוח לוגים ונתונים תפעוליים.
פיתוח שאילתות ו-Searches בשפת SPL (Splunk Processing Language).
ניתוח תהליכי ייצור ותהליכים תפעוליים לצורך איתור צווארי בקבוק ושיפור ביצועים.
עבודה עם צוותי פיתוח, תפעול וביזנס לצורך הגדרת KPI ומדדי ביצוע.
דרישות:
ניסיון של 2+ שנים בתפקיד data Analyst / BI Analyst.
ניסיון בניתוח Business data והפקת תובנות עסקיות.
ניסיון בעבודה עם בסיסי נתונים ו-SQL.
ניסיון בבניית דשבורדים ודוחות BI (יתרון לניסיון ב-Qlik Sense).
ניסיון בניתוח תהליכים תפעוליים או תהליכי ייצור - יתרון משמעותי.
יכולת עבודה עם כמויות גדולות של נתונים.
חשיבה אנליטית ויכולת הסקת מסקנות עסקיות מנתונים.
יתרונות
ניסיון בעבודה עם Splunk וכתיבת שאילתות SPL.
ניסיון עם כלי BI נוספים כגון Power BI / Tableau / Qlik Sense.
ניסיון בעבודה עם מערכות לוגים ו-Monitoring.
היכרות עם תהליכי data Pipeline או data Modeling.
מהנדס תעשייה וניהול.
מיומנויות נדרשות
חשיבה אנליטית חזקה ויכולת פתרון בעיות.
יכולת לתרגם נתונים לתובנות עסקיות.
יכולת עבודה בצוות ותקשורת מול גורמים עסקיים וטכנולוגיים.
סדר וארגון בעבודה עם נתונים ומקורות מידע. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589886
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בסלע מסחר ולוגיסטיקה
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה מובילה בתחום הלוגיסטיקה וההפצה מגייסת DATA ANALYST לתפקיד משמעותי במחלקת מערכות מידע בחברה.

שליפה וניתוח של נתוני פעילות, טיוב נתוני מערכות החברה
אחריות בלעדית על נתוני הפעילות במערכות מידע
טיוב נתוני מערכות החברה
הסקת מסקנות משמעותיות ניתוח נתונים
הנגשת הנתונים למנהלים וללקוחות נחברה
ניהול הדאטא במערכות- תחזוקה שוטפת של הנתונים.

המשרה ממוקמת באשדוד
דרישות:
השכלה אקדמית בתחום - חובה
ידע וניסיון בSQL - חובה
מהנדס/ת תעשייה וניהול- יתרון משמעותי
ניסיון עם מסדי נתונים גדולים
ניסיון עם Power BI - יתרון משמעותי
עבודה בכמה פרוייקטים במקביל
עבודה במשרה מלאה: 08:00-17:00. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8505182
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSoftware AG-SPL
מיקום המשרה: רמת גן
חברת Software AG מגייסת מנהל.ת פרויקטי דאטה מנוסה לארגון ממשלתי ברמת גן.
המשרה כוללת הובלת פרויקט הקמת פלטפורמת דאטה בענן מקצה לקצה, כולל ניהול לו"ז, תיאום בין צוותים וספקים ובקרת התקדמות.
עבודה Hands-On ב-GCP עם פיתוח data Pipelines ב- Dataform מעל BigQuery, הקמת תשתיות ופתרון תקלות.
תכנון והטמעת ארכיטקטורת data Lake / DWH כולל data Governance, אבטחת מידע וליווי מיגרציה מ-On-prem לענן.
ניהול סיכונים, עבודה מול הנהלה ואבטחת מידע, ודיווח שוטף על סטטוס ועמידה ביעדי הפרויקט.
דרישות:
- 6 שנות ניסיון בניהול פרויקטי דאטה
- ניסיון בפיתוח/תשתיות/ data Engineering
- ניסיון בעבודה עם ענן/AI
- הבנה עמוקה של עולם הדאטה: מודלינג, ETL, מסדי נתונים
- השכלה רלוונטית בתחום המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8649354
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
מיקום המשרה: רמלה
למערך טכנולוגי מוביל בענף אגמים (פיקוד העורף), דרוש/ה data Engineer להשתלבות בצוות ליבה בפרויקט בעל חשיבות לאומית.
התפקיד כולל עבודה Hands-on מקצה לקצה על תשתיות נתונים - החל משלב ה-Ingestion ממקורות מגוונים, דרך פיתוח וניהול תהליכי ETL /ELT ועד תכנון והקמה של data Warehouse ( DWH ) מתקדם.
העבודה מתבצעת בסביבה טכנולוגית מתקדמת וברשתות מסווגות, תוך שימוש בכלים מודרניים והשפעה ישירה על פרויקטים משמעותיים.
משרה מלאה, ללא היברדיות ברמלה.
דרישות:
לפחות שנתיים ניסיון כ- data Engineer (גם ג'וניור עם ניסיון מעשי) - חובה.
ניסיון בעבודה עם Airflow ו-Azure data Factory - חובה.
ניסיון בתהליכי Ingestion ובניית DWH - חובה.
שליטה גבוהה ב-SQL - חובה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589963
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.
This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
35 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS-based data technologies.

Experience in building and maintaining advanced data pipelines from various data sources.

Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI, Tableau.
Experience with scripting/coding languages such as Python.
Ability to work independently, with attention to detail and strong initiative.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8629743
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בקבוצת Aman
מיקום המשרה: רמת גן
פיתוח ותחזוקה של תהליכים בסביבת ענן (Azure) עם DataBricks ו- DataFactory לעיבוד נתונים בקנה מידה גדול, אופטימיזציה של ביצועים וניהול נתונים בקבצי Parquet בענן.
עצמאות ועבודה שוטפת מול משתמשים.
קבלת הדרישה מהמשתמשים, כתיבת אפיונים טכניים וליווי הפיתוח כולל בדיקות, עלייה לייצור והטמעה מול המשתמשים.
הגדרת ממשקים מול מערכות בארגון ומחוצה לו
דרישות:
ניסיון של 3 שנים לפחות ב Python - חובה
ניסיון בכתיבת שאילתות SQL ברמה מורכבת - חובה
ניסיון בSpark - חובה
ניסיון בעבודה עם בסיסי נתונים גדולים, כולל אופטימיזציה של שאילתות - יתרון
ניסיון פיתוח בReact - יתרון
תואר ראשון במדעי המחשב - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8376478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
ארגון בצפון מגייס מהנדס/ת תוכנה data & Machine Learning
התפקיד כולל: עבודה עם מערכות נתונים ומערכות backend, פיתוח והובלת תהליכי data ו-ML בסביבת Production, פיתוח והטמעה של תשתיות תוכנה בעולם הנתונים וה- Machine Learning, תוך אחריות על מידע מקצה לקצה במערכות מורכבות, בניית data Pipelines, תמיכה בתהליכי אימון והרצת מודלים. עבודה צמודה עם צוותים רבתחומיים והפיכת רעיונות לפתרונות תוכנה ועוד.
דרישות:
- 5 שנות ניסיון בפיתוח תוכנה בתחום data & Machine Learning בסביבת
Production
- ניסיון בעבודה עם Machine Learning / תהליכי מודלים
- תואר ראשון רלוונטי בתחום
- אנגלית ברמה גבוה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8649148
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק ביטחונית בצפון דרוש.ה מפתח.ת BI למגוון פרויקטים 
עבודה בסביבה טכנולוגית מתקדמת!
דרישות:
- תואר ראשון בהנדסת מערכות מידע, תעשייה וניהול, מדעי המחשב או תחום רלוונטי אחר
- 3 שנות ניסיון בפיתוח דוחות ודשבורדים בכלי ניתוח נתונים
- 3 שנות ניסיון מעשי ב-SQL מורכבים, פתרון בעיות וכוונון שאילתות
- כישורים אנליטיים מעולים והתמצאות בנתונים
- הבנה של ארכיטקטורת BI : DWH, ETL  ומידול נתונים
- ניסיון בפיתוח OBIEE או כלי פיתוח BI  אחר (Qlik View, Tableau) - יתרון
- ניסיון בפיתוח ETL - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8630150
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים במכון פילת מקבוצת היי קפיטל
מיקום המשרה: ראשון לציון
לחברת נתיבי איילון דרוש/ה מנהל /ת תחום פרויקטים טכנולוגיים
הובלת פרויקטים בתחום טכנולוגיות לתשתיות תחבורה חכמות וחיבורן למערכות ניהול תנועה בזמן אמת.
תכנון, פיתוח וניהול פרויקטים חדשניים בממשק בין דאטה, תשתיות פיזיות, מערכות חומרה ותוכנה, תקשורת, סייבר, רגולציה ועד למשתמשי הקצה.
הובלה מלאה של פרויקטים מורכבים - פרוגראמטית, טכנולוגית, תפעולית וניהולית - משלב הקונספט, דרך תכנון מפורט, פיילוטים, מכרזים, אינטגרציה, ועד למימוש והטמעה בשטח.
מעקב ובקרה אחר ניהול התקציב לרבות אומדנים, תחשיבים, לו"ז, משימות, אבני דרך, תוכניות עבודה, יעדים וניהול הסיכונים של הפרויקטים.
ביצוע מעקב, בקרה ודיווח שוטף להנהלה על התקדמות הפרויקטים, מדדי ביצוע, עמידה ביעדים וניהול חריגות.
כתיבת מסמכי קונספט, אפיונים, תוכניות ניסוי (PoC / Pilot) מסמכי דרישות ומכרזים, תוך שילוב סקירות טכנולוגיות, ניתוח מגמות ושימושים מהעולם.
הצגת תוכניות עבודה, קונספטים וסטטוס פרויקטים להנהלה בכירה, לגורמי רגולציה ועוד.
דרישות:
תואר אקדמי המוכר ע"י המל"ג.
ניסיון של 5 שנים באחד מעולמות התוכן הבאים: טכנולוגיה/ תקציבים/ פרויקטים/ חוזים.
שימוש בכלי ניהול פרויקטים ובקרה בבניית גאנטים ומעקב אחר אבני דרך.

דרישות המהוות יתרון:
נסיון בעולמות דאטה / אלגוריתמיםEmbadded systems/ /ML / AI / מערכות זמן אמת / מערכות מבוססות חיישנים.
הבנה מעמיקה בתחומי ניהול תנועה, תשתיות תחבורה, City/Smart Mobility או חדשנות דיגיטלית, מערכות שליטה בזמן אמת.
ניסיון מוכח בהובלת פרויקטים מורכבים מרוביממשקים - כולל אינטגרציה מערכתית/טכנולוגית/רגולטורית.
ראייה מערכתית ארוכתטווח ( system Thinking) ושילוב בין תחום מבצעישטח לתחום דיגיטלי/ דאטה.
ניסיון בהובלה מטריציונית, ניהול ספקים והנעת שותפים פניםארגוניים וחיצוניים.
חשיבה חדשנית, עם יכולת להניע תהליכים בסביבה משולבת בעלי עניין. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8639740
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים במאיה השמה
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה ציבורית במרכז והשפלה דרוש/ה אנליסט/ית  data  ומוביל פרויקטים טכנולוגיים לתפקיד משמעותי הכולל ניתוח, בקרת נתונים והובלת פרויקטים חדשניים בעולמות מערכות מידע.
התפקיד משלב עבודה עם  data, הפקת תובנות, ליווי והובלת תהליכי שיפור ביצועים בעבודה מול ממשקים חוצי ארגון.
ניהול פרויקטים בתחום הדאטה והמערכות האנליטיות (E2E)
אפיון צרכים עסקיים ותרגומם לדרישות נתונים וניתוחים
ביצוע ניתוחי נתונים ( data Analysis) והפקת תובנות עסקיות
בניית דוחות, KPI ודשבורדים ( BI )
עבודה מול צוותי IT, פיתוח, BI וגורמים עסקיים
ליווי קבלת החלטות מבוססות דאטה ( data -Driven Decision Making)
בקרה על איכות נתונים ( data Quality) וטיוב מידע
דרישות התפקיד
תואר ראשון רלוונטי
ניהול פרוייקטים - יתרון משמעותי
ניסיון של שנתיים לפחות בתפקיד דומה
ניסיון בעבודה עם כלי  BI  ואנליטיקה
ניסיון בניתוח נתונים והפקת תובנות
יכולת הובלה והטמעת פרויקטים בתחום מערכות מידע
דרישות:
ניהול פרוייקטים - יתרון משמעותי
ניסיון של שנתיים לפחות בתפקיד דומה
ניסיון בעבודה עם כלי  BI  ואנליטיקה
ניסיון בניתוח נתונים והפקת תובנות
יכולת הובלה והטמעת פרויקטים בתחום מערכות מידע המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8616927
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Jerusalem
Job Type: Full Time
We are looking for someone who brings ML and computer-vision depth to the team - someone who can help shape the intelligence layer that decides what data is worth training on.
What will your job look like:
Work collaboratively with shared ownership. Your focus area will be the curation and ML side of our data pipeline, but you will contribute across the full stack alongside the rest of the team.
Build and improve the curation pipeline - from vision-model embeddings and scene detection, through VLM-based scene analysis, to scoring, deduplication, and sampling that produces a balanced and diverse dataset.
Run and optimize GPU inference at scale (embedding extraction, VLM inference) across thousands of driving sessions using workflow orchestration.
Develop scoring and sampling strategies that ensure rare but important scenarios (night driving, adverse weather, hazardous situations) are well-represented in the final dataset.
Work with algorithm teams to understand what data gaps hurt model performance and translate those into curation criteria.
Build validation and diagnostics that measure dataset quality - not just pipeline health, but whether the data is actually good for training.
Contribute to the core dataset SDK, converter, and 3D-geometry tooling (camera projection, calibration, coordinate transforms).
Requirements:
4+ years in ML engineering, applied CV, or a similar role combining model work with production data systems.
Hands-on experience with vision models - embeddings, VLMs, or object detection/segmentation.
Strong Python and comfort with the PyData stack (NumPy, PyArrow, Pandas, DuckDB).
Experience building data or ML pipelines that run at scale (not just notebooks).
Solid understanding of 3D geometry and camera models - or the mathematical background to ramp up quickly.
Good understanding of LLM agents and agentic workflows, with genuine interest in applying them to data and engineering problems.
Ability to work across team boundaries with algorithm and infrastructure people.
Strong advantage:
Experience with autonomous-driving datasets or perception pipelines.
Familiarity with dataset curation techniques (active learning, hard-example mining, distribution balancing).
Experience with GPU inference serving (vLLM, Triton, TensorRT).
Familiarity with vector databases or columnar analytics (LanceDB, DuckDB).
Experience with workflow orchestration (Argo, Airflow, Kubeflow).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8635950
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ramat Gan
Job Type: Full Time
Required Senior ML Data Engineer
Ramat Gan
Full time
The AI Engineering group builds modern infrastructure and solutions that improve how algorithms are developed.
We are a small, independent team of experienced engineers with a mix of skills in algorithms, software, and infrastructure. We work in a DevOps style and build cross-team solutions that support research and development of advanced perception algorithms.
Our flagship project is a unified AV dataset used to train and evaluate next-generation models. We take large volumes of multi-camera video, object labels, HD maps, and sensor data from across the organization, and turn it into a curated, high-quality training set - at scale.
We are looking for someone who brings ML and computer-vision depth to the team - someone who can help shape the intelligence layer that decides what data is worth training on.
What will your job look like:
Work collaboratively with shared ownership. Your focus area will be the curation and ML side of our data pipeline, but you will contribute across the full stack alongside the rest of the team.
Build and improve the curation pipeline - from vision-model embeddings and scene detection, through VLM-based scene analysis, to scoring, deduplication, and sampling that produces a balanced and diverse dataset.
Run and optimize GPU inference at scale (embedding extraction, VLM inference) across thousands of driving sessions using workflow orchestration.
Develop scoring and sampling strategies that ensure rare but important scenarios (night driving, adverse weather, hazardous situations) are well-represented in the final dataset.
Work with algorithm teams to understand what data gaps hurt model performance and translate those into curation criteria.
Build validation and diagnostics that measure dataset quality - not just pipeline health, but whether the data is actually good for training.
Contribute to the core dataset SDK, converter, and 3D-geometry tooling (camera projection, calibration, coordinate transforms).
Requirements:
4+ years in ML engineering, applied CV, or a similar role combining model work with production data systems.
Hands-on experience with vision models - embeddings, VLMs, or object detection/segmentation.
Strong Python and comfort with the PyData stack (NumPy, PyArrow, Pandas, DuckDB).
Experience building data or ML pipelines that run at scale (not just notebooks).
Solid understanding of 3D geometry and camera models - or the mathematical background to ramp up quickly.
Good understanding of LLM agents and agentic workflows, with genuine interest in applying them to data and engineering problems.
Ability to work across team boundaries with algorithm and infrastructure people.
Strong advantage:
Experience with autonomous-driving datasets or perception pipelines.
Familiarity with dataset curation techniques (active learning, hard-example mining, distribution balancing).
Experience with GPU inference serving (vLLM, Triton, TensorRT).
Familiarity with vector databases or columnar analytics (LanceDB, DuckDB).
Experience with workflow orchestration (Argo, Airflow, Kubeflow).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8635574
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ramat Gan
Job Type: Full Time
We are looking for a Data Engineer to join our Object Detection group and play a key role in managing and enabling data workflows that power our computer vision algorithms. Our team generates and processes large volumes of diverse data from multiple sources, and we need someone who can bridge the gap between raw data and algorithmic innovation. Working alongside algorithm developers and researchers, you'll be responsible for building robust data pipelines, ensuring data quality, and making complex datasets accessible and actionable for our detection models. This role requires both strong coding abilities and a deep understanding of data - you'll need to think like an engineer while understanding the unique needs of a research and development-focused algorithmic group.
What will your job look like:
Work on large-scale systems handling diverse data from multiple sources
Build and maintain robust data pipelines that enable algorithmic development
Evaluate various optional technologies and take part in decision-making
Own key features and services within the data infrastructure
Ensure data quality and accessibility for detection models and research needs
Work onsite in Jerusalem at least one day a week.
Requirements:
BSc. in Computer Science or equivalent - must
3+ years of software development experience
Strong skills in Python and data-related libraries
Solid understanding of data structures and workflows
Experience with databases (SQL/NoSQL).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8635499
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
03/05/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Senior Data Scientist.
As a Sr. Data Scientist, you will be spearheading the analysis of tens of thousands of patient-therapist conversations, working closely with our leadership, product, and clinical experts team, to derive insights that directly improve therapy sessions for thousands of people.
This is a unique opportunity to join a startup with real impact on the wellbeing and mental health of thousands, applying cutting edge technology for solving a meaningful human problem with huge financial and psychological implications.
Requirements:
+5 years of proven industry experience as a data scientist
+3 years of experience in Python (production grade coding)
Proven experience in developing and delivering end-to-end AI models, from data cleaning, feature engineering, algorithm development, and implementation in production
Experience with NLP, LLM applications and Generative AI
Experience in Speech & Audio domain (e.g., Speech-to-text, Speakers Separation, Diarization, Speaker identification) - advantage
Experience with cloud platforms (e.g., AWS, GCP, Azure) - advantage
Start-ups experience - advantage
Master's or Ph.D. in Computer Science, Statistics, Machine Learning, or a related field - advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8634317
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We seek an experienced and highly skilled Senior Engineer to join our Data Platform Team. This is an exciting opportunity to work on cutting-edge technologies, drive innovation, and play a key role in designing and implementing the companys data infrastructure and architecture.

What you'll do

Database Infrastructure Development - Design, develop, and maintain scalable and reliable self-serve database infrastructure, including PostgreSQL, MongoDB, SingleStore, and AWS Aurora.

Big Data Infrastructure Development - Design, develop, and maintain scalable and reliable self-serve big data infrastructure, including cloud-agnostic data lakehouse, distributed databases, and platform-powered data pipelines.

End-to-End Ownership - Take responsibility for the entire lifecycle of data infrastructure, from DevOps (Terraform, Kubernetes) to application-level components (infrastructure libraries, core components in data pipelines).

Architecture Leadership: Collaborate with the Architecture group to define and maintain the companys core architectural vision.

Partner with development teams, providing technical guidance, best practices, and support from the design phase to production deployment.

Innovation and Exploration - Work on diverse and impactful projects across different layers of the tech stack, exploring new technologies and approaches to improve reliability, efficiency, and scalability.
Requirements:
Extensive Experience in software engineering and data infrastructure.
Extensive Expertise in the administration of OLTP and OLAP databases.
Strong knowledge of big data frameworks, including Apache Spark, Athena, Trino, and Iceberg.
Hands-on experience with DevOps tools such as Terraform, Kubernetes, and Cloud infrastructure.
Proficiency in building and managing data pipelines and core infrastructure components.
Strong problem-solving, communication, and leadership skills, with the ability to mentor and collaborate across teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8633890
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
03/05/2026
Location: Ramat Gan
Job Type: Full Time
We are honored to serve more than 1,800 customers, which includes 40 percent of all Fortune 100 companies including Siemens, Airbus, SalesForce, Stellantis, Adidas, Wal-Mart and Sanofi.
What are we looking for?
Director, Business Intelligence & AI to join our Business Applications organization. This is a senior individual contributor role with a director title and light team leadership (5 people), sitting at the intersection of data strategy, architecture, and execution. You'll own the data foundation that powers our company's most critical business decisions - from GTM and revenue analytics to operational intelligence across the organization.
You'll report to the VP of Business Applications and work closely with stakeholders across Finance, Sales, Marketing, Customer Support, Product, R&D, and HR to ensure our data assets are trustworthy, scalable, and increasingly AI-ready
What will you do?
Architecting the data foundation that makes it possible for business users to ask questions in plain English and get trusted, real-time answers.
Define and execute a strategy to migrate from traditional BI (dashboards, scheduled reports) toward AI-powered, natural language interfaces for business intelligence
Architect the data layer that enables LLM-based querying - including semantic layers, vector stores, knowledge graphs, and metadata enrichment - so that AI agents can reliably reason over company data
Design and own a scalable, AI-ready data architecture - warehouse/lakehouse structure, semantic layer, and data contracts - that supports both analytical and AI/ML workloads
Build robust data modeling foundations (clean entities, clear metrics definitions, consistent taxonomies) that LLMs can reason over accurately
Serve as a trusted advisor to business leaders across GTM, Customer Success, Finance, and Product - proactively engaging them to understand their decision-making needs
Translate ambiguous business questions ("why is churn spiking in the mid-market?") into well-defined data problems, and then into scalable, AI-powered solutions
Build strong relationships with stakeholders at all levels - from individual analysts to VP and C-suite - and maintain a prioritized roadmap that reflects real business value
Requirements:
What We're Looking For?
Must-Have
6+ years in data engineering, data architecture, or BI, with strong hands-on technical depth
Proven experience or deep knowledge of architectures that power natural language querying over structured business data - including semantic layers, LLM-to-SQL patterns, and AI/BI platforms
Solid data modeling foundations - dimensional modeling, data contracts, metrics layers - and an understanding of how these underpin reliable AI outputs
Experience with modern data stack: Snowflake, dbt, ETL/ELT tooling
Experience with automation and integration platforms (WORKATO, e.g.)
Genuine excitement about the shift from traditional BI to conversational, agentic intelligence - and the technical judgment to do it right
Strong business acumen - able to understand GTM, CS, and Support workflows deeply enough to proactively identify where data and AI can create leverage
Proven track record of building trusted partnerships with business stakeholders, influencing roadmaps, and driving adoption of data solutions.
Genuine curiosity about how businesses operate, and the ability to ask the right questions before jumping to solutions.
Strong communicator who can bridge technical architecture decisions with business use cases for non-technical stakeholders.
Nice-to-Have
Hands-on experience building LLM-powered data applications (AI agents over structured and unstructured data)
Background in B2B SaaS, ideally cybersecurity or developer tooling
Knowledge of Salesforce data models and GTM analytics
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8632928
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
one of the world's most impactful shopping recommendation companies, is searching for a talented Data Engineer to join our innovative team. For the past decade, we've served tens of millions of users globally, and we're looking for a passionate individual to help us continue our journey of making an impact.
What You'll Own:
Data Infrastructure
Build and operate data pipelines on GCP using Cloud Workflows, Cloud Functions, Cloud Scheduler, and BigQuery.
Create, Transform and Manage Datasets (Python, DBT,..)
Design and implement API integrations to pull data from affiliate networks, ad platforms, and internal services.
Ensure pipeline reliability, observability (monitoring, alerting, SLA management), and scalability.
Data Quality & Trust
Implement tests, freshness checks, and anomaly detection across all critical models.
Lead incident triage and root-cause analysis when data issues arise; build systems that catch problems before stakeholders do.
Maintain clear documentation of data contracts, schema definitions, and transformation logic.
ML & Data Science Collaboration
Work hand-in-hand with Data Scientists building ML models - ensuring feature tables, training datasets, and inference pipelines are clean and reproducible.
Build the data layer that feeds ML model training and evaluation, including feature stores and labeled datasets.
Requirements:
3-5+ years of Data Engineering or Backend Engineering experience with clear delivery in production systems.
Bachelor's (or higher) in Computer Science, Engineering, Mathematics, or a quantitative field (or equivalent background).
Strong Python skills: writing production-grade ETL/pipeline code, not just scripts.
SQL proficiency: complex window functions, CTEs, query optimization, and BigQuery-flavored SQL.
dbt: modeling patterns, incremental strategies, testing, and documentation.
GCP: hands-on experience with BigQuery, Cloud Functions, Cloud Workflows, or Cloud Scheduler (or equivalent cloud stack with willingness to ramp up quickly).
API integrations: building robust data ingestion from REST APIs with retries, pagination, and error handling.
Data quality mindset: you think about freshness, schema drift, nulls, and SLA before you're asked.
Nice‑to‑Haves:
Experience with affiliate marketing data (Amazon Associates, CJ, Impact, etc.) or ad platform APIs (Meta, Google Ads).
Familiarity with ML pipelines: feature engineering, training data prep, or serving infrastructure.
Event-driven architectures: Pub/Sub, Cloud Run, or equivalent.
Node.js: light scripting or serverless functions (our codebase is primarily Python, with occasional Node).
Version control and CI/CD: Git workflows, automated testing, and deployment pipelines.
Let's evolve together! If you're ready for a role where you can truly make a difference, apply now.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8631103
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
29/04/2026
Location: Jerusalem
Job Type: Full Time
We're in search of an exceptional hands-on Data Scientist who can bridge data infrastructure, fraud analytics, and machine learning to enhance our fraud detection capabilities. This role requires someone who can drive projects from ideation to implementation, leading these efforts while thinking strategically about how we detect and prevent fraud at scale. Our ultimate goal is to equip our clients with resilient safeguards against chargebacks, empowering them to safeguard their revenue and optimize their profitability. Join us on this thrilling mission to redefine the battle against fraud.
Your Arena:
Develop and enhance fraud detection models from concept to production, focusing on data normalization, network analysis, and risk scoring.
Take ownership to identify, analyze, and implement solutions for fraud patterns and behavioral anomalies.
Design, build and maintain data science pipelines and fraud intelligence systems to improve detection accuracy.
Collaborate with product, engineering, and risk teams to implement fraud prevention strategies.
Own projects end-to-end - balancing short-term wins with long-term strategy.
Requirements:
4+ years of hands-on experience in fraud analytics, data science, or risk modeling - Must
Proven experience in the Fintech/Fraud Prevention Domain - Must
Proven ability to take projects from A to Z in building data infrastructure, anomaly detection, and graph-based fraud detection solutions - Must
Strong practical proficiency in Python, SQL, MLOps and fraud-related data tools - Must
Strong background in e-commerce or payments - Advantage
A self-starter mentality - someone who identifies opportunities, takes initiative, and drives improvements with minimal direction.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8629607
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
29/04/2026
Location: Jerusalem
Job Type: Full Time
We are looking for a Head of Data Analytics to build and lead the companys data platform and data strategy. The Head of Data will own our entire data platform, research, and data strategy.
This includes building the data infrastructure that powers the company, establishing reliable company-wide metrics, enabling data-driven decision making, and turning our dispute and payments data into a long-term product advantage.
This is a foundational leadership role responsible for making data a core capability across the organization.
The Head of Data Analytics will work closely with Product, Engineering, Operations, and Leadership to ensure data becomes a central part of how the company builds products and runs the business.
Your Arena:
Data Platform and Architecture - Design and lead the development of our modern data infrastructure:
Building scalable data pipelines across product, payments, disputes, and internal systems
Developing a centralized data warehouse as the companys single source of truth
Ensuring data quality, reliability, and observability
Establishing data governance and best practices
Company Metrics and Decision Intelligence - Define and standardize the core metrics used across the company:
Establishing a consistent metrics framework across product, revenue, and operations
Building dashboards used by leadership and operational teams
Ensuring reliable and accessible reporting across the organization
Supporting data-driven decision making at the leadership level
Product Data and Insights - Partner with Product and Engineering to leverage our unique dispute and payment data:
Identifying patterns and insights across disputes and recovery performance
Enabling data-driven product development
Supporting predictive capabilities and automation in dispute management
Helping build product features powered by data insights
Operational Intelligence - Provide visibility and insights into dispute operations and business performance:
Building operational analytics dashboards
Supporting forecasting and capacity planning
Identifying automation opportunities
Improving operational performance through data insights
Building the Data Organization - Build and lead the companys data team:
Hiring and managing data engineers, analytics engineers, and analysts
Establishing strong data culture and best practices
Enabling teams across the company to use data effectively
Ensuring data privacy, security, and governance standards
What Success Looks Like - Within the first 12-18 months:
We operate from a trusted company-wide data platform
Leadership and teams rely on consistent and reliable metrics
Product teams leverage dispute data to build data-powered features
Operational performance becomes clearly measurable and optimized
A strong Data organization is established and growing.
Requirements:
We are looking for a leader who has built and scaled data capabilities in high-growth technology companies.
Ideal candidates typically have:
8+ years of experience in data, analytics, or data infrastructure leadership
Experience building and scaling data platforms in high-growth startups
Strong understanding of modern data stacks and architecture
Experience partnering closely with Product and Engineering
Experience building and leading data teams
Strong business judgment and ability to translate data into strategic insights
Experience with fintech, payments, or high-volume transaction data is a strong advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8629577
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
29/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
The role is both highly analytical and highly customer-facing. It requires a proactive mindset, strong influencing skills, and the ability to translate deep, data-driven fraud insights into clear, practical recommendations that help merchants make confident decisions. You will hire and develop analysts, define how the team operates, and play a central role in shaping how delivers fraud expertise in a high-performance, growth-oriented environment.

Key responsibilities

Build and lead a Fraud Analytics team focused on merchant-specific fraud strategies

Hire, mentor, and develop fraud data analysts while setting a high analytical and professional bar

Own complex fraud analyses and strategy recommendations end-to-end, from investigation to deployment

Design, test, and deploy fraud rules and data-driven strategies, leveraging machine learning models

Define clear success metrics and track performance against them

Work closely with Commercial teams in customer-facing contexts, supporting merchant conversations with clear, structured insights

Partner with Product, Data Science, Engineering, and Operations to translate merchant needs into scalable fraud capabilities

Influence across the organization and drive continuous improvement in how fraud strategy and analytics are delivered
Requirements:
6+ years of experience in data-driven processes and Fraud/Risk domains

2+ years of managing or mentoring a team of data fraud analysts

Excellent English communication skills, with the ability to explain complex topics clearly and confidently

Strong people skills and a genuine interest in working in customer-facing, collaborative environments

Strong SQL skills and a data-driven approach to problem solving

Good understanding of Machine Learning concepts in fraud detection

Technical depth to work effectively with an internal code-based risk engine

Python and BI tools experience are a plus
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8629464
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
29/04/2026
מיקום המשרה: מרכז
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה ובעל יכולות אנליטיות חזקות, שיצטרף אלינו ויוביל את בניית תשתיות הדאטה המאפשרות פיתוח, אימון והסקה של מודלים חכמים בקנה מידה גדול.
דרישות:
אנחנו מחפשים Data Engineer מנוסה ובעל יכולות אנליטיות חזקות, שיצטרף אלינו ויוביל את בניית תשתיות הדאטה המאפשרות פיתוח, אימון והסקה של מודלים חכמים בקנה מידה גדול.

התפקיד דורש הבנה עמוקה של התמונה העסקית–מערכתית, ויכולת להוביל תהליכי דאטה מקצה לקצה בסביבה טכנולוגית מתקדמת.
במסגרת התפקיד תהיה אחריות מלאה על הקמת שכבות דאטה, יצירת פאנלים לאימון ולהסקה, פיתוח תהליכי ETL/ELT, וחיבור למקורות מידע ארגוניים שונים תוך הבנה מעמיקה של הצרכים המודליים והעסקיים. תחומי אחריות/מה התפקיד כולל-
בניית תשתיות דאטה ופאנלים למודלי ML, כולל שכבות נתונים לאימון ולהסקה.
יצירת פאנלים דינמיים בזמן אמת וביצוע העשרת פיצ’רים ויצירת פיצ’רים מותאמים למודלים.
עבודה עם מקורות מידע ארגוניים ואיסוף נתונים יעיל ממערכות שונות.
פיתוח ושיפור תהליכי ETL/ELT (ב-Snowflake ו-DBT) תוך ניטור ואבטחת איכות הדאטה.
שיתוף פעולה עם Data Scientists, אנליסטים וצוותי MLOps לפתרונות דאטה חוצי ארגון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8582080
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
28/04/2026
Location: Bnei Brak
Job Type: Full Time
AI Transformation Lead -HO About the Role We are looking for a highly teהבגchnical and hands-on AI Transformation Lead to drive the implementation and adoption of AI across the organization. This is a builder role, not a strategy-only position. You will be responsible for identifying high-impact opportunities, designing and implementing AI-powered solutions, and integrating them into our existing systems and workflows across R&D, Support, Sales, and Operations. The ideal candidate combines a strong engineering background with the ability to translate business needs into scalable, production-ready solutions - and ensure they are actually adopted and deliver measurable impact.
Role Mission Lead the companys AI transformation end-to-end through practical implementation - building, integrating, and scaling AI-driven workflows and internal tools that improve efficiency, quality, and business performance across all departments.
What Youll Do Build & Implement AI Solutions (Core Focus)
* Design, build, and deploy AI-powered workflows, automations, and internal tools
* Develop rapid POCs and evolve them into production-ready solutions
* Work hands-on with LLMs, APIs, and automation frameworks
* Ensure solutions are scalable, maintainable, and aligned with system architecture
Integrate with Systems & Architecture
* Integrate AI solutions into existing platforms ( CRM, support systems, internal tools, data flows)
* Design robust integrations using APIs and orchestration layers
* Ensure alignment with engineering standards, security, and data integrity
Drive Cross-Company Impact
* Identify high-value use cases across R&D, Support, Sales, Domain, and Operations
* Translate business workflows into efficient, AI-driven processes
* Partner with stakeholders to ensure solutions solve real problems
Own Adoption & Impact
* Ensure solutions are used, not just built
* Define and track KPIs (efficiency, time saved, quality improvements, adoption rates)
* Continuously iterate based on feedback and real-world usage
Enable & Standardize
* Establish best practices for AI usage across the company
* Guide teams on how to effectively use AI tools in their daily work
* Act as the internal expert for AI workflows, tools, and capabilities
Requirements:
What Were Looking For Must-Have
* Strong background in software engineering / R&D / system architecture
* Proven hands-on experience building AI-powered solutions, automations, or internal tools
* Experience working with APIs, integrations, and system workflows
* Ability to take ideas from concept implementation adoption
* Strong systems thinking and architectural judgment
* Experience working cross-functionally with both technical and non-technical teams
* Builder mindset with a strong focus on execution and impact
Nice to Have
* Experience in B2B SaaS environments
* Experience improving internal processes (Support, Sales, Ops, etc.)
* Familiarity with modern AI tooling (LLMs, orchestration frameworks, agents)
* Experience with automation platforms (e.g., Make, Zapier, n8n) alongside custom implementations
* Background in product-oriented or operational roles
What Success Looks Like (First 3-6 Months)
* Delivered multiple production-level AI solutions with measurable business impact
* Reduced manual work and improved efficiency across at least 2-3 departments
* Successfully integrated AI workflows into core systems and daily operations
* Achieved strong adoption across teams (beyond experimentation)
Why This Role Matters This role is a force multiplier for the entire organization. By embedding AI into how we work - not just what we build - you will help us scale smarter, move faster, and significantly improve operational efficiency across the company.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627509
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
we are looking for a Senior Data Engineer I.
As a Senior Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspects-ensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and more.
Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.
Key Job Responsibilities and Duties:
Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.
Dealing with massive textual sources to train GenAI foundation models.
Solving issues with data and data pipelines, prioritizing based on customer impact.
End-to-end ownership of data quality in our core datasets and data pipelines.
Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.
Providing tools that improve Data Quality company-wide, specifically for ML scientists.
Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.
Acting as an intermediary for problems, with both technical and non-technical audiences.
Promote and drive impactful and innovative engineering solutions
Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation
Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.
21679
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.
Minimum of 6 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions.
You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.
You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)
Strong programming skills in languages such as Python and Java.
Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.
Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems
Experience with Data Warehousing and ETL/ELT pipelines
Experience in data processing for large-scale language models like GPT, BERT, or similar architectures - an advantage.
Proficiency in data manipulation, analysis, and visualization using tools lke NumPy, pandas, and matplotlib - an advantage.
Experience with experimental design, A/B testing, and evaluation metrics for ML models - an advantage.
Experience of working on products that impact a large customer base - an advantage.
Excellent communication in English; written and spoken.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627496
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Engineer.
As a Data Engineer, youll collaborate with top-notch engineers and data scientists to elevate our platform to the next level and deliver exceptional user experiences. Your primary focus will be on the data engineering aspects-ensuring the seamless flow of high-quality, relevant data to train and optimize content models, including GenAI foundation models, supervised fine-tuning, and ore.
Youll work closely with teams across the company to ensure the availability of high-quality data from ML platforms, powering decisions across all departments. With access to petabytes of data through MySQL, Snowflake, Cassandra, S3, and other platforms, your challenge will be to ensure that this data is applied even more effectively to support business decisions, train and monitor ML models and improve our products.
Key Job Responsibilities and Duties:
Rapidly developing next-generation scalable, flexible, and high-performance data pipelines.
Dealing with massive textual sources to train GenAI foundation models.
Solving issues with data and data pipelines, prioritizing based on customer impact.
End-to-end ownership of data quality in our core datasets and data pipelines.
Experimenting with new tools and technologies to meet business requirements regarding performance, scaling, and data quality.
Providing tools that improve Data Quality company-wide, specifically for ML scientists.
Providing self-organizing tools that help the analytics community discover data, assess quality, explore usage, and find peers with relevant expertise.
Acting as an intermediary for problems, with both technical and non-technical audiences.
Promote and drive impactful and innovative engineering solutions
Technical, behavioral and interpersonal competence advancement via on-the-job opportunities, experimental projects, hackathons, conferences, and active community participation
Collaborate with multidisciplinary teams: Collaborate with product managers, data scientists, and analysts to understand business requirements and translate them into machine learning solutions. Provide technical guidance and mentorship to junior team members.
20718
Requirements:
Bachelors or masters degree in computer science, Engineering, Statistics, or a related field.
Minimum of 3 years of experience as a Data Engineer or a similar role, with a consistent record of successfully delivering ML/Data solutions
You have built production data pipelines in the cloud, setting up data-lake and server-less solutions; ‌ you have hands-on experience with schema design and data modeling and working with ML scientists and ML engineers to provide production level ML solutions.
You have experience designing systems E2E and knowledge of basic concepts (lb, db, caching, NoSQL, etc)
Strong programming skills in languages such as Python and Java.
Experience with big data processing frameworks such, Pyspark, Apache Flink, Snowflake or similar frameworks.
Demonstrable experience with MySQL, Cassandra, DynamoDB or similar relational/NoSQL database systems.
Experience with Data Warehousing and ETL/ELT pipelines
Experience in data processing for large-scale language models like GPT, BERT, or similar architectures - an advantage.
Proficiency in data manipulation, analysis, and visualization using tools like NumPy, pandas, and matplotlib - an advantage.
Experience with experimental design, A/B testing, and evaluation metrics for ML models - an advantage.
Experience of working on products that impact a large customer base - an advantage.
Excellent communication in English; written and spoken.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627494
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
28/04/2026
Location: Ra'anana
Job Type: Full Time
we are looking for a Senior Data Engineer.
Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8627346
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו