משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בmatrix DnA
מיקום המשרה: הרצליה
חברת ה- Data הגדולה בארץ מתרחבת!
MatrixDNA מחפשת Data Engineer לתפקיד ייחודי ומאתגר!
במסגרת התפקיד: פיתוח, שינוע, עיבוד ואינטגרציות של Data.
דרישות:
דרישות:
נדרש ניסיון של 3 שנים לפחות בתפקיד דומה
נדרש ניסיון בפיתוח יכולות ב- Data Pipeline
ניסיון חובה עם Kafka
נדרש סיווג בטחוני בתוקף המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7498061
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בMertens – Malam Team
חברת Mertens - MalamTeam מגייסת מפתח.ת BI לארגון ציבורי גדול בירושלים.

תיאור משרה:
פיתוח, תחזוקה והטמעה של פתרונות BI  ומערכות נתונים תומכות החלטה במרחב הדיגיטלי הממשלתי.
התפקיד כולל הובלה טכנית של צוות מפתחים, פיתוח דוחות ודשבורדים מתקדמים, עבודה עם בסיסי נתונים מגוונים ותהליכי ETL  תוך חיבור בין צרכים עסקיים ליישום טכנולוגי.
התפקיד דורש ראייה מערכתית, הבנה עמוקה של עולמות הנתונים ויכולת ליישם פתרונות יעילים ומדויקים בסביבה ממשלתית רחבת היקף.
דרישות:
ניסיון מעל שנתיים בתחום.
ניסיון בהובלה טכנית או אחריות מקצועית על פיתוח רכיבי  BI   כולל הדרכת מפתחים, קביעת סטנדרטים מקצועיים או תכנון פתרונות BI.
 ניסיון בפיתוח דוחות, דשבורדים או פתרונות  BI  באמצעות אחד או יותר מהכלים  Looker Studio, Tableau, Qlik, Power BI  או כלים מקבילים.
ניסיון בעבודה עם בסיסי נתונים (BigQuery, PostgreSQL, SQL server ) כתיבת שאילתות SQL מורכבות.
ניסיון בבניית תהליכי  ETL  או אינטגרציה בין מקורות נתונים שונים.
ניסיון בעבודה עם מערכות גדולות או פרויקטים מרובי משתמשים, רצוי במגזר הציבורי או בארגון דומה בהיקפו. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8386480
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בלוגיקה IT
מיקום המשרה: גבעתיים ובני ברק
data Analyst הזדמנות להצטרף למהפכת הדאטה

מחפשים אנשי דאטה מצטיינים שיוכלו לקחת חלק במימוש ומינוף יכולות הדאטה בארגון, תוך יצירת ערך עסקי ממשי.

תחומי אחריות:

ליווי פרויקטים רוחביים מקצה לקצה בתחומי הדאטה והאנליטיקה

איתור, איסוף ותחקור נתונים במאגרי דאטה גדולים

הגדרה ואפיון צרכים, ניתוח ותחקור מקורות נתונים/מערכות ובניית מודלי נתונים תומכים

ביצוע אנליזות מתקדמות לזיהוי מגמות וטרנדים

עבודה מול לקוחות עסקיים וממשקים טכנולוגיים
דרישות:
ניסיון שנתיים בעבודה עם SQL וכתיבת שאילתות מורכבות/פרוצדורות

ניסיון עם Python ו- DWH / Big Data

יכולות אנליטיות גבוהות, דיוק וירידה לפרטים

הבנה עסקית טובה

יתרון לניסיון עם כלי BI (Power BI / Qlik Sense / BO)

השכלה:
תואר רלוונטי בתחומי המדעים או תעשייה וניהול

מעוניין/ת להצטרף לצוות שמוביל חדשנות בעולם הדאטה? נשמח לקבל קורות חיים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8386233
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בהורייזן טכנולוגיות
לארגון ממשלתי גדול ומוביל טכנולוגית במודיעין דרוש/ה data Product Manager!!
עבודה במודל היברידי גמיש ורחב!
תיאור התפקיד: התפקיד כולל אחריות על הובלת מחזור חיי מוצר טכנולוגי משלב גיבוש האסטרטגיה ועד ליישום, בתחומים מבוססי דאטה ( BI, GIS) ובממשקים עם רשויות מקומיות ומשרדי ממשלה.
תחומי אחריות מרכזיים:
ניהול מחזור חיי המוצר אסטרטגיה, אפיון, פיתוח ויישום.
הובלת תהליכי עבודה בAgile, ניהול backlog ותעדוף משימות.
איסוף וניתוח דרישות עסקיות ממגוון גורמים והמרתן לאפיונים טכנולוגיים.
הובלת מוצרי דאטה ( BI, GIS) ופיתוח יכולות מבוססות נתונים.
ניהול ממשקים מורכבים בין מערכות ולקוחות קצה, כולל בקרה ושיפור מתמיד.
שיתוף פעולה עם גופים ממשלתיים ורשויות מקומיות לקידום פתרונות דיגיטליים.
ניהול תעדוף, אפיון עסקי, פיתוח ויישום, תוך עבודה מתודולוגית בצוותים רבתחומיים ובסביבה מורכבת מרובת משתמשים.
דרישות:
ניסיון של שנתיים ומעלה בניהול מוצרים או פרויקטים טכנולוגיים מתוכם לפחות שנה בניהול מוצר - חובה!
ניסיון בניהול מוצר טכנולוגי, לרבות בניית אסטרטגיית מוצר, אפיון עסקי וכיוצ"ב. ינתן דגש למוצרי דאטה, לרבות BI וGIS
ניסיון בהובלה מתודולוגית של תהליכים במחזור חיים של מוצר ניהול Backlog, תעדוף משימות, הגדרת גרסאות ועבודה ב- Agile scrum
ניסיון באיסוף דרישות ממגוון מקורות, ניתוח צרכי הלקוח, חקר השוק, לרבות מוצרים ושירותים מקבילים, הפקת תובנות והמלצה על פתרונות הגדרת ערכים, מדדים ויעדים למוצר
ניסיון בעבודה במגזר הציבורי הרחב, ובפרט מול שחקנים בשלטון המקומי
ניסיון בעבודה במערכות מורכבות עם ריבוי סוגי משתמשים, ממשקים למערכות שונות ותהליכי עדכון/העברות מידע בממשקים בין מערכות.
ניסיון בעבודה עם ריבוי לקוחות קצה של המוצר, לרבות ביצוע בדיקות משתמשים ומעקב אחר נתוני שימוש המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8386055
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בהורייזן טכנולוגיות
לארגון ממשלתי גדול ומוביל טכנולוגית בירושלים ומודיעין דרוש/ה data Analyst!
עבודה במודל היברידי רחב וגמיש!
תיאור התפקיד: אחריות על ביצוע מחקרים עסקיים ואנליטיים לקידום יוזמות דיגיטליות בין-משרדיות.
התפקיד כולל פירוק סוגיות רוחב מורכבות, איסוף, ניתוח ועיבוד נתונים ממקורות מגוונים (מחקרים, בנצ'מרקים, ראיונות ומאגרי מידע) לכדי תובנות אופרטיביות.
נדרשת יכולת גבוהה בניסוח מסקנות והמלצות להנהלה, תרגום נתונים לתוצרים ויזואליים ( data Storytelling) והצגה בהירה בפני דרגים בכירים.
נדרשת מיומנות בינאישית גבוהה ליצירת שיתופי פעולה והובלת עבודה מול גורמי ממשל, אקדמיה ותעשייה, יכולת למידה עצמית מהירה, עבודה עצמאית וראייה מערכתית של המגזר הציבורי והקשרים הטכנולוגיים-עסקיים.
דרישות:
ניסיון של 6 שנים ומעלה
ניסיון בביצוע מחקרים שוקיים, עסקיים או אסטרטגיים, ניהול תהליכי מחקר מקצה לקצה (תכנון, איסוף נתונים, ניתוח, הפקה והצגה)
יכולת איסוף נתונים איכותניים וכמותיים ממקורות מגוונים (סקרים, ראיונות, דאטה ציבורי, מאגרי מידע), יכולת קריאה, עיבוד והצלבה של מקורות מידע רבים ומגוונים, יכולת גיבוש מסקנות עסקיות וכתיבת דוחות המלצות ברורים להנהלה,
מיומנויות מתקדמות בהצגת נתונים ו- data Storytelling יכולת עבודה עצמאית לצד שיתוף פעולה עם גורמי ממשל, אקדמיה ותעשייה, יחסי אנוש טובים ויכולת עבודה בצוות רב-תחומי
הבנה עמוקה של המגזר הציבורי, ראייה מערכתית והבנה בהקשרים כלכליים, חברתיים ועסקיים
סקרנות אינטלקטואלית ולמידה עצמית מהירה של תחומים חדשים, עמידה בלחצים ובלוחות זמנים צפופים תוך שמירה על איכות גבוהה, תשומת לב לפרטים ודיוק גבוה בעבודה עם נתונים
הבנה טכנולוגית והכרות עם מוצרים טכנולוגיים מגוונים, שליטה במצגות והצגת נתונים בפני דרגים בכירים, אנגלית ברמה גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8386025
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בהורייזן טכנולוגיות
לארגון ממשלתי גדול ומוביל טכנולוגית בירושלים דרוש/ה data Analyst!
עבודה במודל היברידי!
תיאור התפקיד:
היחידה פועלת לסייע לגופי הממשלה בשיפור השירותים לתושבים ולעסקים ע"מ לצמצם פערים חברתיים, לקדם צמיחה כלכלית ולחזק את אמון הציבור.
היחידה מצויה בימים אלו בתהליך התחדשות והתרחבות, במטרה לחזק את הזיקה שבין שיפור השירותים לעולמות של חדשנות, דיגיטל, דאטה ו-AI ולבסס ציר פעולה פרויקטלי ויישומי בשדה זה, בשותפות עם כלל הגורמים הרלוונטיים ובשיח עם הציבור.
על מנת לקדם קפיצת מדרגה בתחום זה יש לבסס תשתית נתונים תומכת החלטה וניתוחי מידע שיסייעו בקבלת החלטות אפקטיבית ברמה המערכתית וכסיוע למשרדים.
לשם כך אנו מחפשים דאטה אנליסט בעל יכולות DELIVERY מצוינות, שנלהב לקחת חלק בבניית מסד נתונים לקבלת החלטות בתחום שיפור השירות לציבור.
דרישות:
ניסיון של 6 שנים ומעלה
ניסיון בניתוח נתונים ויצירת תובנות עסקיות בניית dashboards, הפקת דוחות ניהוליים או ניתוחים אנליטיים
ניסיון מעשי בעבודה עם כלי BI - כמו Power BI, Looker, Qlik Sense או Tableau
ניסיון בעיבוד וניקוי נתונים ממקורות מגוונים - עבודה עם מקורות נתונים שונים, כולל תהליכי ETL, עיבוד נתונים או איגום מידע ממערכות שונות
ניסיון בעבודה עם שפות תכנות לניתוח נתונים - Python או R לצורכי עיבוד, ניתוח או אוטומציה של נתונים
ניסיון בהקמה, תחזוקה או ניהול של מאגרי נתונים - עבודה עם SQL / data Warehouse או מערכות מידע ארגוניות
ניסיון בעבודה מול גורמים עסקיים או לקוחות פנים/חוץ ארגוניים - אפיון צרכים, ליווי משתמשים, או שיתוף פעולה עם יחידות שירות ומנהלים
ניסיון בהובלת פרויקטים או מיזמים בתחום הדאטה - הובלת פיילוטים, יוזמות או פרויקטים מבוססי נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8385988
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.

תחומי אחריות:

פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL) חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים

מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות
גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355699
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
ארגון ציבורי באזור ירושלים מגייס אנליסט/ית BI
התפקיד כולל: ניתוח ועיבוד של מקורות נתונים מגוונים, בניית דוחות אינטראקטיביים, גרפים והצגה חזותית של נתונים, הצגת תובנות ליחידות עסקיות ושותפים, פיתוח שיטות לייעול תהליכים מבוססי נתונים, הובלת מיזמים תומכי החלטה, תחזוקה שוטפת של מאגרי נתונים ארגוניים ועוד.
דרישות:
- 6 שנות ניסיון כ-אנליסט/ית BI
- ניסיון בניתוח נתונים ויצירת תובנות עסקיות כולל בניית Dashboards ודוחות ניהוליים
- ניסיון בעבודה עם כלי BI כגון: Power BI, Tableau, Qlik Sense או Looker
- ניסיון בעבודה עם SQL, data Warehouse / מערכות מידע ארגוניות
- ניסיון בעיבוד וניתוח נתונים באמצעות Python / R המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8373555
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בקבוצת Aman
מיקום המשרה: רמת גן
פיתוח ותחזוקה של תהליכים בסביבת ענן (Azure) עם DataBricks ו- DataFactory לעיבוד נתונים בקנה מידה גדול, אופטימיזציה של ביצועים וניהול נתונים בקבצי Parquet בענן.
עצמאות ועבודה שוטפת מול משתמשים.
קבלת הדרישה מהמשתמשים, כתיבת אפיונים טכניים וליווי הפיתוח כולל בדיקות, עלייה לייצור והטמעה מול המשתמשים.
הגדרת ממשקים מול מערכות בארגון ומחוצה לו
דרישות:
ניסיון של 3 שנים לפחות ב Python - חובה
ניסיון בכתיבת שאילתות SQL ברמה מורכבת - חובה
ניסיון בSpark - חובה
ניסיון בעבודה עם בסיסי נתונים גדולים, כולל אופטימיזציה של שאילתות - יתרון
ניסיון פיתוח בReact - יתרון
תואר ראשון במדעי המחשב - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8376478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בExperis Key Account
Location: Rehovot
Job Type: Full Time
Were hiring a #DataScientist - is it you???

Were looking for a data Scientist to join our Real-Time Advertising team and contribute to building an advanced AI/ML-driven platform that drives smart user growth and delivers tailored, results-focused marketing solutions for top app companies worldwide

Youll design and optimize Machine Learning solutions that power programmatic advertising at a truly global scale. This means working with billions of daily requests, millisecond-level decisioning, and some of the most challenging problems in applied Machine Learning today.
Requirements:
- MSc in Computer Science, data Science, Engineering, or a related field, or equivalent practical experience.
- 7+ years of experience designing, building, and deploying Machine Learning models in production, ideally in large-scale data environments.
- Strong foundations in algorithms, data structures, probability, statistics, and experimental design (A/B testing, causal inference).
- Proven track record of leading end-to-end data science projects: from problem framing and model development to deployment, monitoring, and iteration.
- Hands-on experience working with large-scale datasets.
- Familiarity with AdTech systems (e.g., RTB, attribution, campaign optimization, fraud detection) is a strong plus.
- Experience with model monitoring in production.
- Strong communication skills with ability to explain complex concepts to diverse stakeholders.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8338787
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מתמחה בתחום ה-Immersive Gaming (תחושה שהשחקן נמצא "שם" במהלך המשחק). החברה נמצאת במקום השלישי בארצות הברית במספר ההורדות והמשתמשים היומיים, עם קצב צמיחה המכפיל עצמו כל מספר חודשים.
החברה ממוקמת בתל אביב- קו רכבת, משלבת מודל עבודה היברידי ומונה 80 עובדים.
מהות התפקיד: ניהול צוות של 4-5 Business Analysts, דיווח לראש קבוצה. התפקיד כולל Mentoring, ניהול משימות ופיתוח מקצועי. התפקיד משלב אחריות על הגדרת ותחזוקת data Structures ו-Analytics Frameworks, בנייה וניהול Dashboards למעקב אחרי Core Business KPIs, ביצוע Deep-dive Analyses לזיהוי מגמות ותובנות אופרטיביות, עיצוב ואימות Predictive Models לתמיכה ביעדי מוצר ועסק, אוטומציה של תהליכים אנליטיים וזרימות Reporting, תכנון והערכה של A/B Tests ואסטרטגיות ניסוי, ושיתוף פעולה עם צוותי Product, Marketing ו-Monetization.
דרישות:
- 3 שנות ניסיון באנליזה
- ניסיון של תפקיד אחד כ- team lead
- ניסיון בפיתוח SQL
- ניסיון בויזואליזציה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8378486
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בTesnet
מיקום המשרה: תל אביב יפו
תנאים נוספים:קרן השתלמות
דרוש/ה בודק/ת תוכנה דאטה ג'וניור להשתלבות בצוות חקר נתונים אג'ילי באירגון בכיר -
- עבודה למערכות מידע (SQL)
- בנייה והטמעה של מתודולוגיות ותהליכי QA אפקטיביים
- משתפ/ת פעולה עם צוותים חוצי תפקודים כדי לפתח אסטרטגיות בדיקה ולהבטיח את איכות התוכנה
- לזהות ולתעדף את צרכי העבודה, ליצור תוכניות ולבצע בהתאם
- לנתח ולדווח על תוצאות, לדעת להציע פתרונות מתאימים בהתאם לאתגרים השוטפים במהלך העבודה
דרישות:
- התפקיד מתאים לבוגר/ת קורס דאטה אנליסט ללא ניסיון בעל/ת
רצון להיכנס לתחום הטכנולוגי של בדיקות התוכנה.
- נדרש SQL ברמה גבוהה- כולל שליטה ב: subquery, window functions, scalar functions - חובה!
- הכרות עם datalake, hive - יתרון
- יכולת פתרון בעיות מעולה ומיומנויות אנליטיות
- תקשורת חזקה ומיומנויות בינאישיות
- מוכווני פרטים עם יכולות ארגוניות חזקות
- יכולת תעדוף משימות ועמידה בלוחות זמנים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8153002
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת הייטק חזקה מאוד במרכז הארץ דרוש/ה Senior Python backend Developer
בעל/ת ניסיון בטכנולוגיות data.
במסגרת התפקיד: פיתוח backend בדגש לפיתוח Python ונגיעות לפיתוח GO, עבודה
בטכנולוגיות דאטה כגון Spark Hive Kafka, עבודה שמשלבת שימוש ב-Kubernetes AWS וכן
עבודה מרובה מול בסיסי נתונים
דרישות:
תואר ראשון במדעי המחשב או הנדסת תכנה - חובה
לפחות 7 שנות ניסיון בפיתוח backend - חובה
רקע בעולמות דאטה - יתרון מאוד גדול
ניסיון מוכח של 5 שנים ב- Python - חובה
רקע בפיתוח GO - יתרון מאוד משמעותי
ניסיון ב-AWS ו-Kubernetes - חובה
ניסיון מול בסיסי נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8240126
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בקונסיסט מערכות בע"מ
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
ארגון ממשלתי מחפש מפתח DS לירושלים!
תיאור פרויקט: נדרש מדען/ית נתונים פרקטי/ת ומנוסה שמחבר/ת בין עולמות של בינה מלאכותית, הנדסת נתונים, MLOps, ופיתוח תוכנה אבל לא פחות חשוב: יודע/ת לעבוד באמת בצוות, לתקשר בבהירות, ולהתמודד בכבוד עם דעות מנוגדות.
המועמד/ת המתאים/ה יודע/ת להוציא רעיון לפועל מקצה לקצה לקבוע אבני דרך מעשיים, משלב הנתונים הגולמיים, עד מודל בייצור ומבין/ה שחדשנות מצליחה רק כאשר עובדים יחד, לומדים מאחרים.
דרישות:
מדע נתונים (Science data )
o הבנה במודלים כולל AutoML
o הבנה בהנדסת Context
o עיבוד נתונים ב Scale Large
עבודת צוות ותקשורת
o עבודה יומיומית עם אנליסטים, מפתחים ובעלי עניין מתחומים מגוונים.
o הסבר ברור של שיקולים מקצועיים ופתרונות הן טכנית והן עסקית.
o פתיחות לדיאלוג מקצועי, מוכנות לקבל ביקורת ולשלב רעיונות מנוגדים בדרך בונה.
פיתוח תוכנה
o שימוש בעקרונות של קוד נקי, מודולרי, מבוסס גרסאות ובעל בדיקות אוטומטיות.
o שיתוף פעולה עם מהנדסי תוכנה וארכיטקטים להטמעה חלקה של פתרונות.
o הבנה ב DevOps
o ניסיון רלוונטי בתחומי דאטה : והנדסת נתונים, מדע נתונים, MLOps.
o שליטה מעשית בPython) מודולרי ו OOP, ולא רק ב Notebook Jupyter(
o יכולת הסבר בהירה של שיקולים תיאורטיים ומעשיים בפרויקטים של דאטה.
o שחקן/ית צוות אמיתי/ת יודע/ת להקשיב, לחלוק ידע, ולעבוד בשותפות.
o בשלות מקצועית יודע/ת לקבל דעות מנוגדות, להתווכח בכבוד, ולהסכים שלא להסכים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8365111
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/10/2025
Location: Herzliya
Job Type: Full Time
At CodeValue , we specialize in delivering cutting-edge software solutions and driving innovation across industries. We are now looking for a Data Engineer to join our team and play a key role in building and optimizing large-scale Big Data systems in production environments.
Key Responsibilities
* Design, implement, and maintain Big Data pipelines in production.
* Work extensively with Apache Spark (2.x and above) , focusing on complex joins, shuffle optimization, and performance improvements at scale.
* Integrate Spark with relational databases, NoSQL systems, cloud storage, and streaming platforms
* Contribute to system architecture and ensure scalability, reliability, and efficiency in data processing workflows.
Requirements:
* Proven hands-on experience as a Data Engineer in production Big Data environments.
* Hands-on experience in Python development is required
* Expertise in Apache Spark , including advanced performance optimization and troubleshooting.
* Practical experience with complex joins, shuffle optimization, and large-scale performance improvements
* Familiarity with relational and NoSQL databases, cloud data storage, and streaming platforms
* Strong understanding of distributed computing principles and Big Data architecture patterns
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8255281
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Experienced Data Engineer? Excellent team player?
Come join a great team to overcome meaningful cyber challenges!
Our Data Solutions Group is looking for an exceptional Python developer with Data Engineering experience.
Requirements:
Excellent team player
Excellent Python developer
BSc Computer Science or similar
2+ years of experience with big data frameworks such as Spark or Hadoop
2+ years of experience in managing ETLs in AirFlow or similar, multi-source data flows and processing of large data sets.
3+ years of experience with SQL
Attention to details, high responsibility and open minded
Ability to take initiative with a self-motivated attitude and reliability
Critical thinker and problem-solving skills
Advantages:
Proven capabilities in data analysis and data-driven conclusions
Experience with the ElasticSearch suite
Java development experience
Experience with Linux environment
Background in the cyber domain.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8369427
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for a talented and experienced big data engineer to join our cyber defence group to take over a cutting-edge data solution.
The successful candidate should have hands-on experience with big data processing technologies and architectures.
The candidate will join our growing team of analysts, developers, data scientists, and architects who design and develop innovative solutions to the most critical needs of our customers.
Responsibilities
Designing, architecting, implementing, and supporting our data pipelines and processing flows.
Collaborate with analytics department to analyze and understand data sources.+
Provide insights and guidance on database technology and data modelling best practices.
Insure the maintenance of data integrity, managing data and analysis flows with attention to detail and high responsibility.
Implementing algorithms with our data scientists.
Requirements:
BSc/BA in Computer Science or similar.
At least 5 years proven experience as a Big Data Engineer.
At least 3 years of experience with Python.
Experience with both SQL and NoSQL databases, including Elastic Search, Splunk, MongoDB.
Experience with processing of large data sets.
Experience with Linux environment.
Experience with software design and development in a test-driven environment.
Advantages:
Previous experience in the cybersecurity industry or in elite technology units in IDF.
Experience with OpenShift, S3, AWS, Docker, Kubernetes, Java and TypeScript.
Experience working with CI/CD software (Jenkins, GitLab).
Experience with AirFlow.
Experience with Nifi.
Personal skills:
Good communication skills, excellent organisational and time management skills, accuracy and attention to details, high responsibility, independent, self-learner, highly motivated, open minded, problems resolver, team player.
Nice to know:
We have a very strong culture of work-life balance.
You will contribute to amazing projects that do the unbelievable daily.
You will join a great team with good vibes and a can-do approach.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8369426
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
12/10/2025
Location: Ra'anana
Job Type: Full Time and Temporary
Required Senior Analytics and Compensation Specialist, Temp
So, whats the role all about?
We are looking for a data-savvy professional that thrives in a fast-paced, global environment. The role combines business operations, people analytics, and operational execution capabilities.
How will you make an impact?
Lead the HR QBR (Quarterly Business Review) process and in other global HR processes: Track HR metrics progress and analyze people trends, provide insights, follow up on process progress, issue and analyze reports. Aggregate action items & proactive follow up to completion
People analytics reports and analysis to support the Executive VP HR and company-wide HR decisions and agenda
Own the methodology for running cross-company HR processes to ensure continuous improvement: previous lessons learned, kick-off, summary, and knowledge management
Working with field HR HRBPs and HR Ops, supporting periodical analysis and ongoing needs
Ensure Global HR yearly work plan is on track and executed
HR governance on compensation and Job Architecture elements
Support global and regional compensation processes: data, analytics & insights.
Requirements:
4 years experience in Comp&Ben or Analytics preferably in a global organization a MUST
Strong analytical skills a MUST
High proficiency with Microsoft Office applications, primarily Excel & PowerPoint a MUST
Ability to manage time and multiple commitments/projects simultaneously a MUST
Experience of working with BI tools an advantage
Compensation background an advantage
Understanding of HR systems such as Oracle, SuccessFactors, Greenhouse- an advantage
Knowledge of reporting software tools- an advantage
Great ability to translate numbers into trends and trends into insight
Practical, razor-sharp and detail-oriented
Problem-solving savvy
Self-motivated & can-do approach
Willingness and ability to work in a fast-paced environment
Excellent English
Education
BA/B.Sc. in Economics, Statistics, Business Management, Industrial Engineering or other relevant degrees.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8369385
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were seeking an experienced and visionary Data Team Lead to take end-to-end data ownership, managing 3 small teams of engineers, analysts and science, from high-level planning and architectural design to on-going engineering management and strategic cross-functional collaboration.

As we evolve Perceptional AI to Reasoning and autonomous AI initiatives, at orcas solutions deployed at thousands of maritime vessels (cargo, cruising, tankers and more).



Responsibilities:

Lead, mentor, and grow high-performing data teams.
Define and maintain a forward-looking data roadmap aligned with the company AI and product strategy.
Build and maintain work plans that balance tech debt reduction, legacy migrations, alongside next gen. product deliveries.
Act as the central sync point between the Data teams and key stakeholders: Product, CSMs, UI/UX, R&D, Algorithm, System, and Infra.
Identify, prioritize, and resolve cross-team dependencies and roadblocks with a proactive, solution-oriented mindset.
Own and evolve the data platform architecture, including modeling, pipes and services.
Drive the modernization of the stack: enable Gen AI, serverless architectures, and scalable lakehouse and data processing patterns.
Overlook best practices put forward by the team: design patterns, code reviews, CI/CD, tests, infras management (e.g. aws cdk), APIs to other R&D teams.
Requirements:
6+ years of data engineering experience
2+ years of experience in leading data teams
Proven track record in managing cross-functional dependencies, roadmaps, and planning.
Deep understanding of big data architectures, modeling and processing design patterns.
Experience with cloud-native (e.g., AWS) infrastructures.
Experience modernizing legacy data systems.
Familiarity with OSS Lakehouse architectures (Delta/Iceberg).
Familiarity with event-driven systems.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8368208
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
08/10/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Scientist to join our R&D team. To become part of our journey in helping digital publishers and businesses improve their business growth, empowering meaningful interactions across their digital assets, generating an undeniable increase in revenue, user engagement, conversions, and overall performance.
Build the next generation of ML algorithms for us. Focusing primarily on recommendation engines, personalization, pricing, prediction and causal inference models.
Our Story:
At the heart of every digital revolution, there's a story. Ours began in 2012, with a vision of creating a publisher video platform that offers all the necessary tools, innovation, and knowledge publishers need to fully optimize their websites with video.
Through machine-learning and AI technology, we empower publishers to own their video content and monetization strategies to maximize revenue. Our platform offers global publishers unparalleled access to best-in-class ad serving, monetization, content automation, and video recommendation.
Trusted by some of the leading publishers globally including The Arena Group, CBSi, Hearst, Nasdaq, VICE, and more, our platform helps publishers boost audience engagement and increase revenue. Our success is a direct result of our dedicated team located around the world and visionary backers including The Walt Disney Company, Saban Ventures, Viola Group, 83North, and Firstime Ventures.
At our core is a passion for reimagining the video space and an unyielding commitment to those who rely on us. And now, we're looking for remarkable talent like you to join the next chapter of our story.
Long story short, you will:
Design, build, automate, deploy and maintain machine learning production pipelines, utilizing cloud technologies such as cloud AI / Sagemaker.
Building RAG processes and utilizing LLMs for verius needs.
Deploy and monitor models in production (e.g. building artifacts, measuring model drift, etc.).
Implement and evaluate recommender engines and deep-learning techniques, to work in a production environment and run at massive scale.
Apply complex analytical techniques to derive actionable insights with very good communication skills to write and publish internal documentation to be used by technical and business teams.
Design and execute technical processes needed for experimentation to support an array of business problems, including experiment ideation, experimental design, monitoring, data analysis, code review and communication of results.
Keep up with machine learning research and commercial product offerings across a wide variety of machine learning fields
Role Key Deliverables: Own current recommendation engine modeling stack and its development processes (creation/specification of tasks, daily updates and commitment to deliverables), research and deploy incremental improvements.
Requirements:
Masters in Computer Science/Statistics/Economics/Engineering or related field with a focus on applied statistics, AI, machine learning, or related fields
5+ years applying machine learning to real-world problems in an industrial setting.
Strong engineering and coding skills, with ability to write high performance production code. Ability to lead, envision and implement improvements of our ML solution and pipelines
Proficiency in Python, SQL, Spark.
Hands-on experience in Machine learning frameworks such as Scikit-learn, TensorFlow, Pandas, Numpy etc.
Strong understanding of evaluation methods for recommender systems and ability to run offline and online using experimental design
Preferred proficiency with data pipelines in Hadoop/Spark in a cloud environment
Ability to write and execute complex queries in SQL against different database architectures
Working knowledge of agile development processes and methodologies
Strong analytical & problem-solving skills, and excellent communication skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8367193
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Job Type: Full Time
Required Data Infrastructure Engineer
What Youll Do:
Design, implement, and enhance robust and scalable infrastructure that enables efficient deployment, monitoring, and management of machine learning models in production. In this role, you will bridge the gap between research and production environments, streamline data and feature pipelines, optimize model serving, and ensure governance and reproducibility across our ML lifecycle.
Responsibilities:
Decouple data prep from model training to accelerate experimentation and deployment
Build efficient data workflows with versioning, lineage, and optimized resource use (e.g., Snowflake, Dask, Airflow)
Develop reproducible training pipelines with MLflow, supporting GPU and distributed training
Automate and standardize model deployment with pre-deployment testing (E2E, dark mode)
Maintain a model repository with traceability, governance, and consistent metadata
Monitor model performance, detect drift, and trigger alerts across the ML lifecycle
Enable model comparison with A/B testing and continuous validation
Support infrastructure for deploying LLMs, embeddings, and advanced ML use cases
Manage a unified feature store with history, drift detection, and centralized feature/label tracking
Establish a single source of truth for features across research and production across research and production.
Requirements:
3+ years of experience as an MLOps, ML Infrastructure, or Software Engineer in ML-driven environments, preferably with PyTorch.
Strong proficiency in Python, SQL (leveraging platforms like Snowflake and RDS), and distributed computing frameworks (e.g., Dask, Spark) for processing large-scale data in formats like Parquet.
Hands-on experience with feature stores, key-value stores like Redis, MLflow (or similar tools), Kubernetes, Docker, cloud infrastructure (AWS, specifically S3 and EC2), and orchestration tools (Airflow).
Proven ability to build and maintain scalable and version-controlled data pipelines, including real-time streaming with tools like Kafka.
Experience in designing and deploying robust ML serving infrastructures with CI/CD automation.
Familiarity with monitoring tools and practices for ML systems, including drift detection and model performance evaluation.
Nice to Have:
Experience with GPU optimization frameworks and distributed training.
Familiarity with advanced ML deployments, including NLP and embedding models.
Knowledge of data versioning tools (e.g., DVC) and infrastructure-as-code practices.
Prior experience implementing structured A/B testing or dark mode deployments for ML models.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8367169
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Job Type: Full Time
Required Data Engineer
As part of our Data Engineering team, you will not only build scalable data platforms but also directly enable portfolio growth by supporting new funding capabilities, loan sales and securitization, and improving cost efficiency through automated and trusted data flows that evolve our accounting processes.
Responsibilities:
Design and build data solutions that support our core business goals, from enabling capital market transactions (loan sales and securitization) to providing reliable insights for reducing the cost of capital.
Develop advanced data pipelines and analytics to support finance, accounting, and product growth initiatives.
Create ELT processes and SQL queries to bring data to the data warehouse and other data sources.
Develop data-driven finance products that accelerate funding capabilities and automate accounting reconciliations.
Own and evolve data lake pipelines, maintenance, schema management, and improvements.
Create new features from scratch, enhance existing features, and optimize existing functionality.
Collaborate with stakeholders across Finance, Product, Backend Engineering, and Data Science to align technical work with business outcomes.
Implement new tools and modern development approaches that improve both scalability and business agility.
Ensure adherence to coding best practices and development of reusable code.
Constantly monitor the data platform and make recommendations to enhance architecture, performance, and cost efficiency.
Requirements:
4+ years of experience as a Data Engineer.
4+ years of Python and SQL experience.
4+ years of direct experience with SQL (Redshift/Snowflake), data modeling, data warehousing, and building ELT/ETL pipelines (DBT & Airflow preferred).
3+ years of experience in scalable data architecture, fault-tolerant ETL, and data quality monitoring in the cloud.
Hands-on experience with cloud environments (AWS preferred) and big data technologies (EMR, EC2, S3, Snowflake, Spark Streaming, Kafka, DBT).
Strong troubleshooting and debugging skills in large-scale systems.
Deep understanding of distributed data processing and tools such as Kafka, Spark, and Airflow.
Experience with design patterns, coding best practices, and data modeling.
Proficiency with Git and modern source control.
Basic Linux/Unix system administration skills.
Nice to Have:
Familiarity with fintech business processes (funding, securitization, loan servicing, accounting).- Huge advantage
BS/MS in Computer Science or related field.
Experience with NoSQL or large-scale DBs.
DevOps experience in AWS.
Microservices experience.
2+ years of experience in Spark and the broader Data Engineering ecosystem.
What Else:
Energetic and data-enthusiastic mindset.
Ability to translate complex technical work into business impact.
Analytical and detail-oriented.
Strong communication skills with both technical and business teams.
Self-motivated, fast learner, and team player.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8367166
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
06/10/2025
Location: Kiryat Ono
We are looking for a Tech Lead - Data Platform.
As a tech lead, you will take a leading part in designing and building the infrastructure for connecting and analyzing huge, privacy protected datasets in the cloud using Java, Spark and other technologies and mentor team members.
What You'll Do:
Design and develop platform capabilities for scalable data products tailored to enterprise customers
Collaborate with Product Managers, Software Engineers, and DevOps Engineers to gather requirements, create system and feature design documentation, and implement solutions across diverse environments
Write Java-based back-end code, leveraging Spark, various cloud services, and relational databases
Partner with the production team to define solutions, monitor services, troubleshoot issues, and identify cost optimization opportunities
Mentor and guide team engineers, providing support in their daily tasks and development
Build and use monitoring infrastructure to track services, troubleshoot problems, and optimize performance, throughput, and costs
Address privacy challenges to ensure the protection and confidentiality of consumer and patient data
Requirements:
B.Sc. in Computer science or equivalent
7+ years of experience with server side Java programming and with big data processing
3+ years of experience with cloud platforms (AWS, Azure, GCP), including practical experience with platform capabilities (e.g., storage, compute, queuing,g, and orchestration) and in configuring security and networking
Proficient in CI/CD pipelines and DevOps tools (e.g., Jenkins, GitHub Actions, GitLab CI, Ansible, Terraform, k8s), with the ability to modify and adapt existing resources as required
Skilled in system architecture and code design
Strong analytical and troubleshooting skills
Get things done fast and with high-quality
Eager to learn and fast learner with a strong sense of ownership
Proficient English skills
Nice to Have:
Experience with Apache Spark framework
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8365997
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/10/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
where the creative arts meet technology. If theres one thing we all have in common, its a love of music and film, which is why we build innovative products to help global brands and individual creators make amazing videos. We revolutionized the industry with a radical new music licensing model that has since become the global standard. now the go-to platform for over 26M users worldwide. They range from top-tier global brands like Google, Apple, Amazon, Microsoft, and Calvin Klein to social creators, video editors, and more. Our products:: an all-in-one platform for video creation, including high-quality and curated royalty-free music, SFX, footage, templates, plugins, AI tools and more. Motion Array: the ultimate creator hub with top-tier templates, plugins, music, SFX, footage, AI voiceover, motion graphics, and more.
Were looking for a full-time data Engineer to join our data Engineering team in Tel Aviv.
As a data Engineer, you'll play a pivotal role in crafting and maintaining robust data solutions that empower analysts, data scientists, and diverse business units. Your proficiency in Airflow, Python, and SQL will drive the development and validation of data warehouse models, ensuring data trust and elevating the delivery and quality of insights.
Wake up for this:
* Create and sustain data solutions tailored to support analysts, data scientists, and business units.
* Develop and validate data warehouse models using Airflow, Python, and SQL.
* Ensure continuous data trust and optimize insight delivery and quality.
* Develop, orchestrate, and enhance data pipelines organization-wide, ensuring seamless data ingestion and transformation.
* Collaborate effectively with stakeholders, including data developers, systems analysts, data scientists, and software engineers
Requirements:
* BA/B.Sc. graduate in industrial/information systems engineering, Computer Science, statistics, or equivalent
* A data engineer with 5+ years of experience in similar roles, including some experience as a senior Developer working on an end-to-end pipeline from demand to insight delivery
* Hands-on actual work experience with a programming language ( PythongreenTxtBg!)
* Highly skilled with SQL - Must
* Working with orchestration tools (Airflow)
* Experienced with AI integrations (agents, MCP, LLM models) - Advantage
* Experienced with DBT - Advantage
* Experienced with MPP columnar databases like Snowflake, BigQuery, etc.
* English at a high level (both written and spoken)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8310449
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
03/10/2025
Location: Ramat Gan
Job Type: Full Time
This role provides the opportunity to drive significant impact through scalable data solutions while working with a collaborative, growth-focused team. You'll work with cutting-edge AWS technologies, solve complex data challenges, and play a key role in shaping our data platform's future. You'll learn unique graph relations models and valuable graph database experience.
Requirements:
Ideal for: A passionate data engineer who enjoys solving complex problems, thrives in collaborative environments, and is excited about continuous learning in the rapidly evolving data engineering landscape.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8363899
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
03/10/2025
Location: Ramat Gan
Job Type: Full Time
Were looking for a senior Data Scientist to lead into the next stage, utilizing our data assets for in-house business development, product development, and customer outreach.

You will work with large-scale data at the intersection of agronomy and commerce, designing and implementing algorithmic and machine learning solutions that power our data-driven platform. This will include predicting buying behaviors models, sales, and product recommendation models based on farmers' behavior, and combining this with relevant product recommendations. If youre passionate about turning complex data into real-world impact in agriculture, we are looking for you, a talented, detail-oriented person to join our team.
Requirements:
Understand and translate business needs into data-driven solutions
Work independently with data, including curation, calculations, and enrichment
Design and implement end-to-end, production-ready algorithmic solutions based on business requirements
Manage and prioritize multiple projects simultaneously
Contribute to the design and development of scalable, automated modeling pipelines
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8363897
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Product Analyst to join our Product team and play a critical role in unlocking the power of maritime data. Youll dive deep into complex datasets, ensuring quality, uncovering insights, and shaping the foundation for products and workflows built on AI. Your work will directly contribute to product innovation, customer impact, and the next generation of AI-driven maritime solutions.

What will you do?

Extract, analyze, and interpret maritime data using Python, SQL, and other data tools, working across sources such as Rockset, MongoDB, and S3.
Ensure data quality, accuracy, and consistency, supporting both product development and Generative AI-powered workflows.
Identify patterns, anomalies, and emerging risks within large, complex datasets to drive actionable insights for customers and internal stakeholders.
Collaborate with product managers, engineers, and data scientists to optimize data pipelines, workflows, and models.
Support the development of strategies for handling structured and unstructured data, contributing to scalable, automated solutions.
Visualize and communicate findings effectively, using tools such as Matplotlib, Grafana, or Redash, tailored for technical and non-technical audiences.
Apply domain knowledge of the maritime industry to contextualize data and generate meaningful insights for product workflows.
Conduct data integrity and QA checks, ensuring reliability for both operational use and AI model training.
Requirements:
Bachelors degree in Computer Science, Industrial Engineering, Mathematics, Statistics, Economics, or a related field.
Strong coding skills in Python a must.
Experience with SQL databases and data manipulation tools (e.g., Pandas, NumPy).
Good knowledge of statistical analysis and applied problem-solving.
Experience using or integrating Generative AI tools a must.
Familiarity with data visualization tools such as Grafana, Redash, or similar a plus.
Strong analytical mindset, with the ability to connect data to business and product outcomes.
Excellent communication and interpersonal skills, with fluency in English.
Ability to manage multiple projects simultaneously and thrive in a fast-paced environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8363885
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ramat Gan
Job Type: Full Time
Were rapidly growing and looking for another important piece of the puzzle.
Is it you?
We are looking for a highly motivated candidate to join our Data Science team If you are passionate about NLP \LLMs and have 4+ years in the field, this is for you!
What Youll Do:
Research, experiment, develop and productize advanced NLP, LLM and autonomous agent solutions in various domains such as classification, summarization, translation, information retrieval and AI assistant.
Use advanced deep learning and large language models, to enhance Shields ability to find the needle in a haystack in the world of structured & unstructured data of financial electronic communication.
Conduct rigorous experimentation, analysis, and optimization to ensure performance, efficiency, and scalability.
Develop processes, tools and frameworks to monitor and analyze model performance and data accuracy
Innovate, develop, and test state-of-the-art approaches to solve our challenging problems: domain adaptation, fine-tuning, prompt engineering, zero- and few-shot learning, autonomous agents, using open and close large language models.
Assist and mentor other team members in the implementation and research
Collaborate closely with domain experts, product and engineering teams to translate research breakthroughs into scalable commercial products
Identify the latest technology to improve our AI capabilities in a variety of languages and help shaping our AI roadmap
Requirements:
M.Sc. in Computer Science or a related field. Ph.D. an advantage
4+ years of hands-on industry experience in NLP, deep learning, large language models, generative AI, and prompt engineering.
Proficiency in Python a must.
Proven track record of designing and operating AI/ML systems in production, including considerations for performance, observability and monitoring a must
Hands-on expertise with modern ML frameworks (PyTorch, Hugging Face Transformers) and GenAI toolkits (e.g., LangChain, LlamaIndex); proficiency with cloud ML platforms (AWS, GCP, Azure) and MLOps best practices
Experience with ASR an advantage
Team player
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8363455
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
01/10/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
we are a rapidly growing startup company, developing the next-generation smart-infrastructure solution based on novel fiber-sensing technology (smart roads, smart cities, perimeters, and grid monitoring, etc.). The company offers an award-winning disruptive solution; a sensor free approach to smart infrastructure. The company is VC backed and in the revenues stage.
Combining pioneering technology in optical fiber sensing with state-of-the-art machine learning, we help prevent environmental disasters, protect human lives, and keep critical energy and transportation backbones running smoothly.
Our technology turns the optical fiber embedded along high‑voltage lines into a national‑scale sensor network. By measuring real‑time wind and thermal conditions continuously along each line segment, we transform the grid into a smart, self‑aware network whose capacity is assessed accurately and dynamicallyincreasing current flow through the grid so more renewable projects can connect and more electric vehicles can charge.
Conventional grid‑monitoring depends on scattered line‑mounted sensors that are highly expensive and do not scale. Our solution converts the optical fiber running inside the shield wire into a continuous, high‑resolution sensor array that observes every meter of conductor in real time. This array of acoustic sensors produces a continuous flow of high-resolution waveforms, which is enriched with topographic, asset, and weather context.
We are looking for a Senior Data Scientist to join our journey to reinvent how power‑grid capacity is unlocked. The ideal candidate combines deep expertise in AI, physics, and engineering, with a strong track record in handling raw sensor and time-series data. They should excel in signal processing, statistical modeling, and building production-grade analytics and data pipelines. The role demands both software engineering skill and rigorous, safety-conscious development, as it impacts critical infrastructure.
What Youll Do:
Low‑Level Signal Processing Transform raw millisecond‑scale waveforms into meaningful features: design signal processing pipelines, extract spectral and temporal signatures of wind‑induced motion, and craft features that power the next layers of modelling.
Research, train, and optimize models that infer local wind speed and direction, conductor temperature and strain, and detect anomalous eventsleveraging cutting‑edge AI techniques to explore a fascinating, largely untapped domain.
Deliver physical and mathematical insights from the data; work closely with academic partners to design preprocessing, augmentation, and physics‑context layers that translate wind‑induced vibrations into accurate wind metrics.
Write, test, and maintain reliable code that operates 24/7 in production and integrates seamlessly with utility systems.
Shape the teams data roadmap, mentor peers, and champion best practices in MLOps, experimentation, and documentation.
Requirements:
Advanced degree (M.Sc. or Ph.D.) in Electrical Engineering, Physics, Applied Mathematics, Computer Science, or a related quantitative discipline.
6+ years of hands-on experience in developing and deploying machine learning, signal processing, or algorithmic solutions, with emphasis on raw or low-level data (e.g., sensor data, audio, video streams, or medical imaging).
Proven expertise in time-series analysis and handling large-scale, complex datasets from acquisition to production deployment.
Strong Python programming skills, with the ability to write clean, modular, and testable production-grade code.
Demonstrated experience deploying ML/DSP pipelines into production environments, ideally in high-availability systems.
Familiarity with ML/DL frameworks such as PyTorch, TensorFlow, scikit-learn, and gradient-boosting libraries (e.g., XGBoost, LightGBM).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8363395
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו