משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בלוגיקה IT
דרוש/ה מנהל /ת ומוביל/ת תחום הדאטה
ירושלים | היברידי

תפקיד אסטרטגי, משפיע ומוביל - ניהול תחום הדאטה הארגוני מקצה לקצה, הובלת חדשנות, בניית מתודולוגיות, ותמיכה בתהליכי קבלת החלטות ברמת הארגון

על התפקיד
הובלת תחום הדאטה הארגוני כיכולת אסטרטגית
בניית מתודולוגיות, כלים וסטנדרטים לניהול דאטה
אחריות על ארכיטקטורת הדאטה ויישום מדיניות data Governance
בדיקות איכות נתונים, ניהול Pipelines והבנת מודלים אנליטיים מורכבים
פיתוח מודלים ואלגוריתמים לזיהוי מגמות ולתובנות אסטרטגיות
ניהול תוכנית עבודה, הובלת פרויקטים מורכבים ומכוונות Delivery
ניהול צוותים בתחומי BI, data, אנליזה, תשתיות דאטה ו-AI
עבודה מול גורמים עסקיים לשילוב דאטה חדש ופתרון בעיות מורכבות
דרישות:
5+ שנות ניסיון בניהול פרויקטים מורכבים בתחום הדאטה
2+ שנות ניסיון בניהול צוותים ( data, AI, אנליזה, תשתיות)
ניסיון בתכנון data Architecture
ניסיון ב- data Governance
ניסיון בהקמת מערכות נתונים בענן
השכלה: תואר ראשון טכנולוגי ו/או הנדסאי תוכנה ו/או קורסים ב- data Engineering ו/או בוגר/ת יחידה טכנולוגית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8583963
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בלוגיקה IT
מיקום המשרה: מספר מקומות
לארגון ממשלתי גדול ויציב, דרוש מנהל או מנהלת פרויקטים להובלת פרויקט דאטה אסטרטגי של מעבר מתשתיות מקומיות לפלטפורמת דאטה מתקדמת בענן GCP.

מדובר בתפקיד ליבה עם השפעה רחבה על הארגון, המשלב הובלה טכנולוגית, ניהול פרויקט מורכב ועבודה עם צוותי דאטה וארכיטקטורה.

ניתן לעבוד מתל אביב או מירושלים

משרה היברידית עם שילוב עבודה מהבית

תחומי אחריות
הובלת פרויקט מיגרציית דאטה מקצה לקצה משלב התכנון ועד עלייה לייצור
ניהול ישיר של צוות data Engineers והובלת העבודה השוטפת
עבודה צמודה עם ארכיטקטים, צוותי תשתיות, BI ואבטחת מידע
הובלה מקצועית של פיתוח תהליכי דאטה, בניית טבלאות ומידול נתונים
תכנון והטמעת פלטפורמת דאטה בענן GCP כולל BigQuery ו Dataform
ניהול לוחות זמנים, תעדוף משימות, פתרון חסמים והובלת Delivery
אחריות גם על שלב הייצוב והמשך הפיתוח לאחר המיגרציה
דרישות:
ניסיון מוכח בניהול פרויקטים טכנולוגיים מורכבים או ניסיון ניהול צוות - חובה
רקע קודם כ data Engineer עם ניסיון Hands On חובה
ניסיון בעבודה עם DWH, תהליכי ETL או ELT ומידול נתונים
ניסיון בהובלת פרויקטי מיגרציה לענן יתרון משמעותי
ניסיון בענן GCP או ניסיון בענן אחר עם נכונות לעבוד ב GCP
תואר אקדמי בהנדסה / מדעי המחשב או תואר אקדמי אחר עם קורסים טכנולוגיים מתקדמים או בוגר/ת צה"ל יחידה טכנולוגית - חובה
היכרות עם BigQuery, Dataform, Snowflake או Databricks יתרון
יכולת הובלה, ראייה מערכתית ותקשורת בין אישית גבוהה

אופי התפקיד
תפקיד הובלה והכוונה מקצועית ללא פיתוח יומיומי
עבודה מול ממשקים רבים בסביבה ארגונית מורכבת
ניהול ישיר של צוות data Engineers ועבודה עם ארכיטקטים
שילוב בין אחריות על Delivery לבין עומק טכנולוגי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8583940
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בקונסיסט ישראל
מיקום המשרה: לוד
סוג משרה: משרה מלאה
אנליסט במערכת חשבונאית פיננסית גדולה, אחראי על סביבת qlik sense - הקמת מסכים, תהליכי עבודה והדרכת משתמשים
משרה מלאה בלוד
דרישות:
מאפיינים אישיים:
- ראש גדול
- יכולת למידה עצמית ופתרון בעיות

מאפייני משרה:
- ידע ונסיון בפיתוח מסכים בסביבת qlik sense - 3 שנים לפחות
- ידע ונסיון בפיתוח ועיצוב UI למערכות בינוניות / גדולות בסביבת QLIK
- ידע ב Excel ו SQL
- יכולת הדרכה ועבודה עם משתמשים
- יתרונות
o רקע בנקאי, לפחות 3 שנים
o ידע ונסין בפיתוח מודלים ותהליכי ETL בסביבת Qlik sense המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8509850
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
התפקיד כולל:
ניתוח נתונים וביצוע מדידה
הפקת דוחות ותובנות מבסיסי נתונים
זיהוי מגמות
בקרת איכות נתונים והבטחת דיוק המידע
ייעול תהליכי עבודה באמצעות אוטומציה וכלי ניתוח
דרישות:
ניסיון מחברה לוגיסטית
ניסיון של שנתיים לפחות בתפקיד דומה
שליטה באקסל
יכולת עבודה עצמאית לצד עבודת צוות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8259048
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a BI team leader - either an experienced team lead or a senior BI professional ready to step into a leadership role.
This is a hands-on leadership role focused on leading BI activities, working closely with customers and executives to ensure successful adoption, ongoing value, and measurable business impact.
Responsibilities
Lead and grow a BI team focused on implementation and maintenance
Act as a strategic partner to customers and C -level stakeholders
Ensure ongoing value of BI and AI models
Manage customer escalations and resolve conflicts effectively
Oversee system improvements and continuous optimization
Translate business needs into data -driven insights
Requirements:
Requirements
2+ years of experience as a BI Developer - Must
Strong experience with ETL processes and DWH systems
Proven experience in data modeling and dashboards
Strong analytical skills and high proficiency with BI tools
Experience in business process analysis
Leadership experience or strong leadership potential
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8578434
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
לארגון גדול ומוביל במרכז דרוש/ה data Engineer

הזדמנות להצטרף לצוות BI מקצועי בארגון הנמצא בתנופת עשייה ובמעבר לטכנולוגיות מתקדמות וחדשניות

תחומי אחריות:

אפיון ומיפוי מידע

הגדרת ופיתוח תהליכי ETL

בניית מודל נתונים והבנת הקשרים בין טבלאות

ניתוח מערכות BI

פיתוח דשבורדים ודוחות בהתאם לדרישות העסקיות

מתן מענה שוטף לדרישות, תקלות וקידום פרויקטים
דרישות:
* לפחות 4 שנות ניסיון כ- data Engineer

* ניסיון חובה עם Databricks

ניסיון בהגדרת ופיתוח תהליכי ETL

ניסיון בניתוח מערכות BI

ניסיון בעבודה מול ממשקים עסקיים וטכנולוגיים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8577359
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
התפקיד כולל אחריות על תהליכי קליטה, עיבוד וניתוח נתונים, וכן פיתוח יישומים מבוססי דאטה על גבי פלטפורמת Splunk (כמו דשבורדים, אנליזות והתראות).
דרישות:
-ניסיון מוכח כ- data Engineer תהליכי ETL, עולמות data Pipelines ואינטגרציה בין מקורות מגוונים.
-ידע וניסיון בעבודה עם מערכות לינוקס.
-שליטה בשפות scripting כגון Python וShell.
-הכרות עם מימוש יישומים מבוססי דאטה דשבורדים, דוחות, אנליזות או מערכות ניטור.
-ניסיון בעבודה עם Splunk  יתרון משמעותי.
-ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) יתרון.
-תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8411908
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
ארגון פיננסי באזור המרכז מגייס מנתח/ת מערכות מידע data
התפקיד כולל: הובלת תהליכי ניתוח ואפיון מערכות data תוך הבנת צרכים עסקיים, מתן פתרונות טכנולוגיים מתקדמים, כתיבת מסמכי אפיון פונקציונליים וטכניים, מידול ותכנון מבני נתונים יעילים ונגישים, תחקור מקורות מידע מרובים ועבודה שוטפת מול ממשקים עסקיים וטכנולוגיים רבים בארגון ועוד.
דרישות:
- 3 שנות ניסיון בניתוח מערכות מידע בתחום ה- data
- שליטה מלאה ב-SQL ועבודה מול בסיסי נתונים מורכבים
- הבנה מעשית בארכיטקטורת data כולל DWH ו- data Lake
- ניסיון באפיון תהליכים עסקיים וטכנולוגיים והעברת דרישות לפיתוח
- רקע בפיתוח או אפיון מערכות מידע בארגון גדול - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8578820
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בCBC ISRAEL
חברת CBC ISRAEL המייצרת ומשווקת את המותגים קוקה-קולה, פריגת, טרה ועוד- מגייסת מנהל /ת תחום תכנון ובקרה

טעימה מהתפקיד:
הובלת תחום תוכן ייחודי במחלקת תכנון ובקרה השייכת למחלקת הטרייד מרקטינג
ניהול תהליכי תכנון אסטרטגיית נקודת המכירה בהיבטי מגוון ומדף, בקרה וניתוח התוצאות תוך מתן תובנות להנהלה וליחידות העסקיות
אחריות על ניתוח הנתונים ומגמות השוק ובניית תובנות הממפות את הפערים וההזדמנויות
הפיכת התובנות לתכנית פעולה המבוססת על הבנה עסקית בעיקר בהיבטי אופטימיזציית מגוון מוצרי החברה ותכנון המדף לפי סוגי העסקים השונים ותוך שימוש במתודולוגיות בינלאומיות
בחינת אפקטיביות התכנית - ניתוח פעילויות אסטרטגיות המתקיימות בנקודות המכירה ובחינת השפעתן על התוצאות העסקיות
תפקיד מרובה ממשקים, שיווק ומכירות, המצריך יכולת פרזנטטיבית והעברת מסרים

הטעם המיוחד שמחכה לך כאן:
בונוס שנתי
רכב
שילוב של חשיבה אסטרטגית, יצירתיות, ניהול תקציבים והשפעה אמיתית על השוק הישראלי
דרישות:
ניסיון של 3 שנים בתפקיד אנליטי - חובה
שליטה מלאה ב-Excel
אוריינטציה שיווקית/ מסחרית - יתרון
ניסיון עבודה עם מערכות BI - יתרון

זו ההזדמנות שלך להצטרף לתפקיד המאפשר השפעה אמיתית! שלחו עכשיו קורות חיים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8493839
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים ביוניטסק
מיקום המשרה: מספר מקומות
לארגון רפואי מוביל דרוש/ה איש דאטה לצוות BI חזק, לתפקיד מגוון המשלב BI קלאסי, הנדסת דאטה וליווי מחקרים קליניים.
תחומי אחריות:
פיתוח ותחזוקת דשבורדים בQlik (Cloud/Sense) לצוותים עסקיים וקליניים
בניית תהליכי ETL מורכבים ממקורות מידע מגוונים
Preprocessing והכנת נתונים לצרכים אנליטיים ומחקריים
עבודה בפרויקטים מתקדמים הכוללים כלי AI/ML
דרישות:
לפחות 3 שנות ניסיון בפיתוח Qlik Cloud או Qlik Sense
לפחות 3 שנות ניסיון בSQL
לפחות 3 שנות ניסיון בתהליכי ETL מורכבים וPreprocessing
ניסיון בעבודה עם כלי AI/ML כגון TensorFlow, PyTorch, Hugging Face
ניסיון במחקר רפואי/קליני - יתרון משמעותי
תואר מתקדם במדעי החיים או רקע משמעותי בסטטיסטיקה - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8567802
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
שכר: 12,000-15,000
התפקיד כולל בין היתר:
- עבודה מול מנכ"ל החברה
- עבודה שוטפת על אקסל
- הפקת דוחות בקרה ממערכות החברה
- ייעול תהליכי הפצה
- עבודה מול מנהלי סניפים
משרה מלאה בפתח תקווה, בקרבה לרכבת הקלה
דרישות:
אוריינטציה אנליטית גבוהה
ניסיון ושליטה מלאה באקסל, כולל נוסחאות - חובה
ניסיון מעולם ההפצה/לוגיסטיקה
תואר ראשון בלוגיסטיקה/ הנדסת תעשייה וניהול - יתרון
אסרטיביות, יכולת עמידה בריבוי משימות ויכולת למידה עצמאית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8558714
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים במלם תים
סוג משרה: משרה מלאה
למוסד פיננסי גדול בלוד, מגייסים: data Analyst, התפקיד משלב ניתוח נתונים והסקת תובנות, בניית פאנלים וחיווים מבוססים חוקה עסקית ב-SQL, דוחות ודשבורדים בטאבלו.
בנוסף, במסגרת התפקיד:  פיתוח וביצוע שאילתות SQL מתקדמות לשליפה וניתוח של נתונים ממאגרי מידע.
אפיון ובניית פאנלים לשילוב במערכת לטובת הקמת הקמפיינים ודשבורדים, מדידה וניתוח אפקטיביות קמפיינים, כולל הפקת דוחות ועוד.
הובלה מקצה לקצה של תוצרים בתחום הדאטה - משלב האפיון ועד למימוש.
דרישות:
- ניסיון של לפחות 3 שנים בעבודה עם SQL - כולל כתיבת שאילתות מורכבות, לרבות ניסיון בכתיבת סקריפטים מתוזמנים לריצה יומית.
-  ניתוח נתונים בהיקפים גדולים, לרבות הצגת ממצאים.
- הבנה עסקית מעמיקה בעולם הפיננסים - לקוחות, מוצרים ותהליכים שיווקיים.
- ניסיון בעבודה עם כלי Tableau.
- ניסיון באנליזה שיווקית בארגון פיננסי. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8542682
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגולדמן מיון והשמה
התפקיד כולל:
ניתוח נתונים שוטף והפקת תובנות עסקיות
עבודה יומיומית על מערכת CRM
ריכוז data ממחלקות שונות בארגון
בניית דוחות, בקרה ומדדי ביצוע (KPIs)
זיהוי מגמות, פערים והזדמנויות לשיפור
הצגת מסקנות בצורה ברורה למנהלים ולצוותים
דרישות:
תואר ראשון רלוונטי- חובה
חשיבה אנליטית ויכולת הסקת מסקנות מנתונים
היכרות עם מערכות CRM - יתרון
סדר, דיוק ויכולת ירידה לפרטים
יכולת עבודה עצמאית ויוזמה
ניסיון קודם בתפקיד אנליטי - יתרון, לא חובה

**המשרה פונה לנשים וגברים כאחד** המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8552923
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
חברת טכנולוגיה מובילה מגייסת data Engineer מנוסה בעולמות Microsoft Fabric להקמה, פיתוח ותחזוקה של פתרונות data מקצה לקצה בסביבה היברידית (On-Prem + Cloud).

התפקיד משלב data Engineering, BI ו-Analytics עם עבודה Hands-On ב- Python, Power BI ו-Power Automate.

?? תחומי אחריות

תכנון והטמעה של Lakehouse Architecture על Microsoft Fabric

בניית data Pipelines מקצה לקצה

חיבור מקורות מידע On-Prem ו-Cloud

עבודה עם Fabric data Factory ו-Notebooks

יישום Medallion Architecture (Bronze / Silver / Gold)

כתיבת Python Notebooks ( ETL / ELT, data Enrichment)

הכנת נתונים לאנליטיקה ו-AI

עבודה עם Power BI :

Semantic Models

DAX

Power Query

אופטימיזציית ביצועים

שימוש ב-Power Automate לאוטומציות, טריגרים והתראות

הקמת On-Premises data Gateway

ניטור תהליכים ויציבות מערכות

תיעוד תהליכים ו-Best Practices

עבודה שוטפת מול גורמי Business ו-Stake
דרישות:
דרישות חובה

לפחות 3 שנות ניסיון כ- data Engineer או BI Developer מתקדם

ניסיון מעשי מוכח עם Microsoft Fabric

ניסיון בהובלת תהליכי data מקצה לקצה

שליטה גבוהה ב-SQL

ניסיון ב- Python (Notebooks, Pandas)

ניסיון חובה ב-Power BI (DAX, Power Query, Semantic Models)

ניסיון ב-Power Automate

ניסיון ב- ETL / ELT

הבנה מעמיקה ב- data Warehouse ו-Lakehouse Architecture

ניסיון בעבודה עם Git / Azure DevOps

? יתרון משמעותי

ניסיון עם Apache Spark / PySpark

ניסיון עם Azure Synapse או Databricks

עבודה עם Streaming / EventHub

פרויקטי Greenfield

ניסיון בהכנת נתונים ל-AI / Copilot

CI/CD ל- data Pipelines

היכרות עם תחום Energy / Utilities / SCADA

?? ניסיון ב-Spark אינו חובה אך ייחשב כיתרון משמעותי.

?? מאפיינים אישיים

עצמאי/ת, יוזם/ת ו-Hands-On

יכולת עבודה בצוות ובאופן עצמאי

תקשורת מצוינת בעברית ובאנגלית

סדר, אחריות ועמידה ביעדים

?? סביבת עבודה טכנולוגית מתקדמת
?? עבודה על מערכות data מורכבותת המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530078
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
לחברת סקיוריטי בעולם הרכב דרוש/ה data Engineer
טכנולוגיות מרכזיות:
Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
תיאור המשרה:
תכנון, פיתוח ותחזוקה של צינורות דאטה סקיילביליים לקליטה ועיבוד של נתוני Batch ב- data Lake, תוך הקפדה על איכות נתונים, ממשל נתונים (Governance), נראות (Observability) ו-CI/CD.
פיתוח והרחבת תשתיות הדאטה הבסיסיות, כולל data Lake, מנוע אנליטיקה ומסגרות לעיבוד Batch.
בניית תשתיות יציבות לאוטומציה של תהליכי קליטה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלי Open-Source ופתרונות Cloud-Agnostic.
פיתוח ותחזוקת ארכיטקטורות ומבני data Lake לגישה יעילה לנתונים ואנליטיקה מתקדמת.
פיתוח וניהול כלי אורקסטרציה, Governance, גילוי נתונים ( data Discovery) ועוד.
עבודה שוטפת עם חברי צוות נוספים - ארכיטקטי דאטה, אנליסטים ודאטה סיינטיסטים - בגישה מבוססת Use-Cases לבניית זרימות דאטה טכנולוגיות.
אחריות מקצה לקצה (End-to-End Ownership) וגישה פרואקטיבית
דרישות:
תואר ראשון במדעי המחשב / הנדסה או תחום רלוונטי
לפחות 4 שנות ניסיון בתכנון ובניית צינורות דאטה, כלי אנליטיקה ו- data Lakes
ניסיון בטכנולוגיות data Engineering: כלי ETL ואורקסטרציה (כגון Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כגון Spark, Kafka, Presto)
ניסיון מוכח ב Python - חובה
ניסיון בעבודה עם מוצרי Open-Source - יתרון
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כגון Kubernetes) - יתרון
ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכד) - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8531732
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a talented Data Engineer to join our Data team and spread the power. The Data team develops and maintains the infrastructure for internal data and product analytics. We are looking for data enthusiasts, independent, logical thinkers with a can-do approach and a passion for problem-solving. We run a SaaS-based stack using BigQuery, Snowflake and dbt.
WHAT YOU'LL DO
Design, build, and maintain data pipelines, datasets and catalogs for fast-growing products and business groups.
Develop self-service data analytics solutions and infrastructure.
Support ad hoc needs and requests of internal stakeholders.
Collaborate with analysts, engineers, and internal customers from Product, Finance, Revenue, and Marketing.
Requirements:
Bachelors or Masters degree in a relevant technical field, or equivalent hands-on experience in software development or DevOps.
3+ years of experience working as a Data Engineer, including end-to-end designing, orchestrating, and building cloud-based data pipelines (e.g., Airflow, Prefect, Dagster).
3+ years of experience with dimensional data modeling and data warehouse implementation, specifically MPP databases like BigQuery, Snowflake, and Redshift.
Strong knowledge of Python and Python-based data analysis tools such as Jupyter Notebooks and pandas.
Strong SQL writing skills. Ability to write highly performant queries.
Strong track record of executing projects independently in dynamic environments.
Fast understanding of data and business needs and ability to translate them into data models.
Team player with excellent communication skills.
Containerization (Docker): Essential for reproducible environments.
Knowledge of software engineering best practices: CI/CD concepts, code reviews, and unit testing.
ADVANTAGE
Production-level experience with dbt, including project design, transformation, testing, and documentation.
Infrastructure-as-Code (Terraform): Managing cloud resources (S3 buckets, IAM roles) via code.
CI/CD pipelines (GitHub Actions/Jenkins): Automating the testing and deployment of data models.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8573992
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/03/2026
מיקום המשרה: אילות
סוג משרה: משרה מלאה
מגייסים תותח/ית data Platform Operations!
מחפשים לקחת Ownership תפעולי מלא על מערכת דאטה מורכבת מבוססת Google Cloud? מקומכם איתנו!
התפקיד כולל אחריות מקצה לקצה על יציבות וזמינות המערכת ב-Production, ניטור data Pipelines, אינטגרציית data Sources חדשים וניהול הרשאות (IAM).
מיקום: חבל אילות (אופציה להיברידית).
דרישות:
מה חשוב שיהיה לכם?
3+ שנות ניסיון ב- data Platform Operations
היכרות מעשית וידיים על המקלדת ב-GCP
ניסיון פיתוח ב- Python
הבנה מעמיקה בתהליכי data Ingestion, ELT, data Quality
היכרות עם עקרונות Security, IAM ו- data Governance המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8573816
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking an outstanding and passionate Data Platform Engineer to join our growing R&D team.

You will work in an energetic startup environment following Agile concepts and methodologies. Joining the company at this unique and exciting stage in our growth journey creates an exceptional opportunity to take part in shaping Finaloop's data infrastructure at the forefront of Fintech and AI.

What you'll do:

Design, build, and maintain scalable data pipelines and ETL processes for our financial data platform.

Develop and optimize data infrastructure to support real-time analytics and reporting.

Implement data governance, security, and privacy controls to ensure data quality and compliance.

Create and maintain documentation for data platforms and processes.

Collaborate with data scientists and analysts to deliver actionable insights to our customers.

Troubleshoot and resolve data infrastructure issues efficiently.

Monitor system performance and implement optimizations.

Stay current with emerging technologies and implement innovative solutions.
Requirements:
What you'll bring:

3+ years experience in data engineering or platform engineering roles.

Strong programming skills in Python and SQL.

Experience with orchestration platforms like Airflow/Dagster/Temporal.

Experience with MPPs like Snowflake/Redshift/Databricks.

Hands-on experience with cloud platforms (AWS) and their data services.

Understanding of data modeling, data warehousing, and data lake concepts.

Ability to optimize data infrastructure for performance and reliability.

Experience working with containerization (Docker) in Kubernetes environments.

Familiarity with CI/CD concepts.

Fluent in English, both written and verbal.

And it would be great if you have (optional):

Experience with big data processing frameworks (Apache Spark, Hadoop).

Experience with stream processing technologies (Flink, Kafka, Kinesis).

Knowledge of infrastructure as code (Terraform).

Experience building analytics platforms.

Experience building clickstream pipelines.

Familiarity with machine learning workflows and MLOps.

Experience working in a startup environment or fintech industry.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8573265
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8572794
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/03/2026
Location: Herzliya
Job Type: Full Time
we are looking for an experienced Senior data Scientist specializing in NLP and Large Language Models (LLMs) to join our AI & data practice. In this role, you will lead the design and development of advanced NLP and Generative AI solutions, including on-premise Hebrew LLM systems, for enterprise clients across multiple industries. You will work closely with data engineers, software architects, and AI specialists to build production-grade AI systems that power decision-support tools, intelligent interfaces, and next-generation applications
Generative AI & NLP Solutions
* Lead the development of Hebrew LLM-based solutions, including on-premise deployments for enterprise environments.
* Design and implement NLP pipelines for:
* Text classification
* Sentiment analysis
* Named Entity Recognition (NER)
* Develop Generative AI applications supporting decision-support systems and intelligent user interfaces
* Build and optimize semantic search, embeddings, and Retrieval-Augmented Generation (RAG) architectures
* Implement multi-agent and long-chain LLM workflows for complex reasoning tasks. Architecture & Technical Leadership
* Provide technical leadership and architectural guidance for AI/ML solutions.
* Collaborate with data engineers, MLOps, and software teams to deploy scalable NLP models into production environments.
* Design efficient text representations and feature engineering pipelines
* Ensure solutions meet enterprise-level performance, security, and scalability requirements Innovation & Client Impact
* Analyze large-scale datasets and deliver data -driven insights that improve business processes.
* Stay updated with the latest advancements in NLP, LLMs, and Generative AI ecosystems
* Contribute to innovation initiatives and knowledge sharing within our AI community.
* Work closely with enterprise clients, translating business needs into AI-driven solutions.
Requirements:
Education M.Sc. in Computer Science, data Science, or related field - Required
Professional Experience Expert-level knowledge in data Science and Generative AI methodologies - Required 5+ years of hands-on experience in Machine Learning / Deep Learning - Required 3+ years of hands-on experience implementing NLP /LLM solutions - Required
* Strong experience with modern LLM frameworks and ecosystems (Hugging Face, GitHub, open-source models, etc.)
* Experience building RAG pipelines, embeddings, semantic search, and agent-based LLM systems
* Familiarity with Agile development and DevOps practices Advantages
* Experience with public cloud AI platforms (AWS / Azure / GCP)
* Experience deploying on-premise AI solutions for enterprise environments Personal Attributes
* Strong technical leadership with hands-on capabilities Excellent communication and collaboration skills
* Ability to translate complex AI technologies into real-world solutions
* A big-picture thinker with strong problem-solving abilities
* Passion for innovation, learning, and emerging AI technologies
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8571943
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
08/03/2026
Location: Bnei Brak
Job Type: Full Time
Rakuten Viber is one of the most popular and downloaded apps in the world. Working with us means influencing hundreds of millions of users and shaping the journey toward becoming a true super-app. Our mission is to make people’s lives easier by enabling meaningful connections — from special moments with friends and family, to building businesses and pursuing passions. We’re looking for a Senior Data Analyst who combines strong technical skills with a strategic mindset and curiosity for how data drives user experience and growth in social mobile apps. You’ll partner closely with product, engineering, and marketing teams to turn data into clear insights and measurable business impact. If you’re passionate about uncovering insights, leveraging data and AI for smarter, faster results, and driving decisions at scale; we’d love to hear from you!

Responsibilities:

* Identify opportunities for improvement through data analysis aligned with company strategy.
* Partner cross-functionally to translate data findings into actionable product and business decisions.
* Design, run, and analyze A/B tests to evaluate product changes and user experience optimizations.
* Build, automate, and maintain dashboards and reports to track platform health, user behavior, and key trends.
* Communicate findings clearly to stakeholders, influencing both tactical and strategic decisions.
* Leverage AI and automation tools to accelerate analytical workflows and uncover deeper insights.

Advantages:

* Background in statistics, causal inference, or experimentation frameworks.?
* Experience mentoring analysts or leading analytical projects.?
* A deep interest in social, communication, or engagement-driven apps.
Requirements:
* 6+ years of experience in data analytics, preferably in consumer-facing digital products.
* Strong command of SQL, Python, and data visualization tools (e.g., Tableau, Looker, Matplotlib).?Proven ability to design and analyze A/B tests and apply sound experimental methodology.
* Strong understanding of how to leverage AI to improve analysis speed, accuracy, and impact.
* Excellent communication and storytelling skills; ability to craft a clear narrative from complex data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8377911
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
06/03/2026
Location: Ra'anana
Job Type: Full Time
We are seeking a highly skilled and visionary Lead Data Scientist with deep expertise in Generative AI to lead high-impact initiatives at the frontier of AI innovation. This role requires a unique blend of advanced technical skills, domain specialization, leadership ability, and a passion for delivering real-world impact. You will guide a small team of talented data scientists and work collaboratively across engineering and product teams to design, build, and deploy intelligent, domain-specific multi-agent systems.

What will your job look like?
Lead the design of complex, domain-specialized multi-agent Generative AI systems.
Provide technical mentorship and leadership to a team of 3-4 data scientists.
Drive hands-on research and rapid prototyping in areas including LLM fine-tuning, prompt engineering, agentic workflows, and self-improving systems.
Collaborate with product managers, engineers, and domain experts to identify opportunities and deliver AI-driven features and products.
Evaluate and integrate state-of-the-art models and tools from the GenAI ecosystem, including open-source and proprietary solutions.
Translate research outcomes into actionable product features and influence AI strategy and roadmap.
Maintain high standards for scientific rigor and data integrity throughout the development lifecycle.
Requirements:
Masters degree or higher in Computer Science, Artificial Intelligence, Machine Learning, or a related field.
8+ years of experience in data science, with proven leadership in delivering impactful AI products.
Deep experience with Generative AI, including LLMs fine tuning and evaluation.
Strong programming skills in Python and experience with GenAI libraries (e.g., Langraph/LangChain, OpenAI, RAG pipelines).
Familiarity with software architecture and engineering practices
Strong communication skills and the ability to mentor and inspire a technical team.
proved practical experience moving from a POC to production.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8570000
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
06/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Staff AI Engineer to join our growing AI and engineering group. This is a highly impactful role for someone who wants to shape how AI is embedded across products, platforms, and business operations-from early experimentation to production-scale systems.As a Staff AI Engineer, youll operate end-to-end: identifying opportunities, designing solutions, and delivering real business value using modern AI and LLM-based systems.

What you'll be doing
Design, build, and deploy AI-powered solutions across Supersonics products and internal platforms
Partner closely with product, data, engineering, and business stakeholders to identify and execute high-impact AI use cases
Architect and implement agentic workflows using frameworks such as LangChain, LangGraph, or equivalent
Integrate and operate LLMs via SDKs, including prompt design, structured outputs, tool/function calling, and guardrails
Lead technical decisions around AI evaluation, monitoring, observability, and quality measurement
Own AI initiatives from concept through production, including iteration, scaling, and long-term maintenance
Stay up to date with emerging AI technologies, models, and best practices, and help bring them into production thoughtfully
Requirements:
8+ years of software engineering experience, with at least 2+ years in AI/ML platforms or intelligent automation.
Strong background in distributed systems, APIs, microservices, container orchestration (ECS/EKS), and cloud platforms (AWS/GCP/Azure)
Proven experience building and deploying LLM-based applications using platforms such as OpenAI, Anthropic, AWS Bedrock, or similar
Solid understanding of RAG pipelines, vector databases, embeddings, and retrieval techniques (chunking, indexing, filtering, relevance tuning)
Ability to thrive in ambiguous problem spaces, take ownership, and move quickly in a startup-like environment
Strong problem-solving and analytical skills, with a product- and impact-driven mindset
Experience collaborating across teams and leading technical projects end-to-end
Bachelors degree in Computer Science, AI, or a related field (or equivalent practical experience)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569987
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
06/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Senior Data Scientist you will be handed a business problem and will be asked to provide an end to end solution - Unpack and thoroughly understand the business problem, define the strategy to deal with it and develop & deploy your solution along with relevant support.

What you'll be doing
Design and implement end-to-end solutions - from business needs all the way to live deployment
Monitor and own models in production
Model, design, and implement machine learning and data mining algorithms
Perform deep data analysis to evaluate performance and recommend improvements
Help, guide and support our business partners to allow for scale and accuracy while adopting your solutions
Requirements:
At least 5 years of experience as data scientist /researcher, combining excellent hands-on SQL and Python skills
At least 5 years of experience applying ML algorithms to solve real world business problems (e.g., Logistic Regression, Gradient Boosting Machines, Neural Networks, and unsupervised clustering)
B.Sc in Computer Science, Statistics, Operations Research or equivalent
Solid background with data lake and data warehouse technologies
Great communication skills, Hands-On, independent and out of the box thinker
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569983
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
We're seeking talented data engineers to join our rapidly growing team, which includes senior software and data engineers. Together, we drive our data platform from acquisition and processing to enrichment, delivering valuable business insights. Join us in designing and maintaining robust data pipelines, making an impact in our collaborative and innovative workplace.

Responsibilities
Design, implement, and optimize scalable data pipelines for efficient processing and analysis.
Build and maintain robust data acquisition systems to collect, process, and store data from diverse sources.
Take part in developing agentic capabilities.
Mentor, support, and guide junior team members, sharing expertise and fostering their professional development.
Collaborate with DevOps, Data Science, and Product teams to understand needs and deliver tailored data solutions.
Monitor data pipelines and production environments proactively to detect and resolve issues promptly.
Apply and be responsible for best practices in data security, integrity, and performance across all systems.
Requirements:
6+ years of experience in data or backend engineering, with strong proficiency in Python for data tasks.
Proven track record in designing, developing, and deploying complex data applications.
Hands-on experience with orchestration and processing tools such as Apache Airflow and Apache Spark.
Deep experience with public cloud platforms, and expertise in cloud-based data storage and processing.
Experience working with Docker and Kubernetes.
Hands-on experience with CI tools such as GitHub Actions.
Bachelors degree in Computer Science, Information Technology, or a related field - or equivalent practical experience.
Ability to perform under pressure and make strategic prioritization decisions in fast-paced environments.
Excellent communication skills and a strong team player, capable of working cross-functionally.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569768
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
we are a data driven company, the data Engineering team is the bridge between raw data and impactful business insights. You will lead a team of talented engineers to architect, build, and maintain the data infrastructure of our company. Your mission is to ensure our data is reliable, secure, and ready for everything from standard BI reporting to cutting-edge Generative AI applications. Youll act as a key partner to our business teams, translating high-level needs into technical reality and driving a massive impact on our bottom line. In addition youll spend time mentoring your team as well as tackling high-level architecture decisions, pushing technical strategy and contributing to the codebase.
What am I going to do?:

* Lead a team that designs and scales Real-Time data pipelines processing millions of events hourly.
* Utilize cutting-edge technologies to build scalable and high performant data infrastructure.
* Influence and drive architecture and data strategy decisions.
* Work closely with other stakeholders such as data Developers, Analysts, data Science and R&D.
* Hands-on development of data infrastructure tools (~50% of the time).
* Lead and mentor the team talent.
* Finops and governance of data infrastructure domains.
Equal opportunities:
At our company, we prioritize diversity. We celebrate difference and embed it into every aspect of our workplace and product, as well as our community. we are proud and committed to providing equal opportunity employment to all individuals regardless of race, color, religion, sex, sexual orientation, citizenship, national origin, disability, Veteran status, or any other characteristic protected by law. In addition, we will provide accommodation to individuals with disabilities or a special need.
Requirements:
* 5+ years of hands-on experience in data engineering, with at least 2 years in a team leadership role.
* Strong programming skills in Python.
* Experience with relevant technologies such as BigQuery, Airflow/Prefect, DBT, Kafka, Athena, BI Tools.
* Proven track record of design and implementation of highly scalable distributed data pipelines.
* Deep understanding of data modeling, ETL and Real-Time analytics.
* Great 360 collaboration with excellent communication skills.
* MSc./BSc. in Computer Sciences from a top university. At our company, were not about checklists. If you dont meet 100% of the requirements for this role but still feel passionate about the position and think you have the right skills and qualifications to excel at it, we want to hear from you.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569534
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Join global data team building the infrastructure that powers analytics and AI-driven insights across the organization. As a Data Engineer, you'll design and maintain scalable data pipelines and systems that enable product analytics, business intelligence, and AI applications in our high-growth fintech environment.
What you'll do:
Design, build, and maintain robust batch and streaming pipelines and orchestration across our modern stack (AWS, DBT, Airbyte, Airflow, Snowflake) to support AI-driven data products.
Develop and optimize data models in Snowflake, ensuring data quality, consistency, and performance at scale.
Collaborate with Product Analysts and AI specialists to implement data solutions for customer segmentation, ranking systems, and predictive models.
Partner with cros-functional teams to translate technical requirements into scalable data architecture.
Implement end-to-end observability (data quality checks, monitoring, alerting) and cost/performance optimization in Snowflake and AWS.
Requirements:
6+ years of experience as a Data Engineer or similar role.
Expert proficiency in SQL and hands-on experience with modern data warehouse platforms (Snowflake - advantage).
Strong experience building ETL/ELT pipelines using tools like DBT, Airflow, or similar orchestration frameworks.
Proficiency in Python or another programming language for data processing.
Solid understanding of data modeling techniques (dimensional modeling, Data Vault, etc).
Experience with cloud platforms, preferably AWS.
Proven ability to design and maintain reliable, scalable data systems with a strong focus on data quality.
Strong communication skills and the ability to work effectively with both technical and business stakeholders.
Experience with fintech, financial services, or cryptocurrency/blockchain - advantage.
Familiarity with real-time data processing or streaming technologies - advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569095
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a highly enthusiastic Data Engineer to join our group on the journey of leveraging Big Data to revolutionize our offering, business operations and decision making across the companys ecosystem.


Job Responsibilities:

Design, build & deploy backend data solutions to prod, starting from research and design to development and testing.
Work closely with data engineers, product, architects and other R&D teams to deliver the best solutions to the business.
Monitor the solutions in production to make sure they are fully stable, scalable and performant at all times.
Work closely with data sciences experts
Requirements:
Profile and Experience:

At least 3 Years of proven hands on experience with big data solutions and frameworks in production (Spark, Flink) - mandatory
Proven ability of writing complex SQL queries - mandatory
Strong analytical and problem-solving skills with attention to details - mandatory
Production grade experience of writing spark applications using Scala or Java - mandatory
Experience with Apache Airflow and AWS tools (EMR, Glue, Athena) - a big advantage
Solid knowledge in Python and Linux operating systems - a big advantage
Experience with Clickhouse - a big advantage
Familiarity with the Ad Tech industry and RTB - an advantage
Extensive experience in Functional programming, Unit testing/TDD, continuous Deployment - an advantage
Familiarity with NodeJS - an advantage
Fluent verbal and written English skills required
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569028
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
מיקום המשרה: מרכז
סוג משרה: משרה מלאה
דרוש/ה Pre-Sale ברעננה להובלת תהליכי מכירה של פתרונות data בתחומי אינטגרציית נתונים, איכות נתונים, ממשל נתונים ואינטגרציית API.
לשיתוף פעולה עם מנהלי לקוחות וממשקים פנימיים, והובלת ההיבט הטכנולוגי בתהליך המכירה מול לקוחות קיימים ופוטנציאליים.
תחומי אחריות:
זיהוי צרכים עסקיים והתאמתם לפתרונות הדאטה והאנליטיקה של החברה (כגון Talend, Qlik Sense).
הצגת הערך המוסף והובלת תהליכי הוכחת יכולת (POC) ומעקב אחריהם.
ליווי תהליכי המכירה מההיבט הטכנולוגי לכל אורך הדרך, תוך שיתוף פעולה צמוד עם צוותי המכירה.
ביצוע הכשרות טכנולוגיות שוטפות לצוותי המכירות ולעובדים חדשים.
שמירה על עדכניות מקצועית והיכרות עם חידושי טכנולוגיה ומוצר.
ביצוע הדרכות וכשירויות לאנשי המכירות.
שכר 28-32 K
דרישות:
ניסיון 2+ שנים בתפקידי data Pre-Sale, או בתפקידי data Engineer המעוניינים בתפקיד Pre-Sale - חובה
תואר ראשון רלוונטי או הכשרה מקצועית רלוונטית - חובה.
הבנה חזקה של השוק העסקי הישראלי ויכולת חשיבה עסקית.
כושר ורבלי גבוה, יכולת שכנוע והצגת פתרונות טכנולוגיים מול לקוחות.
אנגלית ברמה גבוהה מאוד (קריאה וכתיבה).
יכולת הדרכה טובה.
יתרונות:
ניסיון בפיתוח תהליכי ETL ו- data Pipelines.
שליטה ב-SQL ובשפת תכנות אחת לפחות: Python / Scala / JAVA.
ניסיון בעבודה עם טכנולוגיות כגון: Spark, Kafka, Talend.
ניסיון עם פתרונות ענן (AWS, Azure, GCP).
ניסיון בתהליכי POC. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
8568741
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Job Type: Full Time
Welcome to Chargeflow Chargeflow is at the forefront of fintech + AI innovation, backed by leading venture capital firms. Our mission is to build a fraud-free global commerce ecosystem by leveraging the newest technology, freeing online businesses to focus on their core ideas and growth. We are building the future, and we need you to help shape it. Who We're Looking For - The Dream Maker We're in search of an exceptional hands-on Data Scientist who can bridge data infrastructure, fraud analytics, and machine learning to enhance our fraud detection capabilities. This role requires someone who can drive projects from ideation to implementation , leading these efforts while thinking strategically about how we detect and prevent fraud at scale. Our ultimate goal is to equip our clients with resilient safeguards against chargebacks, empowering them to safeguard their revenue and optimize their profitability. Join us on this thrilling mission to redefine the battle against fraud. Your Arena
* Develop and enhance fraud detection models from concept to production, focusing on data normalization, network analysis, and risk scoring
* Take ownership to identify, analyze, and implement solutions for fraud patterns and behavioral anomalies.
* Design, build and maintain data science pipelines and fraud intelligence systems to improve detection accuracy.
* Collaborate with product, engineering, and risk teams to implement fraud prevention strategies.
* Own projects end-to-end - balancing short-term wins with long-term strategy.
Requirements:
What It Takes 4+ years of hands-on experience in fraud analytics, data science, or risk modeling - Must Proven experience in the Fintech/Fraud Prevention Domain - Must
* Proven ability to take projects from A to Z in building data infrastructure, anomaly detection, and graph-based fraud detection solutions - Must
* Strong practical proficiency in Python, SQL, MLOps and fraud-related data tools - Must
* Strong background in e-commerce or payments - Advantage
* A self-starter mentality someone who identifies opportunities, takes initiative, and drives improvements with minimal direction. Our Story Chargeflow is a leading force in fintech innovation, tackling the pervasive issue of chargeback fraud that undermines online businesses. Born from a deep passion for technology and a commitment to excel in eCommerce and fintech, we've developed an AI-driven solution aimed at combating the frustrations of credit card disputes. Our diverse expertise in fintech, eCommerce, and technology positions us as a beacon for merchants facing unjust chargebacks, supported by a unique success-based approach. Backed by $49M led by Viola Growth, OpenView, Sequoia Capital and other top tier global investors, Chargeflow has embarked on a product-led growth journey. Today, we represent a tight-knit community of passionate individuals and entrepreneurs, united in our mission to revolutionize eCommerce and fight against chargeback fraud, marking us as pioneers in protecting online business revenues.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8476557
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו