רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 40 דקות
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל במרכז דרוש/ה data ENGINEER
התפקיד כולל ניהול תהליכי הסבת נתונים ממערכות המקור לבסיסי נתונים ו/או מאגרי אחסון בסביבת הענן.
הובלת תהליכי פיתוח, ניטור ובקרה על תהליכי עיבוד נתונים וניהול ממשקי עבודה מול הגורם העסקי
דרישות:
תואר ראשון במדעי המחשב / הנדסת תוכנה / תחום רלוונטי
מינימום 3 שנות ניסיון מוכח כ- data Engineer
היכרות עם כלי AWS: Glue, Lambda, EMR/Spark
היכרות עם כלי CI/CD: Jenkins / GitLab CI / GitHub Actions, Harness
אורקסטרציה: Apache Airflow (DAG design, XCom, pools)
שפות תכנות: JAVA / Python
יתרונות:
היכרות עם DB מבוססי ענן (PostgreSQL, DocumentDB, OpenSearch)
היכרות עם Apache Kafka
ניסיון בKubernetes / EKS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355779
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בComblack
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת   data Engineert לחברה פיננסית באזור השרון!
דרישות:
5+ שנות ניסיון בפיתוח פתרונות דאטה חובה
שליטה ב- Python חובה
ניסיון בעבודה עם בסיסי נתונים (SQL) חובה
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8520161
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בOne DatAI
סוג משרה: משרה מלאה
יישום והטמעה של פתרונות BI אנליטיים אצל לקוחות

ניתוח תהליכים עסקיים ופיננסיים ואופטימיזציה של תהליכי אנליזה קיימים

אפיון דרישות עסקיות ותרגומן לתוצרים אנליטיים

עבודה שוטפת מול גורמים עסקיים, כספים וטכנולוגיה

עבודה בסביבת Agile ובממשקים מרובים
דרישות:
ניסיון של לפחות שנתיים כאנליסט/ית פיננסי, BI / כלכלן/ית / מפתח/ת BI

ניסיון בעבודה מול לקוחות ובחברות גדולות

חשיבה אנליטית גבוהה וראייה תהליכית

יכולת אפיון והמרת דרישות עסקיות לתוצרים אנליטיים

ניסיון בסיסי בעבודה עם SQL

שליטה מעולה ב-Excel

אנגלית ברמה גבוהה מאוד

היכרות מעמיקה עם תהליכים פיננסיים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8449315
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.

תחומי אחריות:

פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL) חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים

מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות
גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355699
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 3 שעות
דרושים במונסייט
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
לחברת ביטוח מובילה במרכז דרוש/ה מפתח/ת אינפורמטיקה

פיתוח ותחזוקת תהליכי ETL
תכנון, פיתוח ותחזוקה של תהליכי גזירת נתונים, טרנספורמציות וטעינה ( ETL ) בסביבת Informatica PowerCenter.
פיתוח תהליכי אינטגרציה מתקדמים ב Informatica IICS, כולל חיבוריות למערכות On Prem ולענן.
תכנון data Pipelines מורכבים ל DWH ול data Lakes תוך הקפדה על ביצועים, יציבות ועמידות.
עבודה מול מערכות וממשקים מגוונים
חיבור למגוון רחב של מקורות מידע ארגוניים - מערכות תפעוליות, אפליקטיביות, לוגים, APIs ועוד.
שיתוף פעולה עם צוותי תשתיות, סיסטם, אבטחת מידע ופיתוח ליצירת פתרונות של end to end.
אחריות מקצועית בתהליכי BI ו data
הבנה מעמיקה של מודלים נתוניים, טבלאות, מידול לוגי ופיזי.
תמיכה בתחקור נתונים, איתור תקלות ופעילות כחלק ממעגל האיכות של תחום הנתונים.
שדרוג ושיפור מתמיד של תהליכים קיימים - אופטימיזציות, refactoring והטמעת Best Practices.
דרישות:
לפחות 4 שנים ניסיון מעשי בפיתוח ETL באמצעות Informatica PowerCenter בסביבת DWH ארגוני
ניסיון בעבודה עם מבני נתונים מורכבים, שאילתות SQL ברמה גבוהה, אופטימיזציה ו Performance Tuning.
ניסיון בעבודה עם בסיסי נתונים רלציונייםOracle, SQL server, Teradata
דרישות שהמהוות יתרון משמעותי
ניסיון בעבודה עם Informatica IICS
היכרות עם סביבות ענן (AWS / Azure / GCP) ו data Lakes המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8522982
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים בG-NESS
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
אנחנו, חברה פיננסית מובילה, מחפשים data Engineer סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעולם העסקי, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
תחומי אחריות-
פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
הכרות עם DBT ותהליכי פיתוח מודרניים (CICD וכו)
דרישות:
5 שנות ניסיון שנים בפיתוח פתרונות דאטה - חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL)- חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים
אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות וגמישות מחשבתית, ראש גדול ויכולת פתרון בעיות מורכבות
ניסיון מחברת ביטוח או פיננסים- יתרון
שליטה ב Informatica- יתרון.
ניסיון עם ענן AWS / MICROSOFT- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519056
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 4 שעות
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בNishapro
סוג משרה: משרה מלאה
דרוש/ה טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -

בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה - חובה.

שליטה ב- Python - חובה.

ניסיון בעבודה עם בסיסי נתונים (SQL) - חובה.

הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים


מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית

יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות

גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519703
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים ביערה פיינר-אבחון והשמה
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה יזמית יזמית ציבורית גלובלית דרוש/ה
אנליסט/ית דאטה לצוות האנליטיקה ומערכת ניהול האנרגיה (EMS).

מיקום: מרכז הארץ

ה-EMS מהווה את המוח התפעולי של אתרי החברה אחראי על אופן ייצור האנרגיה, אגירתה, מסחר והזרמה לרשת. התפקיד כולל עבודה אנליטית שמשפיעה באופן ישיר על ביצועים, יציבות והכנסות הפרויקטים.

תחומי אחריות:
ניתוח נתונים תפעוליים ונתוני שוק לזיהוי פערי ביצועים, חוסר יעילות והזדמנויות לאופטימיזציה.
חקירת שורש חריגות בייצור, זמינות והכנסות, והפקת תובנות והמלצות אופרטיביות.
אחריות מקצה לקצה על דוחות, דשבורדים ותהליכי אוטומציה של נתונים ממערכות EMS, SCADA ומקורות חיצוניים.
תמיכה ושיפור תהליכי קבלת החלטות במערכת EMS להגדלת יעילות, יציבות ותפוקת אנרגיה.
יישום, מעקב וניטור אופטימיזציה תוךיומית (Intraday) לצורך מקסום הכנסות.
עבודה שוטפת מול צוותי הנדסה, תפעול ומסחר להטמעת תובנות אנלטיות בשטח
דרישות:
תואר ראשון בהנדסה / מדעי הנתונים / תחום כמותי רלוונטי בוגרי טכניון/ת"א עם התמחות במערכות מידע
ניסיון של 2-3 שנים כ- data Analyst / BI Analyst.
שליטה גבוהה בפיתוח- Python ו-SQL (יתרון ל- SQL server ).
ניסיון בעבודה עם כלי BI כגון Power BI או Tableau.
היכרות עם APIs, אוטומציות וData Pipelines.
חשיבה אנליטית חזקה, ירידה לפרטים ותחושת בעלות.
יכולת עבודה עצמאית ובממשקים מרובים, כישורי תקשורת מצוינים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8459515
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה
דרוש/ה Senior data engineer עבור חברת SaaS נהדרת בתל אביב.
במסגרת התפקיד: עבודה בתור data engineer בצוות, סיוע בהובלה מקצועית
מדי פעם, עבודה מרובה ב- Python יחד עם כלי data חדישים וכן נכונות מדי פעם
לכתוב קוד ב- JAVA ו -Scala.
דרישות:
תואר ראשון טכנולוגי - חובה
7 שנות ניסיון בתחום
רקע של 3 שנות ניסיון לפחות בעבודה מול חברת SaaS
ניסיון של 4 שנים לפחות ב- Python
נכונות לשלב עבודבה ב- JAVA ו-Scala
רקע מעמיק בכלי data חדישים
אנגלית מעולה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8532987
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 5 שעות
דרושים בפרוסיד
מיקום המשרה: מספר מקומות
תיאור התפקיד:
הובלה, ניהול והנחיה של צוות מפתחי תוכנה ודאטה, תוך טיפוח מצוינות מקצועית וצמיחה אישית
שילוב Hands-on בפיתוח, Code Reviews וקבלת החלטות ארכיטקטוניות
תכנון, פיתוח ותחזוקה של שירותי תשתית נתונים סקיילביליים, אמינים ובטוחים
הובלת פרויקטים טכנולוגיים מורכבים מקצה לקצה
עבודה שוטפת עם Product Owners, ארכיטקטים וגורמים עסקיים להגדרת Roadmap טכנולוגי
קידום תרבות של חדשנות, שיפור מתמיד ואימוץ טכנולוגיות חדשות
אחריות על זמינות, ביצועים ו-Observability של מערכות הנתונים
זיהוי ופתרון תקלות מערכתיות מורכבות
ניהול תהליכי פיתוח, שגרות צוות, פגישות אישיות והערכות ביצועים
דרישות:
דרישות:
ניסיון של לפחות שנתיים בהובלה וניהול צוותי פיתוח תוכנה -חובה
בפיתוח מערכות נתונים מבוזרות בקנה מידה גדול ( data Engineering)- חובה
ניסיון בעיצוב ארכיטקטורת נתונים ועבודה עם בסיסי נתונים SQL ו-NoSQL- חובה
ניסיון מוכח בהטמעת פתרונות Observability - Metrics, Logging, Distributed Tracing- חובה
היכרות עם data Governance: איכות נתונים, Lineage, אבטחה ועמידה ברגולציה- חובה
ניסיון Hands-on עם DBT / Apache Spark / Kafka- חובה
ניסיון בעבודה עם CI/CD וכלי Infrastructure as Code (IaC)- חובה
היכרות עם Machine Learning Workflows ו-MLOps- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8506845
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בTechTalent
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק מצוינת בתל אביב דרוש/ה data engineer מנוסה.
כחלק מהתפקיד, עבודה במקביל למספר צוותי פיתוח, צוות מגוון ואיכותי,
עבודה שתכלול הרבה מאוד פיתוח Python בשילוב טכנולוגיות דאטה מתקדמות
וכן עבודה מרובה מול מגוון בסיסי נתונים.
דרישות:
תואר ראשון טכנולוגי
רקע מפיתוח backend - יתרון אך לא חובה
ניסיון רב בפיתוח Python - חובה
ניסיון מעשי בתור data engineer - חובה
רקע בעבודה בטכנולוגיות data
אנגלית טובה מאוד
רמה אישית גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525179
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים במלם תים
מיקום המשרה: פתח תקווה
דרוש/ה data Engineer להצטרפות לצוות דאטה מקצועי בחברה גדולה ומוכרת!
העבודה בסביבה טכנולוגית דינמית ומתקדמת, כחלק מצוות דאטה מוביל, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
במסגרת התפקיד עוסקים בפיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים, עבודה עם תשתיות דאטה, כלי ETL ותהליכי אינטגרציה וניקוי נתונים, וכן שיתוף פעולה שוטף עם אנליסטים, אנשי מוצר וגורמים עסקיים.
בנוסף, התפקיד כולל ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים, לצד חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
דרישות:
- ניסיון של 5+ שנים בפיתוח פתרונות דאטה
- שליטה ב- Python
- ניסיון בעבודה עם בסיסי נתונים ו-SQL
- הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8533697
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בלוגיקה IT
מיקום המשרה: פתח תקווה
לארגון גדול בפתח תקוה דרוש/ה  data Engineer
משרה מלאה, יום בשבוע מהבית 

התפקיד כולל פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.

עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.

שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.

חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.

ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.

הכרות עם DBT ותהליכי פיתוח מודרניים (CICD וכו)
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה - חובה.

שליטה ב- Python - חובה.

ניסיון בעבודה עם בסיסי נתונים (SQL) - חובה.

הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים

ניסיון מחברת ביטוח או פיננסים - יתרון משמעותי.

שליטה ב Informatica - יתרון.

ניסיון עם ענן AWS / MICROSOFT - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530457
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
חברת טכנולוגיה מובילה מגייסת data Engineer מנוסה בעולמות Microsoft Fabric להקמה, פיתוח ותחזוקה של פתרונות data מקצה לקצה בסביבה היברידית (On-Prem + Cloud).

התפקיד משלב data Engineering, BI ו-Analytics עם עבודה Hands-On ב- Python, Power BI ו-Power Automate.

?? תחומי אחריות

תכנון והטמעה של Lakehouse Architecture על Microsoft Fabric

בניית data Pipelines מקצה לקצה

חיבור מקורות מידע On-Prem ו-Cloud

עבודה עם Fabric data Factory ו-Notebooks

יישום Medallion Architecture (Bronze / Silver / Gold)

כתיבת Python Notebooks ( ETL / ELT, data Enrichment)

הכנת נתונים לאנליטיקה ו-AI

עבודה עם Power BI :

Semantic Models

DAX

Power Query

אופטימיזציית ביצועים

שימוש ב-Power Automate לאוטומציות, טריגרים והתראות

הקמת On-Premises data Gateway

ניטור תהליכים ויציבות מערכות

תיעוד תהליכים ו-Best Practices

עבודה שוטפת מול גורמי Business ו-Stake
דרישות:
דרישות חובה

לפחות 3 שנות ניסיון כ- data Engineer או BI Developer מתקדם

ניסיון מעשי מוכח עם Microsoft Fabric

ניסיון בהובלת תהליכי data מקצה לקצה

שליטה גבוהה ב-SQL

ניסיון ב- Python (Notebooks, Pandas)

ניסיון חובה ב-Power BI (DAX, Power Query, Semantic Models)

ניסיון ב-Power Automate

ניסיון ב- ETL / ELT

הבנה מעמיקה ב- data Warehouse ו-Lakehouse Architecture

ניסיון בעבודה עם Git / Azure DevOps

? יתרון משמעותי

ניסיון עם Apache Spark / PySpark

ניסיון עם Azure Synapse או Databricks

עבודה עם Streaming / EventHub

פרויקטי Greenfield

ניסיון בהכנת נתונים ל-AI / Copilot

CI/CD ל- data Pipelines

היכרות עם תחום Energy / Utilities / SCADA

?? ניסיון ב-Spark אינו חובה אך ייחשב כיתרון משמעותי.

?? מאפיינים אישיים

עצמאי/ת, יוזם/ת ו-Hands-On

יכולת עבודה בצוות ובאופן עצמאי

תקשורת מצוינת בעברית ובאנגלית

סדר, אחריות ועמידה ביעדים

?? סביבת עבודה טכנולוגית מתקדמת
?? עבודה על מערכות data מורכבותת המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530078
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
27/01/2026
Location: Petah Tikva
Job Type: Full Time
We are seeking a Data Architect to lead the design of end-to-end, enterprise data architectures that enable analytics, AI, and data-driven transformation across customer environments.
In this role, you will act as a trusted advisor, defining the architectural vision, target-state designs, and roadmaps for IBM data solutions. You will work closely with customers, sales manager, and presale engineers to translate business needs into scalable, secure, and future-ready data platforms across hybrid and multi-cloud environments.
Responsibilities:
Define data architecture vision, target-state, and roadmaps for customer environments
Design enterprise-scale architectures for data warehouses, data lakes, lakehouse, and streaming platforms
Architect data platforms to support analytics, AI, and generative AI use cases
Act as a trusted advisor to customers on data modernization, governance, and AI readiness
Ensure architectures align with security, governance, and regulatory requirements
Guide implementation teams to ensure adherence to architectural standards
Collaborate with Consulting, Sales, and Delivery teams on solution design and proposals
Contribute to IBM reference architectures, standards, and reusable patterns
Requirements:
Bachelor's Degree
Preferred education
Master's Degree
Required technical and professional expertise
Proven experience as a Data Architect in enterprise environments
Strong knowledge of modern data architecture patterns and data modeling
Experience with hybrid and multi-cloud architectures (OCP, GCP, AWS, Azure)
Understanding of data governance, security, and compliance
Ability to design data platforms supporting AI and analytics workloads
Strong communication and stakeholder management skills
Preferred technical and professional experience
Experience with any of CassandraDB, Watsonx.data, Watsonx.data Integration, Watsonx.data Intelligence
Familiarity with OpenShift-based data platforms
Knowledge of data mesh, data fabric, and generative AI architectures
Experience in large-scale data modernization or transformation programs
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519806
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
מה יומכם יכלול-
פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
הכרות עם DBT ותהליכי פיתוח מודרניים (CICD וכו). המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519330
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/01/2026
Location: Petah Tikva
Job Type: Full Time
Our team is responsible for the data and data infrastructure that processes billions of records daily, driving critical business insights for both internal and external customers across the organization.
Our Data team consists of highly skilled senior software and data professionals who collaborate to solve complex data challenges. We process billions of records daily from multiple sources using diverse infra and multi-stage pipelines with intricate data structures and advanced queries, and complex BI.
A bit about our infrastructure. Our main databases are Snowflake, Iceberg on AWS, and Trino. Spark on EMR processes the huge influx of data. Airflow does most of the ETL.
The data we deliver drives insights both for internal and external customers. Our internal customers use it routinely for decision-making across the organization, such enhancing our product offerings.
What Youll Do
Build, maintain, and optimize data infrastructure.
Contribute to the evolution of our AWS-based infrastructure.
Work with database technologies - Snowflake, Iceberg, Trino, Athena, and Glue.
Utilize Airflow, Spark, Kubernetes, ArgoCD and AWS.
Provide AI tools to ease data access for our customers.
Integrate external tools such as for anomaly detection or data sources ingestion.
Use AI to accelerate your development.
Assures the quality of the infra by employed QA automation methods.
Requirements:
5+ years of experience as a Data Engineer, or Backend Developer.
Experience with Big Data and cloud-based environments, preferably AWS.
Experience with Spark and Airflow.
Experience with Snowflake, Databrick, BigQuery or Iceberg.
Strong development experience in Python.
Knowledge of Scala for Spark is a plus.
A team player that care about the team, the service, and his customers
Strong analytical skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8514322
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/01/2026
Location: Petah Tikva
Job Type: Full Time
We are seeking a seasoned and execution driven VP, head of data platform to lead all the R&D tracks of the Data and Analytics organization in our company. This role focuses on leading a complex data engineering organization at scale, driving delivery, operational excellence and cross-company enablement through world-class data platforms and tools.
This leader will serve as the engineering owner of our data platform, managing multiple data infra, data engineering and BI development teams, overseeing extensive resources, and ensuring the delivery of high-quality, scalable, and reliable data products and services. This position requires a strong technical background combined with exceptional leadership, strategic thinking, and cross-functional collaboration skills.
He will also act as a key stakeholder in defining the architecture and strategic direction of our data infrastructure, pipelines, AI/ML infra and platforms to support the company's rapid growth and evolving business needs.
Hybrid
Full-time
What youll do: 
Lead and manage the entire data platform, including:
Real-Time Data & Streaming Infrastructure: Introduce and engineer robust data streaming infrastructures (e.g., using Kafka, Pub/Sub, Dataflow) to enable near-real-time data ingestion and scalable low-latency data serving, unlocking advanced analytics and critical use cases.
Data engineering teams responsible for the data ingestion, transformation and delivery pipelines
BI infra and development teams owning the cross-company consumption layer, including BI tools, BI data layers and dashboards
Serve as the operational and delivery lead across the data platform, ensuring strong project execution, roadmap alignment and measurable business impact
Data Engineering & Architecture Oversight: Lead the design, development, and evolution of scalable data platforms, encompassing data lakes, data warehouses, and advanced data products, ensuring they meet performance, reliability, and business requirements.
Operational Excellence & Reliability: Establish and drive engineering operational excellence processes across data engineering, significantly improving data quality, availability, and system reliability. Implement frameworks for proactive monitoring, alerting, and incident management, reducing major incidents and ensuring continuous visibility into data flows.
Advanced Data Observability: Integrate and leverage cutting-edge data observability solutions (e.g., Monte Carlo) to provide comprehensive visibility into data pipelines, enabling proactive detection and resolution of anomalies.
Cross-functional Collaboration & Stakeholder Management: Collaborate extensively with product, analytics, business, and infrastructure teams to align data strategies with overarching business priorities, ensuring the delivery of high-quality data products that meet diverse user needs.
Innovation & Technology Adoption: Stay abreast of the latest data, cloud, and AI trends, driving the evaluation and adoption of modern cloud-native technologies to continuously improve platform capabilities and future-proof the ecosystem.
Leadership & Team Growth: Lead, mentor, and grow a large team of data engineers, fostering a culture of technical excellence, continuous learning, and agile methodologies. Oversee budget management and drive talent development within the team.
Data Governance & Quality: Oversee the implementation of standards for data quality, data integrity tools, governance, privacy, and regulatory compliance across the data ecosystem.
Requirements:
Extensive Experience: 15+ years of progressive experience in the software industry, with a significant portion in data engineering, data platform design, and leadership roles.
5+ in senior R&D or VP-level roles, managing large cross-functional teams. Proven experience in leading and managing large engineering teams (e.g., 30-40+ engineers) and overseeing large budgets.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8499601
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Petah Tikva
Job Type: Full Time
We are looking for a Senior Data Engineer to build and operate a multi-tenant analytics platform on AWS + Kubernetes (EKS), delivering streaming and batch pipelines via GitOps as a Platform-as-a-Service (PaaS).
Responsibilities:
Ingestion pipelines: Build and operate Flink / Spark streaming and batch jobs ingesting from Kafka, S3, APIs, and RDBMS into OpenSearch and other data stores.
Platform delivery: Provide reusable, multi-tenant pipelines as a self-service PaaS.
Workflow orchestration: Manage pipeline runs using Argo Workflows.
GitOps delivery: Deploy and operate pipelines via ArgoCD across environments.
IaC & AWS: Provision infrastructure with Terraform and secure access using IAM / IRSA.
Reliability: Own monitoring, stability, and troubleshooting of production pipelines.
Collaboration: Work with product, analytics, and infra on schemas and data contracts.
Requirements:
Software skills: Senior-level, hands-on data engineering experience building and operating production systems with ownership of reliability and scale.
Processing: Strong experience with Flink and Spark (streaming + batch).
Data sources & sinks: Experience integrating with Kafka, S3, REST APIs, and RDBMS, and publishing to OpenSearch / Elasticsearch, data warehouses, or NoSQL databases.
Big Data: Familiarity with big-data systems; Iceberg / PyIceberg a plus.
Cloud & DevOps: Hands-on experience with EKS, RBAC, ArgoCD, and Terraform for infrastructure and delivery workflows.
Datastores: Hands-on experience with OpenSearch / Elasticsearch including indexing strategies, templates/mappings, and operational troubleshooting.
AI tools: Experience with AI-assisted development tools. (e.g., CursorAI, GitHub Copilot, or similar).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8490223
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Petah Tikva
Job Type: Full Time
Were looking for a highly skilled and motivated Data Engineer to join the Resolve (formerly DevOcean) team .
In this role, youll be responsible for designing, building, and optimizing the data infrastructure that powers our SaaS platform.
Youll play a key role in shaping a cost-efficient and scalable data architecture while building robust data pipelines that serve analytics, search, and reporting needs across the organization.
Youll work closely with our backend, product, and analytics teams to ensure our data layer remains fast, reliable, and future-proof. This is an opportunity to influence the evolution of our data strategy and help scale a cybersecurity platform that processes millions of findings across complex customer environments
Roles and Responsibilities:
Design, implement, and maintain data pipelines to support ingestion, transformation, and analytics workloads.
Collaborate with engineers to optimize MongoDB data models and identify opportunities for offloading workloads to analytical stores (ClickHouse, DuckDB, etc.).
Build scalable ETL/ELT workflows to consolidate and enrich data from multiple sources.
Develop data services and APIs that enable efficient querying and aggregation across large multi-tenant datasets.
Partner with backend and product teams to define data retention, indexing, and partitioning strategies to reduce cost and improve performance.
Ensure data quality, consistency, and observability through validation, monitoring, and automated testing.
Contribute to architectural discussions and help define the long-term data platform vision.
Requirements:
8+ years of experience as a Data Engineer or Backend Engineer working in a SaaS or data-intensive environment.
Strong proficiency in Python and experience with data processing frameworks (e.g., Pandas, PySpark, Airflow, or equivalent).
Deep understanding of data modeling and query optimization in NoSQL and SQL databases (MongoDB, PostgreSQL, etc.).
Hands-on experience building ETL/ELT pipelines and integrating multiple data sources.
Familiarity with OTF technologies and analytical databases such as ClickHouse, DuckDB and their role in cost-efficient analytics.
Experience working in cloud environments (AWS preferred) and using native data services (e.g., Lambda, S3, Glue, Athena).
Strong understanding of data performance, storage optimization, and scalability best practices.
Excellent problem-solving skills and a proactive approach to performance and cost optimization.
Strong collaboration and communication abilities within cross-functional teams.
Passion for continuous learning and exploring modern data architectures.
Nice to Have:
Experience with streaming or CDC pipelines (e.g., Kafka, Debezium).
Familiarity with cloud security best practices and data governance.
Exposure to multi-tenant SaaS architectures and large-scale telemetry data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8486352
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
01/01/2026
Location: Petah Tikva
Job Type: Full Time
We are seeking a Senior Backend & Data Engineer to join its SaaS Data Platform team.
This role offers a unique opportunity to design and build large-scale, high-performance data platforms and backend services that power our cloud-based products.
You will own features end to end-from architecture and design through development and production deployment-while working closely with Data Science, Machine Learning, DevOps, and Product teams.
Key Responsibilities:
Design, develop, and maintain scalable, secure backend services and data platforms on AWS
Build and operate batch and streaming ETL/ELT pipelines using Spark, Glue, Athena, Iceberg, Lambda, and EKS
Develop backend components and data processing workflows in a cloud-native environment
Optimize performance, reliability, and observability of data pipelines and backend services
Collaborate with ML, backend, DevOps, and product teams to deliver data-driven solutions
Lead best practices in code quality, architecture, and technical excellence
Ensure security, compliance, and auditability using AWS best practices (IAM, encryption, auditing).
Requirements:
8+ years of experience in Data Engineering and/or Backend Development in AWS-based, cloud-native environments
Strong hands-on experience writing Spark jobs (PySpark) and running workloads on EMR and/or Glue
Proven ability to design and implement scalable backend services and data pipelines
Deep understanding of data modeling, data quality, pipeline optimization, and distributed systems
Experience with Infrastructure as Code and automated deployment of data infrastructure
Strong debugging, testing, and performance-tuning skills in agile environments
High level of ownership, curiosity, and problem-solving mindset.
Nice to Have:
AWS certifications (Solutions Architect, Data Engineer)
Experience with ML pipelines or AI-driven analytics
Familiarity with data governance, self-service data platforms, or data mesh architectures
Experience with PostgreSQL, DynamoDB, MongoDB
Experience building or consuming high-scale APIs
Background in multi-threaded or distributed system development
Domain experience in cybersecurity, law enforcement, or other regulated industries.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8482582
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן -22 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >