רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: ראשון לציון
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת DBA תשתיתי/ת לארגון מוביל בשפלה!
תפקיד מאתגר בצוות DBA מתקדם, עבודה עם טכנולוגיות data חדשות והשפעה על תשתיות ליבה בארגון.
דרישות:
6+ שנות ניסיון כ- Oracle DBA
ניסיון עם Oracle / SQL server / MySQL / MongoDB / Cloudera
תמיכה בצוותי פיתוח, תחקור תקלות ושיפור ביצועים
תכנון תשתיות, זמינות, שרידות ואוטומציה
תואר רלוונטי / הכשרה צבאית
יתרון: Exadata, RAC, היכרות עם יותר ממסד נתונים אחד, Terraform/Ansible, עבודה בסביבות מורכבות. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8496500
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באלעד מערכות
מיקום המשרה: בני ברק
אלעד מערכות מגייסת Head of data לארגון פיננסי מוביל!
אחריות כוללת על ניהול, פיתוח והובלה של תחום הדאטה בארגון, כולל data Engineering, data Platforms ו- BI.
התפקיד כולל הובלת צוות רב-תחומי, בניית אסטרטגיית דאטה ארגונית, והקמה ותחזוקה של תשתיות מודרניות כגון data Lake, DWH ו-Lakehouse.
עבודה מול הנהלה וצוותים עסקיים וטכנולוגיים, אחריות על פיתוח ופריסה של תהליכי ETL /ELT וסטרימינג בזמן אמת, הקמת תשתיות בענן (AWS/Azure), הובלת אסטרטגיית BI (Tableau, semantic models), ויצירת ערך עסקי באמצעות אנליטיקה.
בנוסף, ניהול ממשל נתונים, ניטור, SLA, אבטחת מידע ושיתופי פעולה עם DevOps ויחידת ה-AI.
דרישות:
דרישות תפקיד
ניסיון של 5+ שנים בתחומי data / BI / data Engineering
ניסיון מוכח בניהול צוותים טכנולוגיים
היכרות עמוקה עם ארכיטקטורות דאטה מודרניות: DWH, data Lake, Lakehouse
ניסיון בענן: AWS/Azure כולל הרשאות, אבטחה ו-cost optimization
ניסיון עם Snowflake / Tableau / BigQuery / DBT או מקבילים
שליטה ב-SQL ברמה גבוהה
ניסיון בהובלת data Governance
יכולת ניהול פרויקטים וממשקים מרובים בארגון גדול
ניסיון מארגון פיננסי/רגולטורי - יתרון
ניסיון ב- Python לעולמות data Engineering/ Machine Learning - יתרון
ניסיון עם כלים מתקדמים ל-ML ו-AI Generative - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8451290
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באוקטאלי אינטגרציה בע"מ
מיקום המשרה: תל אביב יפו
דרוש.ה מפתח.ת JAVA מנוסה
רוצה לעבוד על פרויקט טכנולוגי מתקדם עם השפעה אמיתית?
אם Big Data, Streaming וScale גבוה עושים לך חשק- זו ההזדמנות שלך!

מה עושים בפועל?
פיתוח מערכות לניהול תהליכי data Governance וETL בScale גבוה.
פיתוח תהליכי Real-Time data Streaming בסביבות מורכבות.
עבודה עם טכנולוגיות מתקדמות בסביבת Agile/Scrum.
שיתוף פעולה בצוות מקצועי, לצד אחריות אישית גבוהה.
כתיבת קוד איכותי בJava עם Spring, עבודה מול APIs ותשתיות מורכבות.
דרישות:
דרישות חובה:
לפחות 5 שנות ניסיון בפיתוח JAVA בצד שרת.
ניסיון בפיתוח מערכות מורכבות.
יכולת עבודה עצמאית, ראש גדול ומחויבות.
נכונות לעבודה במשרה מלאה במקום ביטחוני (כולל תהליך סיווג).

יתרונות שמייחדים אותך:
ניסיון עם Spring, Kafka, RabbitMQ, Postgres, MongoDB.
היכרות עם Kubernetes (K8S) וDocker.
ניסיון בעיבוד זרימה עם Flink.
ידע בPython / Bash.
ניסיון בעבודה במתודולוגיית Agile/Scrum.

מה אנחנו מציעים
פרויקט טכנולוגי מתקדם עם השפעה אמיתית.
עבודה בסביבה חדשנית עם טכנולוגיות Big Data.
צוות מקצועי, שיתוף פעולה ואחריות אישית.
משרה מלאה + קו רכב מתחנת אוניברסיטת תל אביב.
אופק מקצועי והזדמנות לצמיחה.

תנסו, מקסימום תצליחו! מחכים לקורות חיים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8489016
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים במלם תים
סוג משרה: משרה מלאה
חברת- Malam- Team, מגייסת אנליסט/ית למחלקה הכלכלית. 
מדובר בתפקיד התחלתי עם אופק קידומי. 
התפקיד כולל:  ניהול P L של תחום הפעילות, מעקב אחר היקפי לקוחות, היקפי חשבונות, היקפי לקוחות פעילים, ניתוח פעילות ממוצעת של לקוח.
חישובי רווחיות של תחום הפעילות, חישוב ובקרת התחשבנות מול ספקים, בניית דשבורדים ב- BI  
בניית דוחות לפי דרישה.
דרישות:
- תואר ראשון בכלכלה / מנע"ס - חובה.
- מתאים כתפקיד ראשון לאחר סיום התואר.
- ניסיון קודם בתפקיד אנליסט/ית ממוסד פיננסי - יתרון.
- ידע וניסיון בעבודה עם מערכת BI - חובה.
- שליטה מלאה באקסל ופאוור פוינט.
- יכולת אנליטית גבוהה
- יכולת עבודה ולמידה עצמאית לצד עבודה בצוות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8478186
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
משרת DBA לחברת Fintech מבוססת המפתחת טכנולוגיות מסחר פיננסי מתקדמות, מהירות ובעלות ביצועים גבוהים, עבור גופים פיננסיים מובילים ברחבי העולם.
דרישות:
5 שנות ניסיון כ- DBA
ניסיון עם MySQL
ניסיון מעשי עם מערכות DBA, אבטחה, אופטימיזציה, גיבוי וכו'.
ניסיון מעשי בתכנון, בדיקות ותחזוקה של מסדי נתונים.
ניהול עצמי, יכול לעבוד כ- DBA יחיד בארגון.
ניסיון עם שפת סקריפטים - Python, Bash. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8501557
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בלוגיקה IT
מיקום המשרה: ראשון לציון
אנליסט SOC  
ראשון לציון - במתחם האלף, קמפוס חדשני, צעיר ומגניב
קרוב לרכבת משה דיין
עבודה בצוות, משרה מלאה 5 משמרות בשבוע, כולל סופ"ש, חגים. 
עובד לוגיקה IT


תיאור התפקיד
תפעול מערכות ניטור ובקרה מתקדמות
 קיום ממשקי עבודה מול עובדי הבנק ומול לקוחות שחוו אירוע סייבר. 
עבודה במשמרות במוקד המאויש בכל שעות היממה
זיהוי ומענה ראשוני לתקיפות סייבר כנגד הבנק
עבודה על מע' SPLUNK+DEMSTO
ביצוע משימות ניטור ובקרה אחר מערכות הבנק ע"מ לזהות אירועי אבטחת מידע וסייבר ולשפר את אופן ההגנה
דרישות:
ניסיון כסוק אנליסט לפחות שנה וחצי - חובה 
ניסיון עבודה עם מערכת SPLUNK / Big Data  
 ניסיון עבודה עם מערכת SOAR  - יתרון 
קורסים משמעותיים בעולם אבטחת מידע המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8471419
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בפרוסיד
סוג משרה: משרה מלאה
Proceed מגייסת   BI Developer (Looker Focused)

במסגרת התפקיד:
פיתוח ותחזוקה של דשבורדים ופתרונות BI עבור לקוחות החברה.
עבודה בסביבת ענן (GCP) וכניסה מיידית לפרויקט המבוסס על Looker.
כתיבת קוד LookML, בניית מודלים וניהול שכבת הנתונים ב-Looker.
עבודה מול אפיונים עסקיים ותרגומם לפתרונות ויזואליים ודוחות.
כתיבת שאילתות SQL וטיוב נתונים לצורך הצגה בדשבורדים.

מה אנחנו מציעים:
הזדמנות לקחת חלק בצוות הליבה של תחום הדאטה וה AI בפרוסיד ולהשפיע ישירות על אסטרטגיית החברה.
עבודה עם לקוחות אסטרטגיים מהמובילים במשק בתחומי פיננסים, ממשלה, ביטחון ובריאות.
סביבת עבודה טכנולוגית מתקדמת, מבוססת ענן, עם חשיפה לכלים החדשניים ביותר בעולם הדאטה.
תרבות עבודה יזמית, שיתופית ודינמית מקום לצמיחה אישית ומקצועית אמיתית.
דרישות:
ניסיון של שנתיים ומעלה כמפתח/ת BI - חובה.
שליטה מלאה וניסיון מעשי ב-Looker (כולל LookML) - חובה.
שליטה טובה מאוד ב-SQL חובה.
ניסיון בעבודה בסביבת ענן  (GCP / AWS / Azure) חובה (יתרון לGCP)
הבנה טובה במודלים של דאטה (כגון  Star Schema)
יכולת עבודה עצמאית ותקשורת בין-אישית טובה לעבודה מול צוותים ולקוחות.
אנגלית טכנית ברמה טובה.
יתרונות:
היכרות עם כלי BI נוספים  (quicksight / Tableau) יתרון גדול לגיוון בין כלים
תואר אקדמי רלוונטי.
היכרות עם   Python. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8442736
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים בקבוצת נישה
סוג משרה: משרה מלאה
- אפיון וניתוח צרכים עסקיים ופתרונות BI בחטיבות שונות בחברה

- פיתוח מודלים חדשים ותחזוקת מודלים קיימים בחברה

- עבודה מול גורמים בכירים בקבוצה
דרישות:
- כשנתיים ניסיון ב Qliksense

- הבנת תהליכי ETL

- ניסיון בעבודה עם salesforce - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8493117
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים בSQLink
ארגון ציבורי ממשלתי במרכז הארץ מגייס מנהל /ת מסדי נתונים ( ( DBA ) )
התפקיד כולל: ניהול, תחזוקה ופיתוח של תשתיות מסדי נתונים ארגוניות, תכנון מודלי נתונים ועיצוב בסיסי נתונים, הבטחת זמינות, שרידות ואבטחת מידע, ייעוץ וליווי מפתחי מערכות, טיפול בתקלות מורכבות, ביצוע אופטימיזציית ביצועים בסביבות מרובות משתמשים ועוד.
דרישות:
- 4 שנות ניסיון בניהול בסיסי נתונים בסביבת Enterprise
- ניסיון בעבודה עם SQL server, כולל התקנות, גיבויים ו-DR
- ניסיון ב-High Availability, כולל Always On, Clustering ו-Replication
- ניסיון בביצוע Performance Tuning, ניתוח ואופטימיזציית שאילתות, אינדקסים ושימוש בכלי ניטור וביצועים
- ניסיון בעבודה עם שירותי DB בענן כגון: AWS, Azure, GCP וסביבות וירטואליזציה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8492791
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
It starts with you - an engineer driven to build modern, real-time data platforms that help teams move faster with trust. You care about great service, performance, and cost. Youll architect and ship a top-of-the-line open streaming data lake/lakehouse and data stack, turning massive threat signals into intuitive, self-serve data and fast retrieval for humans and AI agents - powering a unified foundation for AI-driven mission-critical workflows across cloud and on-prem.
If you want to make a meaningful impact, join mission and build best-in-class data systems that move the world forward - this role is for you.
:Responsibilities
Build self-serve platform surfaces (APIs, specs, CLI/UI) for streaming and batch pipelines with correctness, safe replay/backfills, and CDC.
Run the open data lake/lakehouse across cloud and on-prem; enable schema evolution and time travel; tune partitioning and compaction to balance latency, freshness, and cost.
Provide serving and storage across real-time OLAP, OLTP, document engines, and vector databases.
Own the data layer for AI - trusted datasets for training and inference, feature and embedding storage, RAG-ready collections, and foundational building blocks that accelerate AI development across the organization.
Enable AI-native capabilities - support agentic pipelines, self-tuning processes, and secure sandboxing for model experimentation and deployment.
Make catalog, lineage, observability, and governance first-class - with clear ownership, freshness SLAs, and access controls.
Improve performance and cost by tuning runtimes and I/O, profiling bottlenecks, planning capacity, and keeping spend predictable.
Ship paved-road tooling - shared libraries, templates, CI/CD, IaC, and runbooks - while collaborating across AI, ML, Data Science, Engineering, Product, and DevOps. Own architecture, documentation, and operations end-to-end.
Requirements:
6+ years in software engineering, data engineering, platform engineering, or distributed systems, with hands-on experience building and operating data infrastructure at scale.
Streaming & ingestion - Technologies like Flink, Structured Streaming, Kafka, Debezium, Spark, dbt, Airflow/Dagster
Open data lake/lakehouse - Table formats like Iceberg, Delta, or Hudi; columnar formats; partitioning, compaction, schema evolution, time-travel
Serving & retrieval - OLAP engines like ClickHouse or Trino; vector databases like Milvus, Qdrant, or LanceDB; low-latency stores like Redis, ScyllaDB, or DynamoDB
Databases - OLTP systems like Postgres or MySQL; document/search engines like MongoDB or ElasticSearch; serialization with Avro/Protobuf; warehouse patterns
Platform & infra - Kubernetes, AWS, Terraform or similar IaC, CI/CD, observability, incident response
Performance & cost - JVM tuning, query optimization, capacity planning, compute/storage cost modeling
Engineering craft - Java/Scala/Python, testing, secure coding, AI coding tools like Cursor, Claude Code, or Copilot
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504233
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Merkaz
Job Type: Full Time
abra professional services is seeking for an senior data engineer. We are seeking a Senior Data Engineer to lead the technical development of our Data Fabric within a military program. This role involves technical leadership in building contextual data pipelines, working with big data lakehouse architectures, and driving data pipeline automation.
Requirements:
MUST HAVE Requirements: 5+ years of hands-on experience as a Big Data Engineer
* Proven ability to design and deploy Big Data & AI solutions using frameworks and tools such as:
* Apache NiFi
* Kafka
* Spark
* Graph DB
* NoSQL databases Strong coding proficiency in Python and Bash
* Experience building large-scale data pipelines for data processing, transformation, and analytics
* Ability to define and manage metadata schemas
* Experience developing data workflows (e.g., metadata generation, auto-extraction, validation, format conversion)
* Experience developing tools for data observability and compliance analytics
* Ability to analyze and report on complex datasets and results
* Experience working with big data lakehouse architectures
* Ability to explore, enhance, and manage data fusion from multiple data sources
* Experience developing analytics tools, algorithms, and programs
* Technical leadership of data structure design for contextual pipelines
* Collaboration experience with Data Scientists and Architects
* Strong ability to work independently, learn new technologies, and apply innovative solutions
* Excellent interpersonal skills and ability to work as part of a team MSc in Computer Science or Data Science Advantages:
* Experience with managing metadata and taxonomy concepts alongside big data objects
* Experience working with public cloud Big Data & AI services
* Familiarity with machine learning concepts
* Strong technical skills
* Independent, hands-on developer
* Curious, open-minded, fast learner, and a strong team player
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8503268
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Join a core team of experts responsible for developing innovative cyber-attack techniques for Cloud-based environments (AWS, Azure, GCP, Kubernetes) that integrate into fully automated attack simulation.

This role provides the opportunity to lead end-to-end design & implementation of advanced server-side features using a wide range of technologies: Apache Spark, Apache Airflow, Scala, k8s, Node.js (JS/Typescript) with MongoDB, Redis, Kafka, Dockers and Flink (Big Data Stream Processing)
Requirements:
5+ years of experience in software development with proven ability to take full responsibility and lead advanced software projects that require team collaboration.
Capable of facing a wide range of cutting edge technologies and challenging development tasks, designing new features from scratch and diving into existing infrastructure.
2+ years experience of spark with scala/Python - Must.
Experience in server-side development with APIs, Microservices Architecture (Docker), databases, caches, queues.
Experience in delivering fully tested production-level code using CI/CD pipeline and maintaining large-scale production systems.
Highly motivated leader with a can-do approach and strong interpersonal skills that thrives in a fast-paced startup environment.
Relevant Cyber Security experience - Advantage
Experience in cloud development (AWS / Azure / GCP) - Advantage
Experience with k8s operator, spark and airflow - Big Advantage
Experience with Node.js (JS/Typescript) - Advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8496592
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Senior Data Engineer, you will play a key role in shaping and driving our analytics data pipelines and solutions to empower business insights and decisions. Collaborating with a variety of stakeholders, you will design, develop, and optimize scalable, high-performance data analytics infrastructures using modern tools and technologies. Your work will ensure data is accurate, timely, and actionable for critical decision-making.

Key Responsibilities:

Lead the design, development, and maintenance of robust data pipelines and ETL processes, handling diverse structured and unstructured data sources.
Collaborate with data analysts, data scientists, product engineers and product managers to deliver impactful data solutions.
Architect and maintain the infrastructure for ingesting, processing, and managing data in the analytics data warehouse.
Develop and optimize analytics-oriented data models to support business decision-making.
Champion data quality, consistency, and governance across the analytics layer.
Requirements:
5+ years of experience as a Data Engineer or in a similar role.
Expertise in SQL and proficiency in Python for data engineering tasks.
Proven experience designing and implementing analytics-focused data models and warehouses.
Hands-on experience with data pipelines and ETL/ELT frameworks (e.g Airflow, Luigi, AWS Glue, DBT).
Strong experience with cloud data services (e.g., AWS, GCP, Azure).
A deep passion for data and a strong analytical mindset with attention to detail.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8495847
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Architect, youll sit at the intersection of data engineering, ML systems, and platform architecture. Youll own the patterns, guardrails, and data platform capabilities that let teams ship AI-native, low-latency experiences at scale-safely, reliably, and cost-effectively.

What Youll Actually Do:

Design AI-native data systems: LLM/RAG pipelines, embeddings & vector search, and real-time inference- production-grade and observable.
Evolve the data platform: Batch + streaming + lakehouse; CDC, orchestration, lineage/quality, and clear data contracts for ML readiness.
Set org standards: Contract-first APIs & event schemas, ADRs, SLOs (latency/MTTR/cost); lead design reviews and architecture spikes.
Modernize pragmatically: Guide adoption of Databricks, Kafka, Airflow, Kubernetes, Terraform, and modern observability- fit to purpose.
Lead by influence: Mentor Tech Leads, partner with Product/ML/Platform, and turn goals into resilient, measurable systems.
Requirements:
5+ years as a Software/Data/Solution Architect in AI-intensive or data-heavy environments; ~10+ years engineering overall.
Distributed systems depth: microservices, event-driven design, backpressure/idempotency, retries/DLQs; contract-first APIs.
Data platform expertise: streaming + batch + lakehouse, CDC, orchestration, governance/lineage, schema evolution.
AI systems fluency: LLMs, embeddings, vector stores, RAG; real-time production inference.
Hands-on: Python or TypeScript/Scala; Databricks, Airflow, Kafka, Kubernetes, Terraform; Prometheus/Grafana/Coralogix.
Cloud-first (AWS preferred), security-by-design, crisp writing and collaboration.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481848
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
In this role, youll own the engineering backbone that enables our data engineers & data scientists to experiment, innovate, and deploy production-ready models, ensuring our systems are robust, scalable, and future-proof.

What You'll Actually Do:

Lead and mentor a team of Data Engineers, fostering a culture of technical excellence, accountability, and collaboration.
Define and drive the teams technical roadmap, standards, and best practices for data modeling, performance, and reliability.
Design, build, and evolve scalable embedding pipelines and recommendation infrastructure, from algorithm tuning and training workflows to production deployment.
Manage and optimize vector db, ensuring efficient indexing strategies, search performance, and low-latency retrieval.
Lead the development of retrieval services leveraging Approximate Nearest Neighbor (ANN/KNN) techniques such as HNSW, IVF, and Product Quantization (PQ).
Ensure reliability, observability, and scalability across all real-time data systems powering our recommendation engine.
Collaborate with Data Science, Product, and Analytics to operationalize models, validate KPIs, and translate technical insights into actionable product improvements.
Requirements:
3+ years of experience leading data engineering teams.
5+ years of hands-on experience developing large-scale data and ML systems, with strong foundations in distributed computing, data pipelines, and algorithm development.
Strong programming skills in Python, with practical experience using modern data and ML frameworks such as Spark, Airflow, MLflow, or equivalent technologies.
Proven experience designing and maintaining embedding pipelines, feature stores, and model-serving infrastructure.
Excellent leadership and communication skills, with a passion for mentoring engineers and driving technical excellence.
Ability to translate complex technical challenges into scalable, reliable engineering solutions.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481846
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We seek an experienced and highly skilled Senior Engineer to join our Data Platform Team. This is an exciting opportunity to work on cutting-edge technologies, drive innovation, and play a key role in designing and implementing the companys data infrastructure and architecture.
What you'll do:

Database Infrastructure Development - Design, develop, and maintain scalable and reliable self-serve database infrastructure, including PostgreSQL, MongoDB, SingleStore, and AWS Aurora.


Big Data Infrastructure Development - Design, develop, and maintain scalable and reliable self-serve big data infrastructure, including cloud-agnostic data lakehouse, distributed databases, and platform-powered data pipelines.


End-to-End Ownership - Take responsibility for the entire lifecycle of data infrastructure, from DevOps (Terraform, Kubernetes) to application-level components (infrastructure libraries, core components in data pipelines).


Architecture Leadership: Collaborate with the Architecture group to define and maintain the companys core architectural vision.


Partner with development teams, providing technical guidance, best practices, and support from the design phase to production deployment.


Innovation and Exploration - Work on diverse and impactful projects across different layers of the tech stack, exploring new technologies and approaches to improve reliability, efficiency, and scalability.
Requirements:
Extensive Experience in software engineering and data infrastructure.
Extensive Expertise in the administration of OLTP and OLAP databases.
Strong knowledge of big data frameworks, including Apache Spark, Athena, Trino, and Iceberg.
Hands-on experience with DevOps tools such as Terraform, Kubernetes, and Cloud infrastructure.
Proficiency in building and managing data pipelines and core infrastructure components.
Strong problem-solving, communication, and leadership skills, with the ability to mentor and collaborate across teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8478335
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/12/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Senior Backend Engineer, you will design, build, and scale the core backend systems that power our security platform-directly shaping the safety of millions of Web3 users. Youll work closely with a team of world-class engineers to deliver highly reliable, performant, and secure infrastructure.



Your Chain of Impact:

Lead feature development end-to-end, from requirements to production.
Build systems that protect millions of users from fraud, scams, and hacks.
Contribute across the full software development lifecycle in an agile environment.
Drive technical innovation by staying ahead of emerging technologies.
Uphold the highest standards of code quality, scalability, and performance.
Take true ownership of our product, tech stack, and development processes.
Requirements:
810 years of backend-focused engineering experience, with a proven track record of building and scaling complex systems.
Success across 23 fast-paced startup environments, demonstrating adaptability and impact.
Strong proficiency in Python for backend development.
Deep understanding of data systems, including SQL/NoSQL databases and data warehouses.
Hands-on experience with cloud platforms (AWS/GCP), Kubernetes, and CI/CD pipelines.
Curiosity and eagerness to learn; background in cybersecurity, blockchain, or data analysis is a strong plus.
Experience designing and building scalable data pipelines and real-time processing systems.
Skilled with- ETL/ELT tools (Apache Airflow/dbt/Dagster) and streaming platforms (Kafka/Kinesis/RabbitMQ/..).
Familiar with real-time analytics frameworks such as Flink, Spark Streaming, or similar.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8468030
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/12/2025
מיקום המשרה: לוד
סוג משרה: משרה מלאה
פיתוח, תחזוקה ושיפור תהליכי ETL באמצעות IBM DataStage עבודה בסביבת Oracle כתיבה של שאילתות, פונקציות ו־Stored Procedures מורכבים ב־PL/SQL
דרישות:
פיתוח, תחזוקה ושיפור תהליכי ETL באמצעות IBM DataStage עבודה בסביבת Oracle כתיבה של שאילתות, פונקציות ו־Stored Procedures מורכבים ב־PL/SQL פיתוח פתרונות Data Warehouse ו־BI עבודה בצוותים חוצי ארגון ומתן פתרונות איכותיים ומדויקים הקפדה על איכות נתונים, ביצועים ועמידות תהליכים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8467791
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/12/2025
Location: Rishon Letsiyon
Job Type: Full Time
We're looking for a DataOps Engineer to join our DataOps team, part of the DevOps & Infrastructure group. In this role, you will ensure the performance, reliability, and scalability of our large-scale (multi-terabyte) database systems that underpin the platform. You will be implementing best practices for database infrastructure, improving complex query performance, security, and maintenance. If you are passionate about data, building complex infrastructure and collaboration in a fast-paced environment, this role will be a great fit for you.
How Youll Spend Your Day
Manage, maintain and monitor our ClickHouse, Microsoft SQL Server, PostgreSQL, and OpenSearch databases, ensuring HA, backups, and proper security measures to protect data integrity
Use scripting tools (Python, Bash, PowerShell) to automate regular database and CI/CD tasks.
Collaborate closely with R&D, Security, and Product teams to enhance data infrastructure
Help plan migrations or deployments of database systems to the cloud when needed
Requirements:
3+ years Experience as a DataOps Engineer
Experience with NoSQL databases (OpenSearch, Mongo, ClickHouse) - a must
Experience with RDBMS (MSSQL, PostgreSQL) on cloud environments (Azure, AWS)
Proven experience in managing and optimizing large-scale databases (hundreds of GB to multi-terabyte)
Strong background in database infrastructure, architecture and schema design
Proficiency in at least one scripting language or tool (Bash, PowerShell, or Python)
Experience with CI/CD tools such as Azure DevOps, Liquibase
Ability to work independently and off standard hours when required
Hands-on experience creating or supporting BI reports using SQL
Strong communication and teamwork skills
Experience with linux systems and Docker - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450580
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/12/2025
Location: Rishon Letsiyon
Job Type: Full Time
Were looking for an experienced Data Engineer to join our DEX Platform and help drive the next stage of our growth. In this role, youll design, build, and scale data infrastructure and advanced processing pipelines that power real-time insights and intelligent automation across our platform.
As a senior data engineer, youll own the full service lifecyclefrom architecture and development to deployment, monitoring, and scalingwhile ensuring data quality, reliability, and compliance. Youll work closely with backend, AI, and data teams to deliver robust, production-ready systems that support our AI-first strategy and our mission to make the workplace run itself.
Requirements:
5+ years of backend/data engineering experience
Proficiency with Java (Vert.x, Spring or similar) - a must
Hands-on experience with Kafka and streaming frameworks like Kafka Streams, Flink, Spark, or Beam - a must
Solid understanding of microservices architecture and cloud platforms (Azure/AWS/GCP)
Familiarity with AI-first development tools (GitHub Copilot, Cursor) an advantage
Experience working in production-aware, observability-driven environments - monitoring troubleshooting, and optimizing
Knowledge of Postgres, Redis, MySQL or similar, Clickhouse
Experience in Node.js (NestJS/Express) - a big advantage
Strong foundation in object-oriented design, design patterns, and clean code practices
Comfortable designing, deploying, and maintaining backend services and data flows
Passion for learning, experimenting with new tech, and building reliable systems at scale
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450571
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו