רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים בJobs.ai
חברה מובילה מגייסת מנהל.ת data להובלת תחום ה- data הארגוני מקצה לקצה. התפקיד כולל הקמה ופיתוח של פלטפורמת data חדשה בראייה AI-תומכת, אחריות על ארכיטקטורת data ו- BI מתקדמת, הובלת פרויקטים אסטרטגיים ועבודה שוטפת מול הנהלה בכירה.

מה ביום יום:
הובלת הקמה ופיתוח של data Warehouse ופלטפורמת data ארגונית
אחריות מלאה על Snowflake ו-Tableau ברמת ארכיטקטורה, מתודולוגיה ויישום
ניהול והובלה מקצועית של עובדים, כולל חניכה ופיתוח
הובלת מתודולוגיות עבודה וסטנדרטים בתחום הData
עבודה חוצת ארגון מול הנהלה בכירה, IT ויחידות עסקיות
ניהול ספקים וחברות חיצוניות
אחריות על תחום ה-AI בעולמות ה- data והטמעת תשתיות AI מתקדמות
דרישות:
מה תביא.י איתך:

ניסיון ב-Snowflake וב-Tableau כולל ידע בארכיטקטורה וBI
ניסיון בהקמה או שדרוג של data Warehouse ופלטפורמות data
ניסיון בניהול עובדים והובלה מקצועית
הבנה עמוקה בעולמות data Engineering, BI וAnalytics
ניסיון או ידע משמעותי בתשתיות AI בעולמות ה- data - יתרון
יכולת הובלה, השפעה ועבודה מול דרגים בכירים
ראייה אסטרטגית, Hands on ויכולת הנעת ממשקים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8595946
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data -driven solutions for the business.

Key Responsibilities:
Design, develop, and optimize ETL /ELT pipelines for large-scale data processing.
Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
Troubleshoot and optimize queries and jobs for performance improvements.
Implement best practices for data governance, security, and monitoring.
Stay updated with industry trends and emerging technologies
Requirements:
4 years of experience in data engineering or related fields.
Proficiency in Python for data processing and automation (mandatory).
Deep understanding of Apache Spark and Databricks for Big Data processing (mandatory).
Experience with Git (mandatory).
Expertise in Apache Airflow for workflow orchestration.
Familiarity with cloud-based environments, particularly Azure.
Advanced proficiency in SQL and query optimization.
Familiarity with data modeling, ETL /ELT principles, and performance tuning.
Knowledge of CI/CD and containerization (Docker).
An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8593710
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בQpoint Technologies
סוג משרה: משרה מלאה
לארגון אנטרפרייז באזור המרכז דרוש/ה מפתח/ת תהליכי ETL עבור DWH למשרה מלאה
פיתוח ותחזוקה של תהליכי ETL, תוך דגש על אופטימיזציה וייעול ביצועים
עבודה מול צוותים שונים לצורך יישום דרישות עסקיות
דרישות:
דרישות התפקיד:

ניסיון של לפחות 4 שנים בפיתוח ותחזוקת תהליכי ETL / ELT
ניסיון הכולל כתיבה וייעול שאילתות מורכבות
ניסיון בפיתוח בכלי ETL, החל משלב האפיון, הבנייה והתחזוקה - יתרון ל-DataStage ו-SSIS
ניסיון עבודה עם מודלי DWH והבנה של מודלים רב-מימדיים
יכולת עבודה עצמאית וניהול משימות מרובות תוך עמידה בזמנים
יכולת מתן פתרונות יצירתיים לבעיות טכניות
רצון ללמוד ולהתעדכן בטכנולוגיות חדשות
ניסיון בעבודה עם שפות תכנות דור 3 כגון C, Python
יכולת כתיבת סקריפטים בסביבת מערכת הפעלה לצרכי גיבוי והפצת קוד

יתרון:

ניסיון עם ElasticSearch כולל שאילתות, אופטימיזציה וניהול אינדקסים
ניסיון עם MongoDB וכתיבת Aggregation Pipelines
ניסיון עם Kafka
ניסיון ניהול המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8587279
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 15 שעות
דרושים באלעד מערכות
מיקום המשרה: בני ברק
אלעד מערכות מגייסת Head of data לארגון פיננסי מוביל!
אחריות כוללת על ניהול, פיתוח והובלה של תחום הדאטה בארגון, כולל data Engineering, data Platforms ו- BI.
התפקיד כולל הובלת צוות רב-תחומי, בניית אסטרטגיית דאטה ארגונית, והקמה ותחזוקה של תשתיות מודרניות כגון data Lake, DWH ו-Lakehouse.
עבודה מול הנהלה וצוותים עסקיים וטכנולוגיים, אחריות על פיתוח ופריסה של תהליכי ETL /ELT וסטרימינג בזמן אמת, הקמת תשתיות בענן (AWS/Azure), הובלת אסטרטגיית BI (Tableau, semantic models), ויצירת ערך עסקי באמצעות אנליטיקה.
בנוסף, ניהול ממשל נתונים, ניטור, SLA, אבטחת מידע ושיתופי פעולה עם DevOps ויחידת ה-AI.
דרישות:
דרישות תפקיד
ניסיון של 5+ שנים בתחומי data / BI / data Engineering
ניסיון מוכח בניהול צוותים טכנולוגיים
היכרות עמוקה עם ארכיטקטורות דאטה מודרניות: DWH, data Lake, Lakehouse
ניסיון בענן: AWS/Azure כולל הרשאות, אבטחה ו-cost optimization
ניסיון עם Snowflake / Tableau / BigQuery / DBT או מקבילים
שליטה ב-SQL ברמה גבוהה
ניסיון בהובלת data Governance
יכולת ניהול פרויקטים וממשקים מרובים בארגון גדול
ניסיון מארגון פיננסי/רגולטורי - יתרון
ניסיון ב- Python לעולמות data Engineering/ Machine Learning - יתרון
ניסיון עם כלים מתקדמים ל-ML ו-AI Generative - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8451290
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
דרושים בComblack
מיקום המשרה: לוד
סוג משרה: משרה מלאה
COMLBACK מגייסת data Scientist לבנק מוביל!
רוצה לעבוד על מודלים מתקדמים ו-AI שמשפיעים על מיליוני לקוחות?
זו ההזדמנות שלך להצטרף לצוות אסטרטגי שמפתח פתרונות חכמים לעולמות שיווק, שירות, תמחור וטכנולוגיה.
דרישות:
5+ שנות ניסיון בפיתוח מודלים
ניסיון חזק ב- Python (יתרון ל-pyspark / GenAI)
תואר רלוונטי - מדמ"ח / סטטיסטיקה / מתמטיקה / data Science
חשיבה אנליטית ויכולת עבודה בארגון גדול המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8595415
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת Comblack מגייסת אנליסט/ית נתונים לארגון גדול ויציב במרכז!
התפקיד כולל ניתוח נתונים מורכבים (ענני נקודות, מודלי גבהים וצילומי אוויר) ליצירת תאום דיגיטלי למדינת ישראל, ביצוע בקרת איכות לתוצרי פוטוגרמטריה ולידאר (Lidar), ועיבוד מידע גיאוגרפי ממגוון סנסורים ולוויינים.
דרישות:
ניסיון של שנתיים ומעלה בניתוח נתונים גיאוגרפיים ועיבוד ענני נקודות (Lidar/פוטוגרמטריה).
שליטה מעשית בעבודה עם תוכנות תלת-ממד, מודלים פוטוריאליסטיים וביצוע קלסיפיקציה.
ניסיון מוכח בביצוע בקרת איכות ( QA ) למוצרי אורתופוטו, גבהים ושכבות תלת-ממד.
מומחיות בעבודה עם כלי GIS ותכנון כגון ArcMap, QGIS ו-CAD.
יכולת מיפוי ופיענוח בתלת-ממד (סטריאו) ושילוב בצוות רב-תחומי לשיפור תהליכי עבודה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8591512
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
דרושים בCal כרטיסי אשראי לישראל
מיקום המשרה: בני ברק
אחריות על ניתוחים אנליטיים בתחומי ניהול סיכונים (אשראי, שימוש בכרטיסים, הונאות ועוד)
תחקור בסיסי נתונים בסביבות DataWareHouse ו- Big Data
פיתוח ותחזוקת מערך דוחות אנליטיים ודשבורדים ניהוליים עבור המדור
ניתוח סיכונים בתחום האשראי וביצוע בקרה על אופן טיפולם
סקירת פרופיל הסיכון של החברה ומתן חוות דעת על איכות ואופן ניהולו
הובלת תהליכים רוחביים לזיהוי, הערכה והפחתת סיכונים
ביצוע תיקוף סטטיסטי למודלים שונים בחברה
ליווי תהליך הטמעה וניהול שוטף של מערכת לניהול סיכוני מודלים
דרישות:
ניסיון של שנתיים לפחות כאנליסט/ data Scientist
ניסיון בכתיבת שאילתות מורכבות ב-SQL ושליטה בכלי BI
תואר ראשון רלוונטי- יתרון
יכולת ניתוח ותחקור נתונים ובניית דשבורדים
יכולת עבודה בלוחות זמנים צפופים ו-Multi-Tasking
יכולת למידה עצמית גבוהה מאוד ויכולת עבודה בצוות
ניסיון בפיתוח מודלים- יתרון
הבנה עסקית, הכרות עם עולמות האשראי וניהול סיכונים- יתרון
הכרות עם העולם הרגולטורי בסביבה הבנקאית- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527541
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 17 שעות
דרושים בהמרכז הרפואי תל אביב (איכילוב)
סוג משרה: משרה מלאה
תנאים נוספים:קרן השתלמות
למרכז הרפואי ת"א (איכילוב) דרוש.ה מהנדס.ת DevOps מנוסה עם התמחות ב- DataOps.
תיאור תפקיד:
מהנדס.ת DevOps מנוסה עם התמחות ב-DataOps, מתמקד בבניית ותחזוקת תשתיות לצינורות נתונים.
אחריות לספק פתרונות אוטומציה, ניטור ואמינות לפלטפורמות נתונים בענן.

DevOps :
Infrastructure as Code (Terraform)
צינורות CI/CD (ArgoCD, GitHub Actions)
ניהול קונטיינרים (EKS, ECR, Docker)
ניטור ותצפית (Prometheus, Grafana, CloudWatch, OpenSearch)
ניהול שרתים (Windows Server, Linux Servers)
אוטומציה וסקריפטים (Bash, PowerShell)

DataOps - תמיכה בצינורות נתונים:
פריסה ותחזוקה של Airflow, Airbyte, Trino, Kafka, dbt ומגוון כלים נוספים
הקמת סביבות לצוותי data Engineering
ניטור ביצועים ואמינות של data pipelines
אוטומציה של deployment לצינורות נתונים
ניהול משאבים ואופטימיזציה (compute, Storage )
Logging, alerting ו-troubleshooting לצינורות
גיבויים ו-disaster recovery למערכות נתונים
דרישות:
1-3 שנים ניסיון בתחום התשתיות, system / DevOps.
ניסיון וידע במערכות הפעלה Windows Linux - חובה.
ניסיון וידע ב s3 table/iceberg- חובה.
ניסיון וידע ב iaac[Terrafrom]- חובה.
ניסיון וידע בתהליכי GITOPS, CI/CD עבודה עם ARGOCD- חובה.
ניסיון וידע בAWS- חובה.
ניסיון וידע בkubernetes- חובה.
ניסיון וידע בTRINO,DBT, AIRBYTE,KAFKA- יתרון משמעותי.
ניסיון וידע תשתיתי בבסיסי נתונים[mssql, mysql, postgress, Oracle ]- יתרון.
ניסיון וידע בAZURE- יתרון.
ניסיון וידע בניהול תעודות- יתרון.

היקף משרה:
משרה מלאה, א'-ה'. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8587607
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 18 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון פיננסי באזור המרכז מגייס data Engineer
התפקיד כולל: בנייה והובלה של תשתיות דאטה מתקדמות לצורך פיתוח, אימון והסקה של מודלים, פיתוח תהליכי ETL /ELT ועבודה עם Snowflake, יצירת data Pipelines ופאנלים דינמיים, חיבור למקורות מידע ארגוניים וניתוח נתונים, עבודה שוטפת עם data Scientists, אנליסטים וצוותי MLOps, הובלת תהליכי דאטה מקצה לקצה בסביבה טכנולוגית מתקדמת ועוד.
דרישות:
- 3 שנות ניסיון כ- data Engineer
- ניסיון ב-SQL וכתיבה אופטימלית לביצועים
- ניסיון בפיתוח תהליכי ETL /ELT ובניית data Pipelines
- ניסיון בעבודה עם Snowflake
- ניסיון עם DBT או Feature Store - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8582116
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 19 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון רפואי באזור המרכז מגייס מפתח/ת Big Data
התפקיד כולל: עבודה עם נתונים בהיקפים גדולים, פיתוח תהליכי ETL מורכבים, עיבוד וטיוב נתונים, פיתוח פתרונות data מבוססי Python, עבודה עם Elasticsearch, כתיבה ואופטימיזציה של שאילתות מורכבות, עבודה בסביבת OpenShift כחלק מצוות דאטה ועוד.
דרישות:
- 3 שנות ניסיון כ- data Engineer / Big Data Developer
- ניסיון בפיתוח עם Python לעיבוד נתונים ובניית data Flows
- ניסיון בעבודה עם Elasticsearch / ELK
- שליטה מלאה ב-SQL
- הבנה בארכיטקטורת נתונים ותשתיות Big Data המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8587801
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 19 שעות
דרושים בקבוצת נישה
סוג משרה: משרה מלאה
- אפיון וניתוח צרכים עסקיים ופתרונות BI בחטיבות שונות בחברה

- פיתוח מודלים חדשים ותחזוקת מודלים קיימים בחברה

- עבודה מול גורמים בכירים בקבוצה
דרישות:
- כשנתיים ניסיון ב Qliksense

- הבנת תהליכי ETL

- ניסיון בעבודה עם salesforce - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8493117
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בעידור מחשבים בע"מ
תנאים נוספים:החזר הוצאות, קרן השתלמות
פיתוח ותחזוקה של תהליכי דיווח רגולטורים בסביבה בנקאית
עבודה עם תהליכי,ETLניתוח נתונים והטמעת פתרונות תומכי החלטה
התפקיד משלב יכולות טכנולוגיות עם הבנה תהליכית ועסקית
עבודה עם נפחי נתונים גדולים ומערכות ליבה ארגוניות
דרישות:
השכלה אקדמאית במדעים (רצוי במדעי המחשב/ מערכות מידע /תעשיה וניהול)
דרישות סף מקצועיות
2-5 שנים ניסיון רלוונטי בתחום פיתוח דאטה וניהול הנתונים BI /DW
2-5שנים ניסיון בפיתוח ETLבכלי DATASTAGE / SSI
שליטה ב- (SQLכתיבת שאילתות מורכבות, אופטימיזציה)
ניסיון עבודה מול DBארגוניים Oracle, SQL server, DB2
דרישות כלליות
ניסיון עבודה במוסד פיננסי/ הכרות עם נושא מנ"א - יתרון
יכולת למידה עצמאית גבוהה,התמודדות עם מערכות מורכבות וטכנולוגיות חדשות
הבנת תהליכים רחבה - ראיה מקצה לקצה של זרימת הנתונים, תלות בין מערכות שונות,
השפעה עסקית וטכני
שילוב הבנה עסקית
חשיבה אנליטית, ירידה לפרטים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8594779
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 20 שעות
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה פיננסית במרכז הארץ מגייסת מפתח/ת Informatica / ETL
התפקיד כולל: עבודה עם תהליכי אינטגרציית נתונים מורכבים בארגונים גדולים, פיתוח מקצה לקצה משלב איסוף הדרישות ועד להעלאה לייצור, פיתוח ותחזוקה של תהליכי ETL מתקדמים ב-Informatica בענן, עבודה עם ממשקים לבסיסי נתונים שונים, קבצי XML ו-CSV, מערכות תורים, תהליכי CDC ועוד.
דרישות:
- 3 שנות ניסיון עם SQL וידע בכתיבת שאילתות וניהול נתונים
- שנתיים ניסיון בפיתוח Informatica Power Center / IICS
- ניסיון בהובלת תהליכי פיתוח מורכבים מקצה לקצה
- ניסיון בעבודה בסביבת ענן AWS - יתרון
- היכרות עם Microservices ו- salesforce - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8576852
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בComblack
מיקום המשרה: בני ברק
סוג משרה: משרה מלאה
חברת Comblack מגייסת מפתח/ת ETL לארגון גדול ומוביל במרכז!
התפקיד כולל פיתוח ותחזוקת תהליכי ETL /ELT מורכבים משלב האפיון ועד ההטמעה, מתן פתרונות לתקלות בסיסי נתונים ברמת מורכבות גבוהה, אופטימיזציה של שאילתות ועבודה צמודה מול צוותים עסקיים ליישום דרישות דאטה.
דרישות:
ניסיון של 4 שנים ומעלה בפיתוח ותחזוקת תהליכי ETL / ELT וכתיבת שאילתות מורכבות.
ניסיון עבודה עם מודלי DWH והבנה מעמיקה במודלים רב-ממדיים.
שליטה בכלי ETL (יתרון משמעותי ל-DataStage ו-SSIS) ובשפות תכנות כגון Python או C.
יכולת כתיבת סקריפטים בסביבת מערכות הפעלה לצרכי גיבוי, אוטומציה והפצת קוד.
יתרון משמעותי לניסיון עם ElasticSearch, MongoDB (Aggregation Pipelines) או Kafka. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8588539
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 21 שעות
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
Job Type: Full Time
we are looking for a Data Engineer to join our growing BI team. This role goes beyond building pipelines. You will help shape our data platform as a shared product - supporting analytics, reporting, and decision-making across key company data domains such as Product, Sales, HR, and others. Your work will directly influence how stakeholders interact with data today and how the platform evolves in the years ahead.

What Youll Be Doing

Architect & Own: Lead the design and development of scalable data warehouse and BI solutions. You will make early-stage architectural decisions and own their long-term impact.
Infrastructure as a Product: Build core data infrastructure and developer experiences that others rely on, ensuring high availability and system reliability.
End-to-End ELT/ETL: Solve complex integration problems by sourcing data from structured and unstructured sources using Rivery, Python, and optimal ETL patterns.
Data Quality & Governance: Implement frameworks for schema evolution, anomaly detection, and data freshness. You will determine security models based on privacy requirements and evolve governance processes.
Strategic Collaboration: Partner with Engineers, Product Managers, and Data Analysts to conceptualize data needs and represent key insights in a meaningful way.
Optimization: Assist in owning production processes, optimizing complex code through advanced algorithmic concepts to manage operational cost-benefit tradeoffs.
Requirements:
Experience: 5+ years of experience in Data Engineering, Infrastructure, or Platform Engineering (ideally in organizations operating at a meaningful scale).
Technical Mastery: 5+ years of hands-on experience with Python and SQL. Deep proficiency in data modeling (Star/Snowflake schema) and DWH methodologies.
Cloud & Tools: Proven experience with Snowflake and AWS. Familiarity with Rivery or similar orchestration tools (like DBT) is a major advantage.
Production-First Mindset: Track record of leading data initiatives end-to-end from design and building to shipping and operating production flows.
Analytical Rigor: Ability to triage issues, resolve data quality problems, and design systems that handle system complexity with ease.
Education: Bachelors degree in Computer Science, Computer Engineering, or a relevant technical field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8595997
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: מרכז
סוג משרה: משרה מלאה
אנחנו מגייסים data Project Manager להובלת פרויקטים מבוססי דאטה ומודלים אנליטיים המשפיעים על קבלת החלטות עסקיות בארגון פיננסי מוביל. התפקיד משלב עבודה צמודה עם גורמים עסקיים בארגון לצד צוותי הדאטה, ומהווה חוליה מקשרת בין הצורך העסקי לפתרון האנליטי. מה כולל התפקיד? הובלת פרויקטי דאטה מקצה לקצה - ממיפוי צרכים עסקיים ועד הטמעת פתרונות בארגון עבודה שוטפת מול גורמים עסקיים בכירים בארגון לצד צוותי data Scientists, ML Engineers וData Analysts תרגום צרכים עסקיים לדרישות דאטה ואפיון פתרונות מבוססי מודלים אנליטיים וMachine Learning- ניהול תהליך הפיתוח והיישום של פתרונות דאטה בסביבת עבודה מורכבת בניית תוכנית עבודה ו- roadmap לפרויקטים הגדרת מדדי הצלחה, מדידה ושיפור מתמיד של המוצרים והפתרונות ליווי והטמעה של פתרונות הדאטה בצד העסקי.
דרישות:
בעלי תואר ראשון רלוונטי (תעשייה וניהול, מערכות מידע ועוד) ניסיון של לפחות שנתיים בניהול פרויקטים בתחום הדאטה הבנה בעולמות data, BI מודלים אנליטיים ו- Machine Learning יכולת תרגום צרכים עסקיים לדרישות דאטה ואפיון פתרונות ניסיון בעבודה מול ממשקים מרובים והובלת תהליכים בארגון הבנה בתהליך פיתוח מודלים אנליטיים ומחזור חיי מוצר דאטה יכולות אנליטיות גבוהות וחשיבה עסקית יכולת הצגת תוצרים ועבודה מול דרגים בכירים יתרון משמעותי ל: ניסיון מחברות ייעוץ ניסיון מארגונים פיננסיים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8592388
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Job Type: Full Time
As part of our Customers Company Data Engineering team, you will not only build scalable data features and pipelines but also directly enable portfolio growth by supporting new business capabilities in the Credit Card and Servicing business units.

Responsibilities

Design and build data solutions that support Credit Card and Servicing business goals.
Develop advanced data pipelines to support the infrastructure, architecture and the product growth initiatives.
Create ETL/ELT processes and SQL queries to bring data to the data warehouse and other data sources.
Own and evolve data lake pipelines, maintenance, schema management, and improvements.
Collaborate with stakeholders across Product, Backend Engineering, and Data Science to align technical work with business outcomes.
Implement new tools and modern development approaches that improve both scalability and business agility.
Ensure adherence to coding best practices and development of reusable code.
Constantly monitor the data platform and make recommendations to enhance architecture, performance, and cost efficiency.
Requirements:
4+ years of experience as a Data Engineer.
4+ years of Python and SQL experience.
4+ years of experience in data modeling and building scalable ELT/ETL pipelines across leading Data Warehouses (Snowflake - Preferred, Redshift, BigQuery).
3+ years of experience designing and managing automated data pipelines using Apache Airflow.
3+ years of experience developing scalable, production-grade data models with DBT.
Hands-on experience with cloud environments (AWS preferred) and big data technologies.
Strong troubleshooting and debugging skills in large-scale systems.
Proven experience packaging applications with Docker and utilizing Argo Workflows to automate, execute, and monitor containerized task sequences.
Experience with design patterns, coding best practices.
Proficiency with Git and modern source control.
Basic Linux/Unix system administration skills.
Experience with AI tools and a strong interest in continuously exploring and applying them in everyday work are highly valued.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8591958
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
בסופ"ש הרגיש כמו קיץ. השבוע חוזר החורף. שינויים קורים מהר. גם בשוק העבודה. אנחנו מגייסים data Manager שייקחו שליטה על מערכות המידע של הארגון, ייעלו אותן, ויהפכו את ה- ERP ממערכת תיעוד למנוע שליטה עסקי. אנחנו מחפשים את אלה שיודעים לנהל מערכת SAP Business One, לכתוב SQL ברמה גבוהה כדי לזקק תמונה עסקית מדויקת ולתמוך בהחלטות קריטיות, לאסוף מאגרי data ארציים של עסקים ולבנות אוטומציות ב- Python שמצמצמות עבודה ידנית ומשפרות תהליכי גבייה והכנסות. -עובד/ת חברה מהיום הראשון מה תעשו ביום-יום: *תנהלו את מערכת ה- ERP הארגונית ( SAP Business One). *תכתבו שאילתות SQL לצורך הכנת דו"חות BI ובקרת נתונים. *תפתחו תהליכי אוטומציה ( Python / Power Query / Scripts). * תבצעו אינטגרציה בין SAP, Excel, מערכות מידע ומערכות חיצוניות. * תאספו ותטייבו data ברמה ארצית ותגדילו את מאגר ה- data בארגון. * תספקו תובנות אנליטיות לקביעת יעדי גבייה ותמחור.
דרישות:
*תואר רלוונטי ( מערכות מידע /תעשיה וניהול/מדעי המחשב)- חובה. * 3-5 שנות ניסיון באנליזה עסקית- חובה. * שליטה ב SQL, Excel ובפרט-Excel,Power Query ו- Power BIאו כלי BI אחרים- חובה. * ניסיון ב- ERP או ב- SAP Business One- יתרון משמעותי. * ניסיון ב- Web Scraping ואיסוף מידע ממקורות אינטרנטיים, הכרות עם כלי פיתוח AI, ניסיון בעבודה עם API's, היכרות עם מבנה הטבלאות של SAP B1- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8556672
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
מיקום המשרה: מרכז
דרוש/ה מפתח/ת מנועי חיפוש לתפקיד מעניין ומאתגר הכולל הגדרת ארכיטקטורה, פיתוח מנועי חיפוש, תמיכה בהיקפי מידע וביצועים מהירים.
דרישות:
תנאי סף:
שלוש שנות ניסיון בתחום פיתוח Big-Data
שלוש שנות ניסיון ב- troubleshooting ופתרון תקלות production
יתרון:
ניסיון מוכח באחד או יותר מהתחומים הבאים: solr, elasticsearch,spark - יתרון
ניסיון עבודה עם טכנולוגיות הבאות: kafka, rabitmq, openshift ודומות - יתרון
יכולת למידה עצמית והתמודדות עם אתגרים טכנולוגיים מורכבים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8591132
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
מיקום המשרה: מרכז
דרוש/ה מפתח/ת DevOps בתחום תשתיות ואופרציות ביג דאטה לתפקיד הכולל ארכיטקטורה ניהול והקמת סביבות מבוססות טכנולוגיות לעיבוד מידע בהיקפים גדולים מאוד ( Big-Data ), תמיכה בתהליכי ניהול קוד ופיתוח תהליכי ci/cd.
דרישות:
תנאי סף:
שלוש שנות ניסיון בעבודה עם תשתיות מבוססות Linux שנתיים ניסיון פיתוח בלפחות אחת מהשפות JAVA ו- Python
רקע מעשי בתחומי data lake, data warehouse
עבודה והכרות עם תשתיות opensource שונות (כגון kafka, elastic וכד')
יתרון:
הכרות עם תשתיות cassandra, trino, hadoop - יתרון
הכרות עם dockers ו/או kubernetes בדגש על openshift - יתרון
ניסיון בעבודה ופיתוח ענן (aws, gcp, azure) - יתרון
יכולת לימוד עצמית וכניסה מהירה לטכנולוגיות - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8591093
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
19/03/2026
Location: Jerusalem
Job Type: Full Time
We're in search of an experienced and skilled Senior Data Engineer to join our growing data team. As part of our data team, you'll be at the forefront of crafting a groundbreaking solution that leverages cutting-edge technology to combat fraud. The ideal candidate will have a strong background in designing and implementing large-scale data solutions, with the potential to grow into a leadership role. This position requires a deep understanding of modern data architectures, cloud technologies, and the ability to drive technical initiatives that align with business objectives.

Our ultimate goal is to equip our clients with resilient safeguards against chargebacks, empowering them to safeguard their revenue and optimize their profitability. Join us on this thrilling mission to redefine the battle against fraud.

Your Arena

Design, develop, and maintain scalable, robust data pipelines and ETL processes
Architect and implement complex data models across various storage solutions
Collaborate with R&D teams, data scientists, analysts, and other stakeholders to understand data requirements and deliver high-quality solutions
Ensure data quality, consistency, security, and compliance across all data systems
Play a key role in defining and implementing data strategies that drive business value
Contribute to the continuous improvement of our data architecture and processes
Champion and implement data engineering best practices across the R&D organization, serving as a technical expert and go-to resource for data-related questions and challenges
Participate in and sometimes lead code reviews to maintain high coding standards
Troubleshoot and resolve complex data-related issues in production environments
Evaluate and recommend new technologies and methodologies to improve our data infrastructure
Requirements:
5+ years of experience in data engineering, with specific, strong proficiency in Python & software engineering principles - Must
Extensive experience with GraphDB - MUST
Extensive experience with AWS, GCP, Azure and cloud-native architectures - Must
Deep knowledge of both relational (e.g., PostgreSQL) and NoSQL databases - Must
Designing and implementing data warehouses and data lakes - Must
Strong understanding of data modeling techniques - Must
Expertise in data manipulation libraries (e.g., Pandas) and big data processing frameworks - Must
Experience with data validation tools such as Pydantic & Great Expectations - Must
Proficiency in writing and maintaining unit tests (e.g., Pytest) and integration tests - Must
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8585533
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/03/2026
Location: Merkaz
Job Type: Full Time
abra professional services is seeking for an senior data engineer. We are seeking a Senior Data Engineer to lead the technical development of our Data Fabric within a military program. This role involves technical leadership in building contextual data pipelines, working with big data lakehouse architectures, and driving data pipeline automation.
Requirements:
MUST HAVE Requirements: 5+ years of hands-on experience as a Big Data Engineer
* Proven ability to design and deploy Big Data & AI solutions using frameworks and tools such as:
* Apache NiFi
* Kafka
* Spark
* Graph DB
* NoSQL databases Strong coding proficiency in Python and Bash
* Experience building large-scale data pipelines for data processing, transformation, and analytics
* Ability to define and manage metadata schemas
* Experience developing data workflows (e.g., metadata generation, auto-extraction, validation, format conversion)
* Experience developing tools for data observability and compliance analytics
* Ability to analyze and report on complex datasets and results
* Experience working with big data lakehouse architectures
* Ability to explore, enhance, and manage data fusion from multiple data sources
* Experience developing analytics tools, algorithms, and programs
* Technical leadership of data structure design for contextual pipelines
* Collaboration experience with Data Scientists and Architects
* Strong ability to work independently, learn new technologies, and apply innovative solutions
* Excellent interpersonal skills and ability to work as part of a team MSc in Computer Science or Data Science Advantages:
* Experience with managing metadata and taxonomy concepts alongside big data objects
* Experience working with public cloud Big Data & AI services
* Familiarity with machine learning concepts
* Strong technical skills
* Independent, hands-on developer
* Curious, open-minded, fast learner, and a strong team player
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8503268
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As our Senior Data Engineer you will handle Big Data in real time, and become the owner and gatekeeper of all data and data flows within the company. You will bring data ingenuity and technological excellence while gaining a deep business understanding.

This is an amazing opportunity to join a multi-disciplinary A-team while working in a fast-paced, modern cloud, data-oriented environment.



What Youll Do:

Implement robust, reliable and scalable data pipelines and data architecture.
Own and develop DWH (Petabytes of data!).
Own the entire data development process, including business knowledge, methodology, quality assurance, and monitoring.
Collaborate with cross-functional teams to define, design, and ship new features.
Continuously discover, evaluate, and implement new technologies to maximize development efficiency.
Develop tailormade solutions as part of our data pipelines.
Lead complex Big Data projects and build data platforms from scratch.
Work on a high-scale, real-time, real-world business-critical data stores and data endpoints.
Implement data profiling to identify anomalies and maintain data integrity.
Work in a results-driven, high-paced, rewarding environment.
Requirements:
5+ years experience as a Data Engineer.
Good working knowledge of Google Cloud Platform (GCP).
Experience using AI-assisted tools or automation to improve data development, monitoring, or debugging workflows.
Strong experience in SQL and Python.
Experience with high volume ETL/ELTs tools and methodologies - both batch and real-time processing.
Understanding of how to build robust and reliable solutions.
The ability to understand the business impact of the data engineering tasks.
Hands-on experience in writing complex queries and optimizing them for performance.
Able to understand complex data and data flows.
Have a strong analytical mind with proven problem-solving abilities.
Ability to manage multiple tasks and drive them to completion.
Independent and proactive.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8576179
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8572794
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/03/2026
Location: Rishon Letsiyon
Job Type: Full Time and Hybrid work
Were looking for an experienced Data Engineer to join our DEX Platform and help drive the next stage of our growth. In this role, youll design, build, and scale data infrastructure and advanced processing pipelines that power real-time insights and intelligent automation across our platform.

As a senior data engineer, youll own the full service lifecycle-from architecture and development to deployment, monitoring, and scaling-while ensuring data quality, reliability, and compliance. Youll work closely with backend, AI, and data teams to deliver robust, production-ready systems that support our AI-first strategy and our mission to make the workplace run itself.
Requirements:
5+ years of backend/data engineering experience.
Proficiency with Java (Vert.x, Spring or similar) - a must.
Hands-on experience with Kafka and streaming frameworks like Kafka Streams, Flink, Spark, or Beam - a must.
Solid understanding of microservices architecture and cloud platforms (Azure/AWS/GCP).
Familiarity with AI-first development tools (GitHub Copilot, Cursor) - an advantage.
Experience working in production-aware, observability-driven environments - monitoring troubleshooting, and optimizing.
Knowledge of Postgres, Redis, MySQL or similar, Clickhouse.
Experience in Node.js (NestJS/Express) - a big advantage.
Strong foundation in object-oriented design, design patterns, and clean code practices.
Comfortable designing, deploying, and maintaining backend services and data flows.
Passion for learning, experimenting with new tech, and building reliable systems at scale.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8572510
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for a talented and experienced big data engineer to join our cyber defence group to take over a cutting-edge data solution.

The successful candidate should have hands-on experience with big data processing technologies and architectures.

The candidate will join our growing team of analysts, developers, data scientists, and architects who design and develop innovative solutions to the most critical needs of our customers.

Responsibilities:
Designing, architecting, implementing, and supporting our data pipelines and processing flows.
Collaborate with analytics department to analyze and understand data sources.+
Provide insights and guidance on database technology and data modelling best practices.
Insure the maintenance of data integrity, managing data and analysis flows with attention to detail and high responsibility.
Implementing algorithms with our data scientists.
Requirements:
Requirements:
BSc/BA in Computer Science or similar.
At least 5 years proven experience as a Big Data Engineer.
At least 3 years of experience with Python.
Experience with both SQL and NoSQL databases, including Elastic Search, Splunk, MongoDB.
Experience with processing of large data sets.
Experience with Linux environment.
Experience with software design and development in a test-driven environment.

Advantages:
Previous experience in the cybersecurity industry or in elite technology units in IDF.
Experience with OpenShift, S3, AWS, Docker, Kubernetes, Java and TypeScript.
Experience working with CI/CD software (Jenkins, GitLab).
Experience with AirFlow.
Experience with Nifi.

Personal skills:
Good communication skills, excellent organisational and time management skills, accuracy and attention to details, high responsibility, independent, self-learner, highly motivated, open minded, problems resolver, team player.

Nice to know:
We have a very strong culture of work-life balance.
You will contribute to amazing projects that do the unbelievable daily.
You will join a great team with good vibes and a can-do approach.
Apply for this position
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566407
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for an Experienced Big Data Engineer who loves solving complex problems at an extreme scale. In this role, you arent just building "internal pipelines"-you are developing the actual product our clients interact with. You will write high-performance code, optimize your own Spark processes for client freshness, and own features end-to-end. We need a "problem solver by nature, optimizer in their soul" who brings both technical depth and a great personality to a high-speed, deep technical team.

What youll do
Build Client-Facing Features: Design and implement high-scale product features for premium clients - from architecture to production deployment.
Performance Engineering: Optimize scalable data pipelines and distributed processes to meet strict client SLAs. Every millisecond of freshness matters.
System Integrity: Ensure uncompromising data accuracy and performance across massive, complex datasets.
Strategic Collaboration: Partner with upstream data providers, client-side teams, and Product Managers to turn raw events into production-grade features.
Requirements:
The Foundation: B.Sc. in Computer Science or an equivalent.
Relevant Track Record: 3+ years in Big Data Engineering (Backend experience is a plus, provided youve worked at scale).
Spark Mastery: 1+ years of deep, hands-on experience with Spark (or equivalent). You should understand "under the hood" complexities like memory management and execution plans.
Engineering Craft: Strong programming skills (Ideally Scala) with a deep understanding of distributed programming paradigms. You write clean, production-ready code that is optimized for execution across large-scale clusters.
The Scale Mindset: A natural obsession with high-scale problem solving and system optimization.
The Right DNA: A pragmatic, ownership-driven mindset with a personality that thrives in a collaborative environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8564986
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
As a Cloud Architect, you will serve as a technical focal point, driving strategic architectural decisions that shape the future of our globally distributed platform.
Platform & Scale Leadership: Lead the architectural efforts to modernize and significantly scale the companys infrastructure across multiple geographies and heterogeneous cloud providers.
Cross-Organizational Influence: Work with other groups in the organization to deeply understand their needs and translate them into concrete, production-ready capabilities and platform offerings.
Multi-Cloud Data Strategy: Define and champion a comprehensive, petabyte-scale multi-cloud data strategy, ensuring optimal data governance, security, and cost-efficient flow for streaming ingestion, data lakes, and advanced analytics workloads across environments.
Microservices Design & Resilience: Provide high-level architectural oversight for the multi-cloud design patterns of our microservices, focusing on cross-cloud resilience, global traffic management, data locality, and failure domain isolation.
AI Transformation Leadership: Lead the AI transformation initiatives aimed at radically enhancing the developer experience, introducing intelligent automation, and leveraging generative AI models to accelerate software delivery, testing, and operational efficiency.
Strategic Alignment: Foster cross-group alignment and build consensus among engineering leaders and business stakeholders for strategic platform projects, translating complex technical roadmap items into clear, measurable business outcomes.
Architecture Definition: Help define the technical vision, architecture, and long-term directions of the Cloud Platform group and the wider R&D organization.
Engineering Excellence: Be a champion for engineering excellence, setting high standards, mentoring engineers across the group to foster solid architectural principles, and supporting their professional growth.
Architect Forum Participation: Be a key member of the companys architect forum, participate in complex technical discussions, and facilitate effective, org-wide decision-making processes.
Requirements:
10+ years of software development and platform engineering experience, with at least 5 years in technical leadership positions within a large-scale SaaS or distributed systems environment.
Expert-level proficiency in AWS Cloud, with a proven track record of designing, building, and operating scalable, global, high-availability infrastructure.
Deep Multi-Cloud Expertise: Significant, demonstrable experience in designing and implementing systems that span at least two major cloud providers (AWS, GCP, or Azure).
Expert-level knowledge and understanding of Kubernetes internals (operators, controllers, networking, security).
Data Experience: Proven experience designing and optimizing large-scale data platforms, including streaming architectures (Kafka/Kinesis), data warehousing, and distributed file systems.
Deep understanding of CI/CD concepts and their advanced implementations (e.g., GitOps, progressive delivery, from testing to production).
A people person, optimistic, and visionary, with a can-do approach and the ability to lead complex and sensitive decision-making processes in an effective manner while creating a positive, collaborative, and pleasant atmosphere.
Proven experience mentoring and coaching high-potential engineers to develop new skills and grow professionally.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8564988
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
26/02/2026
Location: Jerusalem
Job Type: Full Time
We're looking for a Data Engineer with 4+ year experience to join our Data Engineering team and help us build and scale our production-grade data platform. You'll work on high-performance systems built on self-hosted ClickHouse, optimize complex data pipelines, and collaborate closely with Product, Analytics, and Infrastructure teams to deliver reliable, fast, and scalable data solutions.

This is a hands-on technical role where you'll have a significant impact on how we ingest, model, store, and serve data that powers our analytics and AI-driven products.
Youll play a key role in shaping the direction of our data platform and have meaningful ownership over critical components of our architecture.

What You'll Do:
Data Modeling & Architecture
Design and evolve data models that reflect business logic and support analytical use cases
Collaborate with the BI and Analytics teams to understand data requirements and translate them into efficient schemas
Performance Optimization
Optimize ClickHouse schemas, partitioning strategies, indexing, and compression
Profile and tune slow queries to improve performance and reduce costs
Implement systems that ensure data quality, consistency, and operational efficiency (e.g., deduplication, validation, anomaly detection)
Monitor pipeline health, data freshness, and query performance with appropriate alerting mechanisms
SQL Compiler Development
Develop and maintain the SQL Compiler layer that translates high-level queries into optimized ClickHouse execution plansImplement query optimization and rewriting strategies to improve performanceDebug and resolve compiler issues to ensure accurate and efficient query translation

Data Pipeline Development & Collaboration
Review and advise the Integration team on pipeline architecture, performance, and best practices.
Provide guidance on data modeling, schema design, and optimization for new data sources.
Troubleshoot and maintain existing pipelines when issues arise or optimization is needed
Ensure data freshness, reliability, and quality across all ingestion pipelines.
Collaboration & Support
Work closely with the Integration team to ensure smooth data ingestion from new sources.
Partner with Infrastructure to support high availability and disaster recovery
Support other teams across the company in accessing and using data effectively.
Requirements:
Excellent communication and collaboration skills
English at a high level, written and spoken required
Ability to work from our Jerusalem office (located in the Central Bus Station next to the train) 2 times a week (Monday & Wednesday) is required
Strong attention to detail, ownership mentality, and ability to work independently
Quick learner who can dive into new codebases, technologies, and systems independently
Hands-on mentality - not afraid to roll up your sleeves, dig into unfamiliar code, and work across the stack (including backend when needed)
4+ years of experience as a Data Engineer
Strong problem-solving skills for complex data challenges at scale - ability to debug performance issues, data inconsistencies, and system bottlenecks in high-volume environments
Experience with data modeling and schema design for analytical workloads
Strong proficiency in SQL and experience with complex analytical queries
Hands-on experience building and maintaining data pipelines (ETL/ELT)
Ability to troubleshoot and optimize systems handling large data volumes (millions+ rows, complex queries, high throughput)
Knowledge of query optimization techniques and execution planning
Familiarity with columnar databases (ClickHouse, BigQuery, Redshift, Snowflake, or similar). Columnar DB experience is a big plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8563430
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו