רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 10 שעות
דרושים בNishapro
Location: More than one
Job Type: Full Time and Hybrid work
For a fast-growing company in the renewable energy sector, a data Architect is required to lead the organization's data infrastructure.
What youll do:

Design and own a modern cloud-based data platform (Azure or equivalent).
Connect everything from SCADA/EMS/BMS to market APIs, ERP (Priority), and finance systems.
Define scalable models, ensure data quality security, and deliver trusted datasets.
Empower teams with analytics and Power BI dashboards.
Lay the groundwork for AI/ML: predictive maintenance, Storage optimization, forecasting.
Shape the long-term data strategy and grow the team.
Requirements:
What were looking for:

5+ years in data architecture/engineering.
Hands-on with cloud platforms, SQL Python.
Strong ETL /ELT large-scale dataset experience (time-series/IoT a plus).
Bonus: energy/industrial data, Priority ERP, energy trading.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8413026
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
דרושים במלם תים
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM.
דרישות:
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8261624
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
לבניית פתרונות דאטה מתקדמים מקצה לקצה
אנחנו מחפשים data Engineer עם תשוקה לבניית מערכות נתונים חכמות, סקיילביליות ומבוססות ענן, להצטרפות לצוות דאטה שעובד עם טכנולוגיות מתקדמות ופרויקטים משמעותיים בארגון.
התפקיד מתאים למועמדים עם רקע בData Engineering מודרני, Lakehouse, BI מתקדם או Microsoft Fabric - עם אפשרות להתמחות והעמקה בהתאם לניסיון.
מה תעשו בתפקיד:
תכנון, הקמה ותחזוקה של data Pipelines מקצה לקצה
שינוע נתונים ממקורות מגוונים (APIs, קבצים, DBs, Streaming)
פיתוח וטיוב תהליכי ETL / ELT
עבודה עם SQL וPython לפיתוח תהליכים וניתוח נתונים
בניית פתרונות דאטה בסביבות Lakehouse / data Platform
עבודה צמודה עם גורמים עסקיים, BI וAnalytics
השתלבות בפרויקטים חדשים (Greenfield) לצד תחזוקת מערכות קיימות
דרישות:
דרישות חובה:
לפחות 3 שנות ניסיון כData Engineer / BI Developer
שליטה גבוהה בSQL
ניסיון מעשי בPython (כולל עבודה עם Pandas / Notebooks)
ניסיון בפיתוח תהליכי ETL / ELT
היכרות עם עבודה בסביבת ענן
עבודה עם Source Control (Git / Azure DevOps )
חשיבה מערכתית, יכולת עבודה עצמאית ובצוות

תחומי התמחות - יתרון משמעותי (אחד או יותר):
המשרה פתוחה למועמדים עם ניסיון באחד או יותר מהאזורים הבאים:
data Engineering & Lakehouse
Apache Spark / PySpark
Databricks
ארכיטקטורות Lakehouse
Pipelines Incremental / Streaming
Microsoft data Stack
Microsoft Fabric
Power BI (DAX, Power Query, Semantic Models)
Power Automate
Azure Synapse / EventHub
Cloud & Modern data
AWS / GCP
Snowflake
dbt
פרויקטי Greenfield
AI / Copilot / data Prep

למה להצטרף?
עבודה עם טכנולוגיות מתקדמות וModern data Stack
גמישות והתאמה לתחום החוזקה שלך
פרויקטים משמעותיים עם השפעה אמיתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8511403
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 13 שעות
דרושים בפרוסיד
מיקום המשרה: מספר מקומות
תיאור התפקיד:
הובלה, ניהול והנחיה של צוות מפתחי תוכנה ודאטה, תוך טיפוח מצוינות מקצועית וצמיחה אישית
שילוב Hands-on בפיתוח, Code Reviews וקבלת החלטות ארכיטקטוניות
תכנון, פיתוח ותחזוקה של שירותי תשתית נתונים סקיילביליים, אמינים ובטוחים
הובלת פרויקטים טכנולוגיים מורכבים מקצה לקצה
עבודה שוטפת עם Product Owners, ארכיטקטים וגורמים עסקיים להגדרת Roadmap טכנולוגי
קידום תרבות של חדשנות, שיפור מתמיד ואימוץ טכנולוגיות חדשות
אחריות על זמינות, ביצועים ו-Observability של מערכות הנתונים
זיהוי ופתרון תקלות מערכתיות מורכבות
ניהול תהליכי פיתוח, שגרות צוות, פגישות אישיות והערכות ביצועים
דרישות:
דרישות:
ניסיון של לפחות שנתיים בהובלה וניהול צוותי פיתוח תוכנה -חובה
בפיתוח מערכות נתונים מבוזרות בקנה מידה גדול ( data Engineering)- חובה
ניסיון בעיצוב ארכיטקטורת נתונים ועבודה עם בסיסי נתונים SQL ו-NoSQL- חובה
ניסיון מוכח בהטמעת פתרונות Observability - Metrics, Logging, Distributed Tracing- חובה
היכרות עם data Governance: איכות נתונים, Lineage, אבטחה ועמידה ברגולציה- חובה
ניסיון Hands-on עם DBT / Apache Spark / Kafka- חובה
ניסיון בעבודה עם CI/CD וכלי Infrastructure as Code (IaC)- חובה
היכרות עם Machine Learning Workflows ו-MLOps- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8506845
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
תנאים נוספים:קרן השתלמות, ביטוח מנהלים
מחפש/ת את הצעד הראשון בעולם הData?
זו ההזדמנות שלך להשתלב בתפקיד משמעותי בתחום הצומח והמבוקש ביותר בעולם ההייטק!
מודל היברידי
דרישות:
יכולות תכנות ב- Python - חובה
היכרות עם SQL - חובה
בסיס חזק באלגוריתמיקה בדגש על ML
גישה אנליטית, יכולת למידה עצמית גבוהה וחשיבה לוגית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8455649
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים ביוביטק סולושנס
Job Type: Full Time and Hybrid work
UBTECH is hiring data Tech Lead in Netanya.

We are seeking a highly skilled and experienced Azure data Expert to join our team.
In this role, you will be responsible for designing, implementing, and managing advanced data solutions using Microsoft Azure's cloud platform.
Requirements:
- Deep expertise in Azure data services.
- Proven ability to deliver data -driven solutions that enable business insights, improve operations, and drive innovation.

This position is open to both genders.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8500828
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
דרושים בNishapro
איסוף, ניתוח ועיבוד של נתונים פיננסיים והתנהגותיים לצורך הבנה, מדידה וניהול של האשראי.
פיתוח ויישום מודלים סטטיסטיים ואלגוריתמים מתקדמים לניבוי סיכון, דירוג אשראי, סיווג לקוחות וזיהוי מגמות חריגות.
ביצוע ניתוחים אנליטיים לצורך תמיכה בהחלטות עסקיות, רגולטוריות וניהול סיכונים.
עבודה עם מאגרי נתונים גדולים ( Big Data ), תוך שימוש בכלי BI, SQL ושפות תכנות רלוונטיות (כגון Python / R).
בדיקות תקופתיות לבחינת ביצועי המודלים (Model Monitoring Validation) ושיפורם בהתאם לצורך.
משרה היברידית- יום 1 מהבית
מיקום- לוד
דרישות:
תואר ראשון לפחות בסטטיסטיקה / מתמטיקה / כלכלה / מדעי המחשב / הנדסה תעשייה וניהול או תחום רלוונטי - חובה
ניסיון של שנתיים לפחות כאנליסט/ית נתונים או מפתח/ת מודלים חובה
עדיפות לניסיון בתחום הפיננסים/בנקאות.
שליטה גבוהה ב- SQL - חובה - שנתיים אחרונות לפחות
ניסיון בעבודה עם Python או SAS לצורך ניתוח סטטיסטי ופיתוח מודלים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8471406
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
לחברת סקיוריטי בעולם הרכב דרוש/ה Senior data Engineer
תיאור המשרה:
תכנון, בנייה ותחזוקה של פייפלייני נתונים סקיילביליים לטעינה ועיבוד של דאטה בBatch בData Lake, כולל תמיכה באנליטיקה ו-ML, תוך שמירה על איכות נתונים, ממשל (governance), תצפיות (observability) וCI/CD.
בנייה והרחבה של תשתית הנתונים הבסיסית data Lake, מנוע אנליטיקה, ומערכי Batch Processing.
יצירת תשתיות חזקות שיאפשרו פייפליינים אוטומטיים לטעינה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלים וטכנולוגיות קוד פתוח, Cloud-agnostic.
פיתוח ותחזוקת ארכיטקטורות ופריסות הData Lake לגישה יעילה לנתונים ולניתוחים מתקדמים.
בניית פלטפורמת הML ואוטומציה של מחזור חיי הML.
הובלת פרויקטי ML חוצי-ארגון מהיבט הנדסי.
פיתוח וניהול כלי אקטרציה, כלים לממשל נתונים, כלים לגילוי נתונים ועוד.
עבודה בשיתוף פעולה עם אדריכלי נתונים, אנליסטים ומדעני נתונים, לצורך בניית פתרונות מבוססי Use Cases המגדירים זרימות נתונים טכניות.
דרישות:
תואר ראשון במדעי המחשב, הנדסה או תחום רלוונטי
לפחות 5 שנות ניסיון בתכנון ובנייה של פייפלייני נתונים, כלים אנליטיים וData Lakes
לפחות 7 שנות ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכו)
ניסיון בטכנולוגיות data Engineering: כלים לETL ואורקסטרציה (כמו Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כמו Spark, Kafka, Presto)
ניסיון בעבודה עם Python חובה
ניסיון בעבודה עם מוצרים מבוססי קוד פתוח יתרון גדול
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כמו Kubernetes) יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439164
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בקבוצת Aman
מיקום המשרה: רמת גן
פיתוח ותחזוקה של תהליכים בסביבת ענן (Azure) עם DataBricks ו- DataFactory לעיבוד נתונים בקנה מידה גדול, אופטימיזציה של ביצועים וניהול נתונים בקבצי Parquet בענן.
עצמאות ועבודה שוטפת מול משתמשים.
קבלת הדרישה מהמשתמשים, כתיבת אפיונים טכניים וליווי הפיתוח כולל בדיקות, עלייה לייצור והטמעה מול המשתמשים.
הגדרת ממשקים מול מערכות בארגון ומחוצה לו
דרישות:
ניסיון של 3 שנים לפחות ב Python - חובה
ניסיון בכתיבת שאילתות SQL ברמה מורכבת - חובה
ניסיון בSpark - חובה
ניסיון בעבודה עם בסיסי נתונים גדולים, כולל אופטימיזציה של שאילתות - יתרון
ניסיון פיתוח בReact - יתרון
תואר ראשון במדעי המחשב - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8376478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל במרכז דרוש/ה data ENGINEER
התפקיד כולל ניהול תהליכי הסבת נתונים ממערכות המקור לבסיסי נתונים ו/או מאגרי אחסון בסביבת הענן.
הובלת תהליכי פיתוח, ניטור ובקרה על תהליכי עיבוד נתונים וניהול ממשקי עבודה מול הגורם העסקי
דרישות:
תואר ראשון במדעי המחשב / הנדסת תוכנה / תחום רלוונטי
מינימום 3 שנות ניסיון מוכח כ- data Engineer
היכרות עם כלי AWS: Glue, Lambda, EMR/Spark
היכרות עם כלי CI/CD: Jenkins / GitLab CI / GitHub Actions, Harness
אורקסטרציה: Apache Airflow (DAG design, XCom, pools)
שפות תכנות: JAVA / Python
יתרונות:
היכרות עם DB מבוססי ענן (PostgreSQL, DocumentDB, OpenSearch)
היכרות עם Apache Kafka
ניסיון בKubernetes / EKS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355779
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.

תחומי אחריות:

פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL) חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים

מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות
גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355699
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time and Hybrid work
We're hiring a data Engineer
Were looking for a data Engineer with solid experience building and maintaining large-scale data pipelines in the cloud.
Youll be joining a collaborative R D team working on cutting-edge SaaS products, with full ownership over data workflows, architecture and performance.
Requirements:
What were looking for:
2-3 years of experience in data engineering roles
Hands-on experience with Azure cloud services, especially data Factory, data Lake, and Databricks
Solid knowledge of Databricks, including Spark-based processing, notebook orchestration, and ML pipeline integration
Proficient in Python and SQL for data manipulation and automation
Experience with orchestration tools like Airflow
Familiarity with Docker, CI/CD, and working in cross-functional development teams
Youll work closely with data scientists, engineers and product teams to build data -driven features
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8302213
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
מיקום המשרה: ראשון לציון
מחלקת delivery בפלטפורמת הדאטה. עובדים בסביבת עבודה אגילית ודינמית, אנו מפתחים פתרונות BI מתקדמים ואיכותיים, המאפשרים ללקוחותינו העסקיים ברחבי הבנק לקבל החלטות מושכלות ומבוססות נתונים.

תחומי אחריות:
תכנון וביצוע בדיקות מקיפות על תהליכי ETL, טבלאות DWH ודוחות BI.
כתיבת מסמכי בדיקות מפורטים (STR, STD, STP ) בהתאם לסטנדרטים גבוהים.
איתור, ניתוח ופתרון תקלות נתונים, תוך הבנת שורש הבעיה והשלכותיה.
בדיקת איכות נתונים ממערכות מקור שונות, והשוואתם למקורות המידע המאוחדים.
השתתפות פעילה בתהליכי תכנון, פיתוח ובדיקות, תוך מתן משוב בונה וקידום פתרונות יצירתיים.
עבודה במתודולוגיית Agile דינמית, תוך שיתוף פעולה הדוק עם חברי הצוות.
דרישות:
ניסיון של לפחות שנתיים בבדיקות QA על תוצרי data או BI - חובה.
שליטה מעולה בשפת SQL ובכתיבת שאילתות מורכבות - חובה.
היכרות מעמיקה עם כלי ETL מובילים (Informatica, DataStage).
היכרות עם מערכות BI (Pyramid, Tableau) -
היכרות עם Database מורכב
יכולת עבודה עצמאית, יסודית וירידה לפרטים
תקשורת בינאישית מצוינת ויכולת עבודה אפקטיבית מול צוותים מגוונים
חיבור והבנה של עולם הדאטה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8498232
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בריקרוטיקס בע"מ
Location: More than one
Job Type: Full Time and Hybrid work
We are a pioneer company that integrates statistics modules and algorithms with a passion to sports, mainly soccer.
We are looking for a data analyst to join our research department. The data analyst function will support several stakeholders in our company.
As a part of your job you'll be:
Working with the research team and be the one to look and understand the bigger picture.
Learning the data gathering mechanism.
Face and solve business problems by analyzing data and provide insights to the business.
Develop complex logic flows to identify predefined events and generate desired insights.
Support the researchers on their projects.
Responsible for conducting both recurring and ad hoc analysis for business stake holders.
Research and integrate new tools and methods to enrich datasets.
Requirements:
A least 2 years of experience as a data Analyst - a must
High hands-on SQL skills ( SQL server ) - a must
R or Python programming skills- a must
Knowledge in statistics - a must
Interest in FinTech, Algo Trading - an advantage
Interest in sports (soccer in particular) - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8480663
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking a Mid to Senior Data Engineering Manager to join our Cloud Identity & Perimeter, a critical component of CrowdStrike's security infrastructure. Our team develops and maintains complex data pipelines that process billions of records daily, analyzing identity-related security patterns, effective permissions, internet exposure, and attack paths. We're at the forefront of securing enterprise identities and delivering actionable security insights at scale.

What You'll Do:

Lead and mentor a team of data engineers building high-performance data processing pipelines.

Define technical strategy and architecture for complex data transformations using Apache Spark.

Oversee development of real-time data streaming solutions using Kafka and scalable ETL processes.

Drive cross-functional collaboration with product, security research, and engineering teams to deliver high-impact security features.

Establish best practices for data modeling, query optimization, and storage patterns for large-scale distributed systems.

Manage team performance, including hiring, career development, and performance reviews.

Balance technical execution with strategic planning and resource allocation.

Champion operational excellence through code reviews, system monitoring, and continuous improvement initiatives.
Requirements:
What You'll Need:

5+ years of experience in data engineering with 2+ years in a technical leadership or management role.

Strong technical background in Go and/or Java with hands-on experience in big data technologies.

Proven experience managing and scaling engineering teams.

Deep expertise with distributed databases (Cassandra, Elasticsearch) and production-grade data pipeline architecture.

Track record of delivering complex data infrastructure projects on time.

Excellent communication skills - ability to translate technical concepts to non-technical stakeholders.

Strong leadership abilities including mentoring, conflict resolution, and team building.

BS/MS in Computer Science or related field, or equivalent experience.

Experience with cloud platforms (AWS, GCP, Azure).


Bonus Points:

Experience with identity and access management concepts or security analytics platforms.

Knowledge of security analytics and threat detection.

Contributions to open-source projects or technical community leadership.

Background in cybersecurity or security analytics.

Experience managing distributed or remote teams.

Prior experience at a high-growth technology company.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8520053
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Job Type: Full Time and Hybrid work
A fast-growing fintech AI start-up company, focused on eliminating fraud and chargebacks in online commerce, is looking for an experienced Senior Data Engineer.
In this Roll, you will build large-scale, cutting-edge data solutions for fraud prevention, with the potential to grow into a technical leadership role.
The company is located in Modi'in, central Israel. Hybrid work model.
Responsibilities
Build and maintain scalable data pipelines and ETL processes.
Design complex data models and optimize data architecture.
Collaborate with teams to deliver high-quality, compliant solutions.
Troubleshoot production issues and implement best practices.
Recommend new technologies to enhance the data infrastructure.
Requirements:
Must Haves:
5+ years in data engineering with strong Python & software engineering skills
Extensive experience with cloud platforms (AWS, GCP, Azure) and cloud-native architectures
Deep knowledge of relational (PostgreSQL) and NoSQL databases
Experience designing and implementing data warehouses and data lakes
Strong understanding of data modeling techniques
Expertise in data manipulation libraries (e.g., Pandas) and big data frameworks
Experience with data validation tools (Pydantic, Great Expectations)
Proficiency in writing and maintaining unit and integration tests (e.g., Pytest)
Nice to Haves / Advantage:
Apache Iceberg, Apache Spark, or modern data stack tools (DBT, DuckDB, Dagster, Airflow, Prefect)
Backend system design: RESTful APIs, microservices, event-driven systems, RabbitMQ, Kafka
Containerization & IaC: Docker, Kubernetes, Terraform
Stream processing: Kafka, Flink
Knowledge of compliance (GDPR, CCPA)
Mentoring or leading small teams
Excellent communication and ability to explain technical concepts clearly
Relevant cloud or data certifications.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8518234
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a Principal Data Engineer to join our Engineering team. This is a hybrid role based in Israel, reporting to the Senior Manager, Software Development Engineering. You will play a key role in designing, building, and maintaining the data pipelines that fuel business insights for the worlds largest cloud security platform. You will bring vision and passion to a team of experts enabling organizations worldwide to harness speed and agility through a cloud-first strategy.
What youll do (Role Expectations):
Design, develop, and implement scalable resilient data pipelines using Apache Spark, Databricks, and Delta Lake
Lead projects end-to-end through implementation, testing, deployment, and monitoring while collaborating with engineering teams across the organization
Research and investigate new SaaS platforms and APIs to uncover opportunities for new security detections
Optimize data infrastructure to ensure smooth operation, performance efficiency, and data integrity throughout the data lifecycle
Act as a force multiplier by mentoring senior engineers and setting high technical standards across the team.
Requirements:
Who You Are (Success Profile):
You thrive in ambiguity. You're comfortable building the path as you walk it. You thrive in a dynamic environment, seeing ambiguity not as a hindrance, but as the raw material to build something meaningful.
You act like an owner. Your passion for the mission fuels your bias for action. You operate with integrity because you genuinely care about the outcome. True ownership involves leveraging dynamic range: the ability to navigate seamlessly between high-level strategy and hands-on execution.
You are a problem-solver. You love running towards the challenges because you are laser-focused on finding the solution, knowing that solving the hard problems delivers the biggest impact.
You are a high-trust collaborator. You are ambitious for the team, not just yourself. You embrace our challenge culture by giving and receiving ongoing feedback-knowing that candor delivered with clarity and respect is the truest form of teamwork and the fastest way to earn trust.
You are a learner. You have a true growth mindset and are obsessed with your own development, actively seeking feedback to become a better partner and a stronger teammate. You love what you do and you do it with purpose.
What Were Looking for (Minimum Qualifications):
7+ years of experience in data engineering with a proven track record of designing and building large-scale data systems
Demonstrated mastery of Apache Spark (PySpark preferred) and a deep architectural understanding of distributed data processing frameworks
Expert-level proficiency in SQL, data modeling, and the principles of modern data warehousing and data lake architecture
What Will Make You Stand Out (Preferred Qualifications):
Direct experience working in cybersecurity, threat intelligence, or a related security-focused domain
Proven experience building production-grade data solutions specifically using Databricks
A security-first mindset and a strong curiosity for understanding how systems can be monitored and secured.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8515641
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/01/2026
Location: Ra'anana
Job Type: Full Time and Hybrid work
Required Senior Data Engineer
Full-time
Company Description
A dynamic technology firm dedicated to building exceptional products using modern technologies for the world's most admired companies. We pride ourselves on innovation, collaboration, and delivering excellence in every project.
Job Description
Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.
Additional Information
Location: Ra'anana
Start Date: Immediate.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8510219
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking an outstanding and passionate Data Platform Engineer to join our growing R&D team.

You will work in an energetic startup environment following Agile concepts and methodologies. Joining the company at this unique and exciting stage in our growth journey creates an exceptional opportunity to take part in shaping our data infrastructure at the forefront of Fintech and AI.

What you'll do:

Design, build, and maintain scalable data pipelines and ETL processes for our financial data platform.

Develop and optimize data infrastructure to support real-time analytics and reporting.

Implement data governance, security, and privacy controls to ensure data quality and compliance.

Create and maintain documentation for data platforms and processes.

Collaborate with data scientists and analysts to deliver actionable insights to our customers.

Troubleshoot and resolve data infrastructure issues efficiently.

Monitor system performance and implement optimizations.

Stay current with emerging technologies and implement innovative solutions.
Requirements:
What you'll bring:

3+ years experience in data engineering or platform engineering roles.

Strong programming skills in Python and SQL.

Experience with orchestration platforms like Airflow/Dagster/Temporal.

Experience with MPPs like Snowflake/Redshift/Databricks.

Hands-on experience with cloud platforms (AWS) and their data services.

Understanding of data modeling, data warehousing, and data lake concepts.

Ability to optimize data infrastructure for performance and reliability.

Experience working with containerization (Docker) in Kubernetes environments.

Familiarity with CI/CD concepts.

Fluent in English, both written and verbal.

And it would be great if you have (optional):

Experience with big data processing frameworks (Apache Spark, Hadoop).

Experience with stream processing technologies (Flink, Kafka, Kinesis).

Knowledge of infrastructure as code (Terraform).

Experience building analytics platforms.

Experience building clickstream pipelines.

Familiarity with machine learning workflows and MLOps.

Experience working in a startup environment or fintech industry.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509718
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
Job Type: Full Time and Hybrid work
SQL & data Engineer | Direct employment from day one!
Join a successful, fast-growing Med-Tech startup making a real impact in the healthcare world!
Were looking for a hands-on SQL expert to own our data environment and fuel our growth. This is a unique opportunity to join a scaling success story while enjoying a flexible hybrid model with 3 days of working from home. WHAT YOULL DO
Work directly with messy, production SQL server data
Write and optimize complex SQL (CTEs, window functions, performance tuning)
Manage backups, reliability, and data integrity for SQL
Build Python pipelines to extract, clean, and transform data
Design and maintain MongoDB collections used for analytics and reporting
Support BI tools and internal reports with clean, reliable datasets
Partner closely with product and operations on real business questions.
Requirements:
MUST-HAVE REQUIREMENTS
At least 4 years of strong SQL server experience (core requirement)
Experience working with legacy or imperfect schemas Python for data processing and automation
Practical experience with MongoDB (modeling, indexing, querying)
Excellent English communication skills
Comfortable working hands-on in a fast-moving startup environment
NICE TO HAVE (ADVANTAGES)
BI tools (Power BI, Looker, Tableau, etc.).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8500627
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a Senior Data Engineer to join our Platform group in the Data Infrastructure team.
Youll work hands-on to design and deliver data pipelines, distributed storage, and streaming services that keep our data platform performant and reliable. As a senior individual contributor you will lead complex projects within the team, raise the bar on engineering best-practices, and mentor mid-level engineers - while collaborating closely with product, DevOps and analytics stakeholders.
About the Platform group
The Platform Group accelerates our productivity by providing developers with tools, frameworks, and infrastructure services. We design, build, and maintain critical production systems, ensuring our platform can scale reliably. We also introduce new engineering capabilities to enhance our development process. As part of this group, youll help shape the technical foundation that supports our entire engineering team.
Code & ship production-grade services, pipelines and data models that meet performance, reliability and security goals
Lead design and delivery of team-level projects - from RFC through rollout and operational hand-off
Improve system observability, testing and incident response processes for the data stack
Partner with Staff Engineers and Tech Leads on architecture reviews and platform-wide standards
Mentor junior and mid-level engineers, fostering a culture of quality, ownership and continuous improvement
Stay current with evolving data-engineering tools and bring pragmatic innovations into the team.
Requirements:
5+ years of hands-on experience in backend or data engineering, including 2+ years at a senior level delivering production systems
Strong coding skills in Python, Kotlin, Java or Scala with emphasis on clean, testable, production-ready code
Proven track record designing, building and operating distributed data pipelines and storage (batch or streaming)
Deep experience with relational databases (PostgreSQL preferred) and working knowledge of at least one NoSQL or columnar/analytical store (e.g. SingleStore, ClickHouse, Redshift, BigQuery)
Solid hands-on experience with event-streaming platforms such as Apache Kafka
Familiarity with data-orchestration frameworks such as Airflow
Comfortable with modern CI/CD, observability and infrastructure-as-code practices in a cloud environment (AWS, GCP or Azure)
Ability to break down complex problems, communicate trade-offs clearly, and collaborate effectively with engineers and product partners
Bonus Skills
Experience building data governance or security/compliance-aware data platforms
Familiarity with Kubernetes, Docker, and infrastructure-as-code tools
Experience with data quality frameworks, lineage, or metadata tooling.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8499899
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
06/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are seeking a highly motivated and experienced BI & Data Engineer to join our fast-growing Data team. Reporting to our Development Team Leader. You will be supporting the team on all Data, pipelines and reports. Help turn raw data into business insights. Managing and designing BI solutions, including ETL processes, Data modeling and reporting. Our BI & data Developer would also enjoy our future data technological stack like: Airflow, DBT, Kafka streaming, AWS/Azure, Python, Advanced ETL tools and more.
Responsibilities:
Gathering requirements from internal customers and designing and planning BI solutions.
Develop and maintain ETL/ELT pipelines using Airflow for orchestration and DBT for transformation
Design and optimize data models, ensuring performance, scalability, and cost efficiency.
Collaborate with BI developers, analysts, AI agents, and product teams to deliver reliable datasets for reporting and advanced analytics.
Development in various BI and big data tools according to R&D methodologies and best practices
Maintain and manage production platforms.
Requirements:
5+ years experience working as a BI Developer or as a Data Engineer
Highly skilled with SQL and building ETL workflows - Mandatory
2+ years Experience in Python - Mandatory.
Experience developing in ETL tools like SSIS or Informatica - Mandatory
2+ years experience with Airflow & DBT - Mandatory
Experience developing data integration processes, DWH, and data models.
Experience with columnar DB and working with Pipelines and streaming data (SingleStore/Snowflake) - advantage.
Experience working with BI reporting tools (Power BI, Tableau, SSRS, or other)
Experience with cloud-based products (AWS, Azure) - advantage.
Enhance operational efficiency and product innovation using AI (co-pilot/cursor AI)
Preferred Qualifications:
Familiarity with CI/CD pipelines, containerization (Docker), and orchestration (Kubernetes)
Experience with Git (or other source control)
Familiarity with AI Agents and Models to improve reliability and Data Integrity
Experience in Kafka is an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8490189
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
we are looking for a Product Owner -Software Engineer.
As a Product Owner / Developer, you will play a dual role - defining business and product requirements while contributing directly to the technical delivery. Youll partner with collaborators across engineering, data, and business teams to translate goals into actionable roadmaps and measurable results.
Key Responsibilities:
Gather and define requirements aligned with strategic business goals and customer value.
Help the team leaders maintain and prioritize the product backlog, ensuring clarity, transparency, and focus on impact.
Collaborate with engineering teams to design and build scalable data and automation solutions (50%+ of the time)
Contribute to development, testing, and deployment of modern data pipelines using Apache Airflow, Apache Spark, and AWS cloud services (ECS, Lambda, Glue, S3).
Balance short-term delivery objectives with long-term technical vision.
Track and communicate key performance metrics that demonstrate business outcomes.
Requirements:
5+ years of professional experience in software engineering, data engineering, or product ownership roles.
Strong development experience with Python or Golang (both - advantage).
Demonstrated ability to translate business requirements into technical roadmaps and deliverables.
Experience working in Agile/Scrum environments and managing product backlogs.
Experience with orchestration and containerization (Kubernetes, Docker).
Familiarity with Linux and cloud infrastructure (especially AWS).
Preferred Qualifications:
Bachelors or masters degree in computer science, Engineering, or related field.
Familiarity with data warehousing and modern data stack technologies.
Proven hands-on experience with Apache Airflow, and Apache Spark.
Knowledge of message queues and real-time systems (RabbitMQ, Redis, Kinesis).
Knowledge of DevOps and CI/CD tools.
Strong stakeholder management and communication skills.
Ability to balance technical depth with strategic vision.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8479924
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
28/12/2025
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking a Data Engineer to architect and develop sophisticated data solutions using advanced Spark, PySpark, Databricks and EMR implementations in our mission to transform the cyber-security breach readiness and response market.

Join us in crafting cutting-edge solutions for the cyber world using Spark/PySpark ETLs and data flow processes. Dive into the realm of multi-Cloud environments while collaborating closely with investigators to fine-tune PySpark performance. Harness the power of top-notch technologies like Databricks to elevate our technical projects, scaling them for efficiency. Embrace innovation as you research and implement new techniques. Evolve with us as a key member of the R&D team.

Technical Impact:
Design and implement complex data processing architectures for cloud security analysis.
Optimize and scale critical PySpark workflows across multi-cloud environments.
Develop innovative solutions for processing and analyzing massive security datasets.
Drive technical excellence through sophisticated ETL implementations.
Contribute to architectural decisions and technical direction.

Core Responsibilities:
Build robust, scalable data pipelines for security event processing.
Optimize performance of large-scale PySpark operations.
Implement advanced data solutions using Databricks and cloud-native technologies.
Research and prototype new data processing methodologies.
Provide technical guidance and best practices for data engineering initiatives.

Location: Tel Aviv, IL.
Hybrid work environment.
Requirements:
Preferred Qualifications:
Experience with security-focused data solutions.
Deep expertise with Splunk and AWS services (S3, SQS, SNS, Stream).
Advanced understanding of distributed systems.
Strong Linux systems knowledge.
Experience with real-time data processing architectures.

Who You Are:
4+ years of hands-on data engineering experience in cloud-based SaaS environments.
Deep expertise in PySpark, Python, and SQL optimization.
Advanced knowledge of AWS, Azure, and GCP cloud architectures.
Proven track record implementing production-scale data systems.
Extensive experience with distributed computing and big data processing.
Strong collaboration skills and technical communication abilities.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8476340
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
23/12/2025
Location: Herzliya
Job Type: Full Time and Hybrid work
we are looking for a Data Engineer
We work in a flexible, hybrid model, so you can choose the home-office balance that works best for you.
Responsibilities
Design, build, and maintain scalable ETL/ELT pipelines to integrate data from diverse sources, optimizing for performance and cost efficiency.
Leverage Databricks and other modern data platforms to manage, transform, and process data
Collaborate with software teams to understand data needs and ensure data solutions meet business requirements.
Optimize data processing workflows for performance and scalability.
Requirements:
3+ years of experience in Data Engineering, including cloud-based data solutions.
Proven expertise in implementing large-scale data solutions.
Proficiency in Python, PySpark.
Experience with ETL / ELT processes.
Experience with cloud and technologies such as Databricks (Apache Spark).
Strong analytical and problem-solving skills, with the ability to evaluate and interpret complex data.
Experience leading and designing data solutions end-to-end, integrating with multiple teams, and driving tasks to completion.
Advantages
Familiarity with either On-premise or Cloud storage systems
Excellent communication and collaboration skills, with the ability to work effectively in a multidisciplinary team.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8470043
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו