רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים בOne DatAI
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
A leading company is looking for a Mid-Senior BI Developer to join a strong and dynamic BI team.


The team is responsible for delivering end-to-end BI solutions across the organization, transforming data into actionable insights and enabling data -driven decision-making at scale.


This role involves working with a wide range of technologies in both Cloud and On-Prem environments, supporting thousands of users.

?? Responsibilities

* Lead end-to-end BI projects - from business requirements gathering, through design and ETL / data preparation, to dashboard development, testing, and deployment
* Work in a hybrid environment combining Cloud and On-Prem tools and services
* Develop using tools such as Power BI, Qlik (View & Sense), Power Apps, and Semantic Layers
* Collaborate closely with business stakeholders to translate requirements into data models, reports, dashboards, and KPI's
Requirements:
?? Requirements


* B.Sc in Computer Science, Industrial Engineering, Information Systems, or a related field
* 4+ years of hands-on experience in BI development (including ETL and dashboard development)
* Strong experience with Power BI - (Must)
* Expert-level SQL - Must
* Experience working with data Warehouses ( DWH ) - Must


?


? Advantages


* Experience with Qlik
* Experience with Cloud environments
* Experience with ETL tools
* Knowledge of Python and/or Splunk
* Experience working with Agile methodologies
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8639916
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 13 שעות
דרושים בOne DatAI
מיקום המשרה: שוהם
בתפקיד זה תהיה לך הזדמנות להוביל את פיתוח מוצרי הדאטה של הארגון - החל מניתוח הצורך העסקי, דרך פיתוח תהליכי עיבוד דאטה בסביבת Databricks,  ועד יצירת שכבות נתונים ופתרונות  BI  שמונגשים לביזנס בPowerBI
תחומי אחריות:
פיתוח מקצה לקצה של  data Products  ופתרונות דאטה עבור יחידות עסקיות שונות
הבנה ותרגום של צרכים עסקיים לתהליכי דאטה ישימים - כולל אפיון לוגיקות עסקיות, מודלים אנליטיים, תמיכה שוטפת ועובדה מול גורמים שונים בחברה
פיתוח תהליכי עיבוד נתונים ( ETL /ELT) בסביבת Databricks / PySpark על בסיס מקורות דאטה קיימים
יצירת שכבות נתונים אנליטיות ו?semantic layers עבור  BI  ומערכות תפעוליות
עבודה צמודה עם   data Engineering לשדרוג תהליכים קיימים והתאמתם לצרכים עסקיים
פיתוח דוחות ודשבורדים ב? Power BI
אחריות על איכות, דיוק, זמינות ותיעוד תהליכי הדאטה והמוצרים
זיהוי הזדמנויות לייעול ואוטומציה של תהליכים עסקיים באמצעות דאטה
הובלת ביקורות ושיפורים במוצרי הדאטה לאורך מחזור חייהם
דרישות:
דרישות תפקיד

2-4 שנות ניסיון בפיתוח פתרונות דאטה   BI / data Product / data Analyst
ניסיון מעשי ב?SQL  ברמה גבוהה - חובה
ניסיון מעשי ב? Python   אוPySpark   - חובה
הבנה טובה בפיתוח מודלים ו?semantic layers ל?Power BI  - חובה
ניסיון בעבודה מול משתמשים עסקיים ואפיון צרכים -  חובה
ניסיון מוכח ב  Databricks  -  יתרון משמעותי
ניסיון בעבודה עם Microsoft Azure - - יתרון משמעותי
הבנה עסקית במוצרי צריכה FMCG - יתרון
אנגלית ברמה גבוהה - קריאה, כתיבה ודיבור המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628715
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
מיקום המשרה: רמלה
למערך טכנולוגי מוביל בענף אגמים (פיקוד העורף), דרוש/ה data Engineer להשתלבות בצוות ליבה בפרויקט בעל חשיבות לאומית.
התפקיד כולל עבודה Hands-on מקצה לקצה על תשתיות נתונים - החל משלב ה-Ingestion ממקורות מגוונים, דרך פיתוח וניהול תהליכי ETL /ELT ועד תכנון והקמה של data Warehouse ( DWH ) מתקדם.
העבודה מתבצעת בסביבה טכנולוגית מתקדמת וברשתות מסווגות, תוך שימוש בכלים מודרניים והשפעה ישירה על פרויקטים משמעותיים.
משרה מלאה, ללא היברדיות ברמלה.
דרישות:
לפחות שנתיים ניסיון כ- data Engineer (גם ג'וניור עם ניסיון מעשי) - חובה.
ניסיון בעבודה עם Airflow ו-Azure data Factory - חובה.
ניסיון בתהליכי Ingestion ובניית DWH - חובה.
שליטה גבוהה ב-SQL - חובה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589963
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.
This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
35 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS-based data technologies.

Experience in building and maintaining advanced data pipelines from various data sources.

Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI, Tableau.
Experience with scripting/coding languages such as Python.
Ability to work independently, with attention to detail and strong initiative.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8629743
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: ירושלים
אנחנו מחפשים מפתח/ת data Science עם חשיבה אנליטית ויכולת פיתוח, להצטרפות לצוות טכנולוגי מתקדם ודינאמי.

מה בתפקיד?
פיתוח ויישום מודלים סטטיסטיים ומתמטיים
בניית אלגוריתמים ופתרונות מבוססי data
עבודה עם Big Data והטמעת מודלים בסביבות ייצור
פיתוח API ושילוב מודלים במערכות הארגון
עבודה מול צוותי מוצר, דאטה, DevOps ומהנדסי נתונים
ביצוע ניסויים, אופטימיזציה והערכת ביצועים

תפקיד שמשלב פיתוח אמיתי של מוצרים חכמים, עבודה עם טכנולוגיות מתקדמות והשפעה ישירה על פתרונות ארגוניים.
תנאים מצוינים למתאימים/ות!
דרישות:
לפחות 3 שנות ניסיון בתפקידי דאטה, כולל שנה ב- data Science
ניסיון חזק ב- Python
ניסיון עם ספריות ML/AI (כגון scikit-learn, TensorFlow, PyTorch)
ניסיון בעבודה עם בסיסי נתונים (SQL ועוד)
ניסיון בסביבות ענן ו-On-Premise
יכולת עבודה עצמאית ולמידה מהירה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621313
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 15 שעות
דרושים בקבוצת Aman
מיקום המשרה: רמת גן
פיתוח ותחזוקה של תהליכים בסביבת ענן (Azure) עם DataBricks ו- DataFactory לעיבוד נתונים בקנה מידה גדול, אופטימיזציה של ביצועים וניהול נתונים בקבצי Parquet בענן.
עצמאות ועבודה שוטפת מול משתמשים.
קבלת הדרישה מהמשתמשים, כתיבת אפיונים טכניים וליווי הפיתוח כולל בדיקות, עלייה לייצור והטמעה מול המשתמשים.
הגדרת ממשקים מול מערכות בארגון ומחוצה לו
דרישות:
ניסיון של 3 שנים לפחות ב Python - חובה
ניסיון בכתיבת שאילתות SQL ברמה מורכבת - חובה
ניסיון בSpark - חובה
ניסיון בעבודה עם בסיסי נתונים גדולים, כולל אופטימיזציה של שאילתות - יתרון
ניסיון פיתוח בReact - יתרון
תואר ראשון במדעי המחשב - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8376478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 15 שעות
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: ירושלים
הצטרפו לפרויקט לאומי פורץ דרך!

מחפש/ת תפקיד עם משמעות אמיתית? זה הזמן לקחת חלק בהקמה ותפעול של מערכת קריטית ברמה הלאומית.
מה בתפקיד?
פיתוח, הקמה ותפעול של מערכת מידע מתקדמת
עבודה עם דאטה מורכב וניתוח נתוני נוסעים
שיתוף פעולה עם צוותי תשתיות, סייבר, אינטגרציה ודאטה
השתלבות בפרויקט טכנולוגי רחב היקף עם השפעה ביטחונית ואזרחית
דרישות:
ניסיון בפיתוח ותפעול תשתיות דאטה ( data Engineering)
ניסיון בעבודה עם Big Data ועיבוד נתונים בהיקפים גדולים
ניסיון בפיתוח תהליכי ETL / data Pipelines
עבודה עם מסדי נתונים רלציוניים ולא רלציוניים
היכרות עם כלי אינטגרציה ועבודה בסביבה מרובת ממשקים
יכולת עבודה בצוות וראייה מערכתית
נכונות לעבודה בשעות נוספות וכוננויות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621407
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 16 שעות
דרושים בG-NESS
מיקום המשרה: רמת גן
מחפשים data Engineer מנוסה ומוכשר/ת להשתלבות בפרויקט משמעותי של טרנספורמציה דיגיטלית והעברת מאגרי מידע ארגוניים לסביבת הענן של Google Cloud Platform (GCP)
התפקיד כולל פיתוח פתרונות data מתקדמים, עבודה עם כלי ETL /ELT תכנון ארכיטקטורת נתונים מודרנית והובלת תהליכי Migration מורכבים בארגון ממשלתי גדול ויציב
תיאור התפקיד
הובלת תהליכי Migration והעברת מאגרי נתונים ממערכות On-Prem לסביבת GCP
תכנון ופיתוח שכבות נתונים Silver Gold בתוך BigQuery
פיתוח תהליכי ETL /ELT ויישום לוגיקה עסקית מורכבת
פיתוח ותחזוקת Pipelines ותהליכי Orchestration באמצעות Cloud Composer / Apache Airflow
פיתוח טרנספורמציות וטיוב נתונים באמצעות Dataform
ביצוע ניקוי, איחוד ושיפור איכות הנתונים ( data Quality)
כתיבת שאילתות SQL מורכבות ואופטימיזציה לביצועים ועלויות ב -BigQuery
דרישות:
לפחות 4 שנות ניסיון
ניסיון משמעותי בפיתוח והטמעה בסביבת GCP - חובה
שליטה גבוהה ב- Python לצורך פיתוח ETL /ELT וטרנספורמציות נתונים
ניסיון עם כלי Orchestration כגון Apache Airflow / Cloud Composer
היכרות עם Git ותהליכי CI/CD המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8648974
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 18 שעות
דרושים בTechTalent
ארגון מוצר מתקדם מעולמות ה-Fintech מגייס data Engineer בכיר/ה להשתלבות במערך טכנולוגי מוביל.
הזדמנות לקחת חלק בפיתוח פתרונות data מתקדמים בסביבה חדשנית ובקבוצה מקצועית בחזית הטכנולוגיה.

תחומי אחריות:
תכנון ובנייה של פתרונות data מתקדמים
עבודה Hands-on בפיתוח באמצעות Python
שימוש והטמעה של תהליכי data Pipelines תוך עבודה עם Airflow
עבודה עם כלים מתקדמים בעולמות ה- data
שיתוף פעולה עם ממשקים טכנולוגיים כחלק מצוות מוביל
דרישות:
תואר ראשון בתחום טכנולוגי
לפחות 6 שנות ניסיון בעולמות ה- data
ניסיון מעשי בפיתוח ב- Python
ניסיון בעבודה עם Airflow
ניסיון בכלי data נוספים
אנגלית ברמה גבוהה מאוד
רקע קודם בפיתוח backend - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 18 שעות
דרושים בOne DatAI
Location: Lod
?? Were Hiring: data Infrastructure Expert / DBA

We are looking for an experienced DBA / data Infrastructure Expert to join a dynamic and professional team.
This role involves working with advanced data systems, cloud environments, and leading end-to-end projects.

?? Responsibilities
        Manage and optimize databases, including cloud-based environments
        Design, implement, and maintain database architectures
        Handle access control, performance tuning, and ongoing maintenance
        Support projects, troubleshoot issues, and provide architectural/infrastructure consulting
        Research and implement new technologies in the data ecosystem, with a focus on AWS
Requirements:
? Requirements
        At least 3 years of experience working in Linux based systems - A must
        Hands-on experience with at least one of the following: PostgreSQL / MySQL / MongoDB / Kafka - A Must
        Experience with data streaming technologies (e.g., Kafka) - advantage
        Experience working in AWS enviroment - advantage
        Availability for on-call / off-hours support when needed (excluding weekends/holidays) - Must

?? Soft Skills
        Strong self-learning ability
        Excellent interpersonal and service skills
        Availability outside standard working hours
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8635335
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בOne DatAI
Location: Ramat Gan and Petah Tikva
Job Type: Full Time and Hybrid work
What youll do:
Lead design and delivery of enterprise data platforms
Own end-to-end pipelines from ingestion to serving
Architect scalable lakehouse solutions on Databricks
Drive best practices across Spark, Python, and SQL
Lead and mentor data engineers across projects
Work closely with stakeholders to define solutions
Optimize performance, cost, and reliability of pipelines
Implement data governance, quality, and monitoring
Requirements:
What were looking for:
5+ years of experience as a data Engineer
Proven experience leading large data projects
Strong hands-on experience with Databricks (must)
Deep knowledge of Spark, Python, and SQL
Experience designing lakehouse architectures
Strong understanding of batch and streaming pipelines
Experience with data modeling and large-scale data processing
Ability to translate business needs into technical solutions
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8614034
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בריקרוטיקס בע"מ
Location: More than one
Job Type: Full Time and Hybrid work
We are a pioneer company that integrates statistics modules and algorithms with a passion to sports, mainly soccer.
We are looking for a data analyst to join our research department. The data analyst function will support several stakeholders in our company.
As a part of your job you'll be:
Working with the research team and be the one to look and understand the bigger picture.
Learning the data gathering mechanism.
Face and solve business problems by analyzing data and provide insights to the business.
Develop complex logic flows to identify predefined events and generate desired insights.
Support the researchers on their projects.
Responsible for conducting both recurring and ad hoc analysis for business stake holders.
Research and integrate new tools and methods to enrich datasets.
Requirements:
A least 2 years of experience as a data Analyst - a must
High hands-on SQL skills ( SQL server ) - a must
R or Python programming skills- a must
Knowledge in statistics - a must
Interest in FinTech, Algo Trading - an advantage
Interest in sports (soccer in particular) - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8645912
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בפרוסיד
אנחנו ב-Proceed מחפשים ארכיטקט/ית data AI לתפקיד בכיר ומשמעותי, עם אחריות על עיצוב והובלת פתרונות דאטה ו-AI עבור לקוחות אנטרפרייז מהמובילים במשק.
התפקיד מתאים למי שמביא/ה עומק טכנולוגי אמיתי, חשיבה עסקית ויכולת להוביל פתרונות מורכבים מקצה לקצה.

במסגרת התפקיד:

הובלת ארכיטקטורת data AI מבוססת AWS
תכנון והקמה של פלטפורמות דאטה מודרניות בענן
הובלת פרויקטי AI ו-GenAI משלב ה-Design ועד יישום בפועל
בנייה והובלה של data Pipelines ותהליכי ETL /ELT
עבודה עם מחסני נתונים מודרניים בענן
תרגום צרכים עסקיים לפתרונות טכנולוגיים
הצגת פתרונות ללקוחות, מנהלים ו-Stakeholders
עבודה מול לקוחות אנטרפרייז וארגונים גדולים ומורכבים
דרישות:
דרישות מרכזיות:
ניסיון משמעותי כארכיטקט/ית data / AI / Cloud או data Engineer בכיר/ה- חובה
מומחיות Hands-on בסביבת AWS- חובה
ניסיון מעשי בהקמת פרויקטי data - חובה
ניסיון בתכנון data Platforms וארכיטקטורות דאטה מודרניות- חובה
ניסיון עם data Pipelines, ETL /ELT ומחסני נתונים בענן- חובה
שליטה טובה ב-SQL ו- Python - חובה
יכולת הצגת נושאים טכנולוגיים וחשיבה עסקית- יתרון משמעותי
יכולת עבודה מול לקוחות אנטרפרייז / ארגונים גדולים- יתרון

מי אנחנו מחפשים?
איש מקצוע בכיר/ה עם שילוב של עומק טכנולוגי, ראייה ארכיטקטונית ויכולת עסקית. מישהו/י שיודע/ת לקחת צורך מורכב, לבנות סביבו פתרון נכון ולהוביל אותו מול לקוחות גדולים, ממשקים מרובים וסביבה טכנולוגית מתקדמת. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8637952
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים במלם תים
מיקום המשרה: מודיעין מכבים רעות
ארגון מוביל בתחום הבריאות מחפש מפתח/ת BI מנוסה להשתלבות בצוות דאטה מקצועי, לעבודה עם טכנולוגיות מתקדמות והשפעה ישירה על תהליכי קבלת החלטות בארגון
אם יש לך תשוקה לדאטה, יכולת פיתוח תהליכים מורכבים ורצון להשפיע על עתיד הרפואה בישראל מקומך איתנו!

מה בתפקיד?
פיתוח תהליכי ETL /ELT מורכבים מקצה לקצה בסביבת DWH מודרנית, תוך עבודה בארכיטקטורת Medallion (Bronze, Silver, Gold).
התפקיד כולל אפיון צרכים עסקיים מול גורמים שונים בארגון ותרגומם לפתרונות BI ודאטה, בניית מודלים אנליטיים ושכבות נתונים, ופיתוח דשבורדים מתקדמים.
בנוסף, עבודה הכוללת תחקור נתונים מעמיק (Deep Dive), אופטימיזציה של תהליכים קיימים ופיתוח פתרונות חדשים, תוך מעבר מניתוח תיאורי לניתוח סיבתי וחיזוי מגמות.
דרישות:
- ניסיון של 4+ שנים בפיתוח BI, כולל עבודה בסביבות DWH
- שליטה גבוהה מאוד ב-SQL כולל שאילתות מורכבות, פרוצדורות
- ניסיון בפיתוח תהליכי ETL /ELT (Batch ו-Streaming) עם כלים כגון dbt / Informatica / Python וכתיבת APIs
- הבנה מעמיקה ב- data Modelling וארכיטקטורת DWH, כולל עבודה עם Snowflake ו/או Microsoft Fabric
- ניסיון בפיתוח דשבורדים (Power BI / Business Objects) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8608514
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are at a pivotal stage in building and scaling our data domain, and we are looking for a Data Engineer to join our growing BI team. This role goes beyond building pipelines. You will help shape our data platform as a shared product - supporting analytics, reporting, and decision-making across key company data domains such as Product, Sales, HR, and others. Your work will directly influence how stakeholders interact with data today and how the platform evolves in the years ahead.

What Youll Be Doing
Architect & Own: Lead the design and development of scalable data warehouse and BI solutions. You will make early-stage architectural decisions and own their long-term impact.
Infrastructure as a Product: Build core data infrastructure and developer experiences that others rely on, ensuring high availability and system reliability.
End-to-End ELT/ETL: Solve complex integration problems by sourcing data from structured and unstructured sources using Rivery, Python, and optimal ETL patterns.
Data Quality & Governance: Implement frameworks for schema evolution, anomaly detection, and data freshness. You will determine security models based on privacy requirements and evolve governance processes.
Strategic Collaboration: Partner with Engineers, Product Managers, and Data Analysts to conceptualize data needs and represent key insights in a meaningful way.
Optimization: Assist in owning production processes, optimizing complex code through advanced algorithmic concepts to manage operational cost-benefit tradeoffs.
Requirements:
Experience: 5+ years of experience in Data Engineering, Infrastructure, or Platform Engineering (ideally in organizations operating at a meaningful scale).
Technical Mastery: 5+ years of hands-on experience with Python and SQL. Deep proficiency in data modeling (Star/Snowflake schema) and DWH methodologies.
Cloud & Tools: Proven experience with Snowflake and AWS. Familiarity with Rivery or similar orchestration tools (like DBT) is a major advantage.
Production-First Mindset: Track record of leading data initiatives end-to-end from design and building to shipping and operating production flows.
Analytical Rigor: Ability to triage issues, resolve data quality problems, and design systems that handle system complexity with ease.
Education: Bachelors degree in Computer Science, Computer Engineering, or a relevant technical field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8643675
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
one of the world's most impactful shopping recommendation companies, is searching for a talented Data Engineer to join our innovative team. For the past decade, we've served tens of millions of users globally, and we're looking for a passionate individual to help us continue our journey of making an impact.
What You'll Own:
Data Infrastructure
Build and operate data pipelines on GCP using Cloud Workflows, Cloud Functions, Cloud Scheduler, and BigQuery.
Create, Transform and Manage Datasets (Python, DBT,..)
Design and implement API integrations to pull data from affiliate networks, ad platforms, and internal services.
Ensure pipeline reliability, observability (monitoring, alerting, SLA management), and scalability.
Data Quality & Trust
Implement tests, freshness checks, and anomaly detection across all critical models.
Lead incident triage and root-cause analysis when data issues arise; build systems that catch problems before stakeholders do.
Maintain clear documentation of data contracts, schema definitions, and transformation logic.
ML & Data Science Collaboration
Work hand-in-hand with Data Scientists building ML models - ensuring feature tables, training datasets, and inference pipelines are clean and reproducible.
Build the data layer that feeds ML model training and evaluation, including feature stores and labeled datasets.
Requirements:
3-5+ years of Data Engineering or Backend Engineering experience with clear delivery in production systems.
Bachelor's (or higher) in Computer Science, Engineering, Mathematics, or a quantitative field (or equivalent background).
Strong Python skills: writing production-grade ETL/pipeline code, not just scripts.
SQL proficiency: complex window functions, CTEs, query optimization, and BigQuery-flavored SQL.
dbt: modeling patterns, incremental strategies, testing, and documentation.
GCP: hands-on experience with BigQuery, Cloud Functions, Cloud Workflows, or Cloud Scheduler (or equivalent cloud stack with willingness to ramp up quickly).
API integrations: building robust data ingestion from REST APIs with retries, pagination, and error handling.
Data quality mindset: you think about freshness, schema drift, nulls, and SLA before you're asked.
Nice‑to‑Haves:
Experience with affiliate marketing data (Amazon Associates, CJ, Impact, etc.) or ad platform APIs (Meta, Google Ads).
Familiarity with ML pipelines: feature engineering, training data prep, or serving infrastructure.
Event-driven architectures: Pub/Sub, Cloud Run, or equivalent.
Node.js: light scripting or serverless functions (our codebase is primarily Python, with occasional Node).
Version control and CI/CD: Git workflows, automated testing, and deployment pipelines.
Let's evolve together! If you're ready for a role where you can truly make a difference, apply now.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8631103
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
19/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking a Mid to Senior Data Engineer to join our Cloud Identity & Perimeter, a critical component of CrowdStrike's security infrastructure. Our team develops and maintains complex data pipelines that process billions of records daily, analyzing identity-related security patterns, effective permissions, internet exposure, and attack paths. We're at the forefront of securing enterprise identities and delivering actionable security insights at scale.

What You'll Do:

Design and implement high-performance, distributed data processing pipelines handling petabytes of security data.

Architect complex data transformations using Apache Spark for large-scale batch and stream processing.

Be part of shaping new products while collaborating with product teams, customers, and sales.

Build and optimize real-time data streaming solutions using Kafka for identity analytics.

Develop and maintain scalable ETL processes that handle billions of daily events.

Create efficient data models for complex security analytics queries.

Collaborate with cross-functional teams to deliver high-impact security features.

Optimize query performance and data storage patterns for large-scale distributed systems.

Participate in system design discussions and architectural decisions.
Requirements:
What You'll Need:

5+ years of experience in data engineering or similar roles.

Strong programming skills in Go and/or Java.

Extensive experience with big data technologies (Apache Spark, Kafka).

Proven track record working with distributed databases (Cassandra, Elasticsearch).

Experience building and maintaining production-grade data pipelines.

Strong understanding of data modeling and optimization techniques.

Excellent problem-solving skills and attention to detail.

BS/MS in Computer Science or related field, or equivalent experience.


Bonus Points:

Experience with identity and access management concepts.

Knowledge of security analytics and threat detection.

Contributions to open-source projects.

Experience with cloud platforms (AWS, GCP, Azure).

Background in cybersecurity or security analytics.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616036
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a Senior Data Engineer to join our Platform group in the Data Infrastructure team.
Youll work hands-on to design and deliver data pipelines, distributed storage, and streaming services that keep our data platform performant and reliable. As a senior individual contributor you will lead complex projects within the team, raise the bar on engineering best-practices, and mentor mid-level engineers - while collaborating closely with product, DevOps and analytics stakeholders.
About the Platform group
The Platform Group accelerates our productivity by providing developers with tools, frameworks, and infrastructure services. We design, build, and maintain critical production systems, ensuring our platform can scale reliably. We also introduce new engineering capabilities to enhance our development process. As part of this group, youll help shape the technical foundation that supports our entire engineering team.
Job responsibilities:
Code & ship production-grade services, pipelines and data models that meet performance, reliability and security goals
Lead design and delivery of team-level projects - from RFC through rollout and operational hand-off
Improve system observability, testing and incident response processes for the data stack
Partner with Staff Engineers and Tech Leads on architecture reviews and platform-wide standards
Mentor junior and mid-level engineers, fostering a culture of quality, ownership and continuous improvement
Stay current with evolving data-engineering tools and bring pragmatic innovations into the team.
Requirements:
5+ years of hands-on experience in backend or data engineering, including 2+ years at a senior level delivering production systems
Strong coding skills in Python, Kotlin, Java or Scala with emphasis on clean, testable, production-ready code
Proven track record designing, building and operating distributed data pipelines and storage (batch or streaming)
Deep experience with relational databases (PostgreSQL preferred) and working knowledge of at least one NoSQL or columnar/analytical store (e.g. SingleStore, ClickHouse, Redshift, BigQuery)
Solid hands-on experience with event-streaming platforms such as Apache Kafka
Familiarity with data-orchestration frameworks such as Airflow
Comfortable with modern CI/CD, observability and infrastructure-as-code practices in a cloud environment (AWS, GCP or Azure)
Ability to break down complex problems, communicate trade-offs clearly, and collaborate effectively with engineers and product partners
Bonus Skills:
Experience building data governance or security/compliance-aware data platforms
Familiarity with Kubernetes, Docker, and infrastructure-as-code tools
Experience with data quality frameworks, lineage, or metadata tooling
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8602206
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Netanya
Job Type: Full Time and Hybrid work
Required Senior Data Engineer - Core Data Platform Team
Our Core Data Platform team
We're a leading force in the ad tech industry, revolutionizing how brands connect with their audiences. Our platform processes billions of ad impressions daily, generating massive datasets that drive our core business. We thrive on innovation and seek a Senior Data Engineer to help us build and scale the data infrastructure that powers our insights and analytics. This is a unique opportunity to work with cutting-edge technologies and make a direct impact on our products.
What will you do?
As a Senior Data Engineer, you'll be a key part of our data platform team, responsible for designing, building, and maintaining robust and scalable data pipelines. You'll work closely with data scientists, analysts, and server side engineers to ensure our data is reliable, accessible, and ready for analysis. Your expertise will be crucial in expanding our data warehouse and data lake capabilities, enabling us to deliver next-generation ad tech solutions.
Your mission will be to:
Develop and Optimize Data Pipelines: Design, build, and maintain ETL/ELT pipelines using Apache Spark to ingest, process, and transform large-scale datasets from various sources.
Manage Cloud Infrastructure: Architect and manage our data infrastructure primarily on Google Cloud Platform (GCP) or Amazon Web Services (AWS). This includes services like BigQuery, S3, GCS, EMR, and AirFlow.
Enhance Data Storage: Improve and manage our data warehouse and data lake solutions, ensuring data quality, consistency, and accessibility for business intelligence and machine learning applications.
Collaborate and Innovate: Partner with cross-functional teams to understand data needs and implement solutions that support new product features and business initiatives.
Ensure Data Integrity: Implement monitoring, alerting, and logging systems to maintain data pipeline health and ensure data accuracy.
Requirements:
7+ years of professional experience in a data engineering or similar role.
Good programming abilities. Testing your code is second nature to you. You are mindful of your applications architecture, performance, maintainability, and overall quality.
Technical skills
Strong proficiency in SQL / Java or Scala / Python.
Extensive experience with distributed data processing frameworks like Apache Spark / Flink / Hive / Trino.
Proven experience working with cloud-based data services on GCP or AWS (e.g.BigQuery, S3, GCS, EMR, DataProc).
Experience with real-time data streaming technologies like Kafka or Flink.
Deep understanding of data warehouse and data lake concepts and best practices
Knowledge of Apache Iceberg or Delta Lake
Solid understanding of IaC using Terraform
Familiarity with SQL and NoSQL databases.
Good communication skills and ability to work collaboratively within a team. You are an active listener and a dialogue facilitator, you know how to explain your decision and like sharing your knowledge.
Multiple shipped projects in Software Engineering.
Production knowledge and practices (Release, Observability, Troubleshooting, ), thanks to multiple shipped projects / applications. Strong problem-solving skills.
Nice to Have
Familiarity with containerization (Docker/OrbStack, Kubernetes).
Knowledge of the ad tech ecosystem (e.g., DSPs, SSPs, Ad Exchanges).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8601666
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/04/2026
Location: Merkaz
Job Type: Full Time and Hybrid work
we are looking for a talented and Senior Data Engineer to join our data group.
The team is responsible for processing and transforming data from multiple external sources while building and maintaining an internal serving platform. Our key challenges include operating at scale, integrating with diverse external interfaces, and ensuring the data is served in a consistent and reliable manner.
Responsibilities:
Designing and implementing data platform
Transforming, modeling, and serving all medical data.
Utilize data best practices, to improve the product and allow data-driven decision-making.
Collaborate closely with cross-functional teams to understand business requirements and translate them into data-driven solutions.
Stay updated with the latest research and advancements in the data field.
Requirements:
6+ years of experience in software development, with at least 4-5 years as a data engineer.
Proven track record designing and implementing scalable ETL/ELT data pipelines.
Strong SQL skills.
Experience with relational and analytical data platforms (e.g., PostgreSQL, Snowflake, data lakes).
Strong coding skills (preferably in Python), with prior software engineering experience (e.g., API development) a plus.
Experience with cloud environments, AWS preferable
Previous managerial or leadership experience is a strong advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8600451
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו