דרושים » ניהול ביניים » data Engineer עבור חברת סייבר במרכז הארץ

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 10 שעות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברת סייבר במרכז הארץ מגייסת data Engineer
במסגרת התפקיד: עבודה בצוות, הובלת פרויקטי פיתוח של שירותי data, תמיכה בלקוחות בכמויות גדולות של נתונים, עבודה בטכנולוגיות AI מתקדמות ועוד.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בעבודה ב-Spark
- ניסיון בפיתוח ב-Scala / Python
- ניסיון בעבודה עם Linux, Docker ו-Kubernetes
- ניסיון בפיתוח ב-NodeJS, TypeScript - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8410150
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
דרוש/ה Senior data engineer עבור חברת מוצר במרכז הארץ בתחום ה- Big Data.
כחלק מהתפקיד: השתלבות בצוות data טכנולוגיות במיוחד, עבודה הכוללת פיתוח Python
בשילוב JAVA, שימוש בכלי data מתקדמים כולל Spark Hive Kafka Snowflake ונכונות
ללמוד טכנולוגיות נוספות תוך כדי עבודה
דרישות:
תואר ראשון טכנולוגי - חובה
6 + שנות ניסיון בתחום
רקע וצמיחה מפיתוח backend יהווה יתרון
ניסיון בפיתוח data בחברות Start up - יתרון גדול מאוד
ניסיוןב- Python - חובה
ניסיון ב- JAVA - יתרון אך לא חובה
רקע מוכח מטכנולוגיות data - חובה
רמה אישית מעולה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8406497
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 10 שעות
דרושים בעידור מחשבים בע"מ
סוג משרה: מספר סוגים
תנאים נוספים:החזר הוצאות, קרן השתלמות
דרוש data engineer להשתלבות בעבודת הצוות ופרויקטים בתחום ה AI.
אחריות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה הדוק עם data Scientist.
עיצוב ופיתוח של תהליכי דאטה קריטיים, מגוונים וגדולים גם בסביבות ענן וגם ב on prem
דרישות:
ניסיון של לפחות 3 שנים כ data engineer - חובה
ניסיון של 3 שנים עם Python בדגש על עבודה עם קבצי json ועבודה מול בסיסי נתונים חובה
ניסיון מעשי של שנתיים לפחות ב AWS עם services של Athena/Glue/StepFunction/EMR/Redshift/RDS חובה
עבודה מול קבצי טקסט למטרות AI ו LLM יתרון משמעותי
ניסיון מעשי עם Spark עבור Large scale data -יתרון משמעותי
עבודה מול שירותי REST API -יתרון משמעותי
הבנות של טכניקות של אופטימיזציה ועבודה עם partitions של סוגים שונים של דאטה כמו parquet, Avro, hdfs, delta lake
ניסיון בתפיסה ועבודה עם docker, Linux, CI/CD tools, Kubernetes
הכרות עם פתרונות GenAI / prompt engineering יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405427
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 6 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
סטארט-אפ טכנולוגי באזור המרכז מגייס Senior data Engineer
התפקיד כולל: עבודה על מערכות data מורכבות, תכנון ובנייה של תהליכי Pipeline
ו- data Flow בסביבה מתקדמת ועוד.
דרישות:
- 5 שנות ניסיון כ- data Engineer
- ניסיון בעבודה עם Kafka
- ניסיון בפיתוח ב- JAVA
- ניסיון עם אחד מהכלים: Spark / Splink / Apache המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405547
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 7 שעות
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת טכנולוגיה מבוססת AI ואלגוריתמיקה חכמה המאפשר לבעלי אפליקציות להגיע לקהל המשתמשים הרלוונטי ביותר עבורם על ידי חיזוי התעניינות בזמן אמת וניתוח data ב-Scale עצום.
החברה ממוקמת בתל אביב- קו רכבת, משלבת מודל עבודה היברידי ומונה 75 עובדים.
מהות התפקיד: חלק מצוות, עבודה ב-Production עם Apache Spark בקנה מידה גדול, קידוד ב- Python בסביבת (AWS), S3, EMR, Athena, Glue. נדרשת מומחיות בתכנון ותחזוקה של צינורות ETL בעזרת כלי אורסטרציה כמו Airflow או דומים.
דרישות:
- 6 שנות ניסיון כ- data Engineer/ backend
- ניסיון בפיתוח ב-Spark
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח עם AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8404741
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 6 שעות
דרושים בפרוסיד
סוג משרה: מספר סוגים
פרוסיד מגייסת data Engineer (Modern data Stack) להובלת פרויקטי דאטה ו-AI חדשניים!

תיאור התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בענן (AWS / GCP / Azure)
בנייה וניהול End-to-End של data Pipelines איסוף, עיבוד, טרנספורמציה ואחסון נתונים
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים (dbt)
עבודה Hands-on עם DWH מודרניים בענן (Snowflake / BigQuery / Redshift)
פיתוח והטמעת פתרונות AI / GenAI / ML בסביבות ענן (Vertex AI / SageMaker), כולל Prompt Engineering
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins, GitLab CI
עבודה צמודה עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום פתרונות מקצה לקצה
הובלת PoC, בחינת טכנולוגיות חדשות ושילוב חדשנות בתהליכי דאטה
אופטימיזציה של תהליכי דאטה קיימים ושיפור ביצועים, אמינות ואיכות נתונים
דרישות:
דרישות חובה:
לפחות שנה ניסיון כ- data Engineer
ניסיון בעבודה עם פלטפורמות ענן (AWS / GCP / Azure)
ניסיון Hands-on עם מחסני נתונים מודרניים בענן (Snowflake / BigQuery / Redshift)
שליטה מלאה ב-SQL וב- Python
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt)
ניסיון בעבודה עם כלי BI (Looker / Power BI / Tableau / QuickSight) ו/או ניסיון כ- BI Developer
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI)
ניסיון Hands-on בפיתוח פתרונות AI / GenAI / ML בענן (Vertex AI / SageMaker) + ניסיון ב-Prompt Engineering
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות
אנגלית טכנית ברמה גבוהה (קריאה, כתיבה ודיבור)

יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות ( data Mesh / data Fabric)
ניסיון בכתיבת אפיונים טכניים ופונקציונליים
ניסיון עם כלי data Governance, data Catalog, data Quality Observability המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405965
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 9 שעות
דרושים בOne data
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
התפקיד כולל אחריות על קליטה ועיבוד של כמויות נתונים גדולות ממקורות מגוונים, הבנת עומק של הדאטה ובחינתו יחד עם data Scientists, וכן עיצוב ופיתוח של תהליכי דאטה קריטיים בסביבות ענן וon-prem.
דרישות:
ניסיון של לפחות 3 שנים כ data engineer - חובה
ניסיון של 3 שנים עם Python בדגש על עבודה עם קבצי json  ועבודה מול בסיסי נתונים חובה
ניסיון מעשי של שנתיים לפחות ב AWS חובה
עבודה מול קבצי טקסט למטרות AI ו LLM יתרון משמעותי
ניסיון מעשי עם Spark עבור Large scale data -יתרון משמעותי
הבנות של טכניקות של אופטימיזציה ועבודה עם partitions של סוגים שונים של דאטה כמו parquet, Avro, hdfs, delta lake
ניסיון בתפיסה ועבודה עם docker, Linux, CI/CD tools, Kubernetes
הכרות עם פתרונות GenAI / prompt engineering יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8292310
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne data
סוג משרה: משרה מלאה ועבודה היברידית
הזדמנות להשתלב בארגון גדול ודינמי, עם מאות משתמשים, הנמצא בתנופת עשייה ומעבר לטכנולוגיות חדשניות ומתקדמות!
הצטרף/י לצוות BI שאחראי על תפעול, פיתוח והובלת פרויקטים משמעותיים משלב האפיון ועד ליישום והטמעה מלאה של פתרונות דאטה ובינה עסקית.
במסגרת התפקיד:
אפיון דרישות עסקיות ומיפוי נתונים
הגדרת תהליכי ETL ותרשימי ERD
פיתוח ותחזוקת pipelines בסביבת data Lake
פיתוח דשבורדים ודוחות במערכות BI
מתן מענה שוטף לדרישות עסקיות, תקלות, ופרויקטים
עבודה עם טכנולוגיות מתקדמות בסביבת ענן
דרישות:
לפחות 8 שנות ניסיון בבניית ותחזוקת data Pipelines מקצה לקצה
ניסיון עם כלי SAP חובה
ניסיון עם Databricks ו-Snowflake חובה
שליטה מעמיקה ב-SQL (כולל stored procedures, Indexing, Performance Tuning)
ניסיון בפיתוח תהליכי שינוע נתונים בעולמות רלציוניים
ניסיון בכלי תשתית: SSIS, SAP -DI / SAP -DS, SQR
עבודה עם תהליכי CI/CD
ניסיון בעבודה בסביבת ענן AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8395320
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים בפרוסיד
סוג משרה: משרה מלאה ועבודה היברידית
פרוסיד מגייסת מהנדס/ת דאטה עם אוריינטציה לפיתוח backend, להצטרפות לצוות הפיתוח של פלטפורמות ענן ו-AI מתקדמות!

במסגרת התפקיד:
פיתוח וניהול תהליכי ETL / ELT מורכבים ומבוססי Apache Airflow.
בנייה ותחזוקה של - data Pipelines משלב איסוף הנתונים ועד טרנספורמציה ואחסון.
פיתוח שירותי backend ב Python וב Node.js כחלק ממערכות דאטה מודרניות.
עבודה עם API Services אינטגרציות עם מערכות פנים וחוץ ארגוניות.
שיתוף פעולה עם צוותי data Science ו-AI לצורך עיבוד וניתוח נתונים מתקדמים.
יישום אוטומציה ותשתיות DataOps בענן (AWS / GCP)
דרישות:
דרישות:
ניסיון של 3+ שנים כמהנדס/ת דאטה או backend - חובה.
ניסיון מעשי עם Apache Airflow או (Prefect / Luigi)- חובה.
ניסיון מוכח בפיתוח תהליכי ETL / ELT - חובה.
ניסיון ב- Python חובה. ניסיון ב -TypeScript / Node.jsיתרון משמעותי.
היכרות עם PostgreSQL /Redis - חובה.
ניסיון עם Infrastructure as Code (Terraform / Docker) - יתרון.
היכרות עם שירותי ענן (GCP / AWS) - חובה.

למה אצלנו?
עבודה בחזית של עולמות ה data, Cloud ו.AI
אפשרות לשלב בין פיתוח backend להנדסת דאטה.
סביבת פיתוח דינמית, מאתגרת וחדשנית עם מקום להשפיע וליצור. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8360833
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
לחברת הייטק גלובלית בהרצליה בתחום המדיקל דרוש/ה data Engineer להצטרפות לצוות פיתוח מערכות AI/ML פורצות דרך בתחום הרפואי.
אם יש לך תשוקה לדאטה, טכנולוגיה ורפואה זו ההזדמנות שלך להשפיע באמת על עולם הבריאות.

מה בתפקיד:
תכנון, בנייה ותחזוקה של תהליכי דאטה וארכיטקטורות תומכות AI/ML
איסוף, עיבוד וארגון דאטה רפואי ממקורות שונים (CT, וידאו, נתונים קליניים)
הבטחת איכות, עקיבות וציות לתקנים רגולטוריים (FDA, GDPR, HIPAA)
שיתוף פעולה עם צוותי אלגוריתמים, קליניקה ומוצר
תמיכה באימוני מודלים וולידציה של נתונים
דרישות:
דרישות:
ניסיון של לפחות שנתיים כ- data Engineer (יתרון ב-AI/ML) - חובה
תואר ראשון במדעי המחשב / הנדסה ביו-רפואית / דאטה - חובה
שליטה ב- Python וכלים לעיבוד דאטה
הבנה בפרטיות ואבטחת מידע (HIPAA/GDPR)
יכולת עבודה בצוות רב-תחומי
יתרון משמעותי: ניסיון עם דאטה רפואי או מוצרים רפואיים מבוססי AI/ML. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8378808
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
28/10/2025
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands-on data infrastructure and platform engineer with proven leadership skills to lead and evolve our self-service data platform that powers petabyte-scale batch and streaming, near-real-time analytics, experimentation, and the feature platform. Youll guide an already excellent team of senior engineers, own reliability and cost efficiency, and be the focal point for pivotal, company-wide data initiatives- feature platform, lakehouse, and streaming.
Own the lakehouse backbone: Mature Iceberg at high scalepartitioning, compaction, retention, metadataand extend our IcebergManager in-house product to automate the lakehouse management in a self serve fashion.
Unify online/offline for features: Drive Flink adoption and patterns that keep features consistent and low-latency for experimentation and production.
Make self-serve real: Build golden paths, templates, and guardrails so product/analytics/DS engineers can move fast safely.
Run multi-tenant compute efficiently: EMR on EKS powered by Karpenter on Spot instances; right-size Trino/Spark/Druid for performance and cost.
Cross-cloud interoperability: BigQuery + BigLake/Iceberg interop where it makes sense (analytics, experimentation, partnership).
What you'll be doing
Leading a senior Data Platform team: setting clear objectives, unblocking execution, and raising the engineering bar.
Owning SLOs, on-call, incident response, and postmortems for core data services.
Designing and operating EMR on EKS capacity profiles, autoscaling policies, and multi-tenant isolation.
Tuning Trino (memory/spill, CBO, catalogs), Spark/Structured Streaming jobs, and Druid ingestion/compaction for sub-second analytics.
Extending Flink patterns for the feature platform (state backends, checkpointing, watermarks, backfills).
Driving FinOps work: CUR-based attribution, S3 Inventory-driven retention/compaction, Reservations/Savings Plans strategy, OpenCost visibility.
Partnering with product engineering, analytics, and data science & ML engineers on roadmap, schema evolution, and data product SLAs.
Leveling up observability (Prometheus/VictoriaMetrics/Grafana), data quality checks, and platform self-service tooling.
Requirements:
2+ years leading engineers (team lead or manager) building/operating large-scale data platforms; 5+ years total in Data Infrastructure/DataOps roles.
Proven ownership of cloud-native data platforms on AWS: S3, EMR (preferably EMR on EKS), IAM, Glue/Data Catalog, Athena.
Production experience with Apache Iceberg (schema evolution, compaction, retention, metadata ops) and columnar formats (Parquet/Avro).
Hands-on depth in at least two of: Trino/Presto, Apache Spark/Structured Streaming, Apache Druid, Apache Flink.
Strong conceptual understanding of Kubernetes (EKS), including autoscaling, isolation, quotas, and observability
Strong SQL skills and extensive experience with performance tuning, with solid proficiency in Python/Java.
Solid understanding of Kafka concepts, hands-on experience is a plus
Experience running on-call for data platforms and driving measurable SLO-based improvements.
You might also have
Experience building feature platforms (feature definitions, materialization, serving, and online/offline consistency).
Airflow (or similar) at scale; Argo experience is a plus.
Familiarity with BigQuery (and ideally BigLake/Iceberg interop) and operational DBs like Aurora MySQL.
Experience with Clickhouse / Snowflake / Databricks / Starrocks.
FinOps background (cost attribution/showback, Spot strategies).
Data quality, lineage, and cataloging practices in large orgs.
IaC (Terraform/CloudFormation).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390166
סגור
שירות זה פתוח ללקוחות VIP בלבד