דרושים » דאטה » data Engineering Lead

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בComblack
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת data Engineering Tech Lead (Snowflake) לארגון פיננסי במרכז!
הזדמנות להוביל טכנולוגית פיתוח דאטה מתקדם בסביבת Snowflake, כולל ארכיטקטורה, ביצועים וניהול צוות.
דרישות:
ניסיון של 5+ שנים כ- data Engineer עם ניסיון משמעותי ב-Snowflake (לפחות 3 שנים)
ניסיון מעשי עם DBT, Python ו-Kafka
ניסיון ב-Performance Tuning בסביבות דאטה גדולות ומורכבות
ניסיון בניהול צוותים והובלת פיתוח במתודולוגיית Agile
ניסיון בעבודה עם הרשאות, אבטחת מידע (RBAC) ונתוני PII המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8600367
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 5 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון פיננסי באזור המרכז מגייס data Engineer
התפקיד כולל: בנייה והובלה של תשתיות דאטה מתקדמות לצורך פיתוח, אימון והסקה של מודלים, פיתוח תהליכי ETL /ELT ועבודה עם Snowflake, יצירת data Pipelines ופאנלים דינמיים, חיבור למקורות מידע ארגוניים וניתוח נתונים, עבודה שוטפת עם data Scientists, אנליסטים וצוותי MLOps, הובלת תהליכי דאטה מקצה לקצה בסביבה טכנולוגית מתקדמת ועוד.
דרישות:
- 3 שנות ניסיון כ- data Engineer
- ניסיון ב-SQL וכתיבה אופטימלית לביצועים
- ניסיון בפיתוח תהליכי ETL /ELT ובניית data Pipelines
- ניסיון בעבודה עם Snowflake
- ניסיון עם DBT או Feature Store - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8582116
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה להצטרף לצוות הדאטה שלנו ולהיות שותף מרכזי בהקמה, פיתוח ותפעול של פלטפורמת Data & AI ארגונית מתקדמת בסביבת Azure.

במסגרת התפקיד:
תכנון, פיתוח ותפעול Lakehouse ארגוני על גבי Azure Databricks
בניית Data Pipelines מודרניים מקצה לקצה על בסיס Delta Lake במודל Bronze / Silver / Gold
פיתוח תהליכי Data Ingestion חכמים ממערכות ליבה, APIs וEvent Streams, כולל Incremental Loading וCDC
עבודה עם Unity Catalog לניהול Data Governance, הרשאות, Lineage ושיתוף נתונים מאובטח בין צוותים
שימוש יומיומי ביכולות מתקדמות של Databricks:
Workflows & Jobs
Autoloader
Delta Live Tables
Structured Streaming
עבודה שוטפת וצמודה עם Data Scientists ותמיכה בML Workflows
הטמעה וניהול של MLflow:
ניהול ניסויים
Model Tracking
Versioning וReproducibility
בניית סטנדרטים ארגוניים לData Quality, Monitoring וObservability
אופטימיזציה של ביצועים ועלויות בסביבת Azure (Cluster Sizing, Caching, Partitioning)
תמיכה בהקמת AI / Data Platform ארגונית התומכת בAgents, Machine Learning ומוצרי דאטה
דרישות:
מה אנחנו מחפשים?
ניסיון של 3-5 שנים בתפקיד Data Engineer בסביבת Cloud
ניסיון מעשי משמעותי עם Azure Databricks
שליטה גבוהה ב Python,SQL, Spark / PySpark
ניסיון בעבודה עם: Delta Lake, Unity Catalog, Databricks Workflows / Jobs
ניסיון בבניית Data Pipelines בסביבת Production, ניסיון בעבודה משותפת עם Data Scientists וML Pipelines
היכרות עם MLflow לניהול מודלים וניסויים
הבנה טובה של Data Modeling בסביבת Lakehouse
ניסיון בעבודה עם Git וCI/CD לתהליכי דאטה
יכולת עבודה בצוות רבתחומי, חשיבה מוצרית וראייה מערכתית על דאטה

אנחנו ממוקמים ברמת גן,
מתחם הבורסה, בסמוך לרכבת סבידור מרכז ולרכבת הקלה

* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8570851
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בMertens – Malam Team
סוג משרה: משרה מלאה
חברת Mertens Malam Team מגייסת ראש.ת צוות DBA למוסד פיננסי גדול ברמת גן
במסגרת התפקיד התפקיד כולל אחריות כוללת לניהול צוות DBA האמון על מסדי הנתונים והתשתיות כולל התקנות גיבויים טיוב ביצועים שדרוגים תחזוקה ותמיכה בצוותי פיתוח
עבודה עם Oracle Exadata, MsSQL, Postgres, MySQL, Snowflake, Oracle Forms, Oracle Reports, Oracle EBS, OIM, CDC
ניהול בסיסי נתונים של מערכות ליבה בארגון תמיכה במשתמשים בסביבת הייצור ובמפתחים בסביבות הטסט ומתן מענה לתקלות כולל זמינות בלילות וסופ"ש
דרישות:
ניסיון של 5 שנים ומעלה כ DBA Oracle או MsSQL
ניסיון של 3 שנים ומעלה בניהול צוות DBA בארגון Enterprise
ניסיון מוכח בעבודה אפליקטיבית ותשתיתית
ניסיון באבחון ופתרון בעיות ביצועים
יכולת תכנון הסתכלות רחבה והבנה מולטידיספלנרית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589466
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בMertens – Malam Team
סוג משרה: מספר סוגים
חברת Mertens Malam Team מגייסת מפתח.ת Informatica ETL מנוסה לארגון מוביל בפתח תקווה.
התפקיד כולל פיתוח ותחזוקה של תהליכי אינטגרציית נתונים בסביבת Informatica בסביבת DWH ארגוני, כולל תכנון data Pipelines מורכבים ל data Lakes ולמערכות BI מקצה לקצה. עבודה עם Informatica PowerCenter ו IICS, עבודה מול מקורות מידע מגוונים כולל מערכות ארגוניות, APIs ולוגים, ושיתוף פעולה עם צוותי תשתיות, אבטחת מידע ופיתוח לצורך תחקור, שיפור ואופטימיזציה של תהליכים.
דרישות:
לפחות 4 שנות ניסיון מעשי בפיתוח ETL באמצעות Informatica PowerCenter בסביבת DWH ארגוני.
ניסיון בעבודה עם SQL ברמה גבוהה כולל אופטימיזציה ו Performance Tuning ויכולת עבודה עם מבני נתונים מורכבים.
ניסיון בעבודה עם בסיסי נתונים רלציוניים Oracle, SQL server, Teradata.
ניסיון בעבודה עם Informatica IICS.
היכרות עם סביבות ענן AWS, Azure, GCP ועם data Lakes. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8597453
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים בקבוצת Aman
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה ועבודה היברידית
פיתוח ותחזוקה של תהליכים בסביבת ענן (Azure) עם DataBricks ו- DataFactory לעיבוד נתונים בקנה מידה גדול, אופטימיזציה של ביצועים וניהול נתונים בקבצי Parquet בענן.
עצמאות ועבודה שוטפת מול משתמשים.
קבלת הדרישה מהמשתמשים, כתיבת אפיונים טכניים וליווי הפיתוח כולל בדיקות, עלייה לייצור והטמעה מול המשתמשים.
הגדרת ממשקים מול מערכות בארגון ומחוצה לו
דרישות:
ניסיון של 3 שנים לפחות ב Python - חובה
ניסיון בכתיבת שאילתות SQL ברמה מורכבת - חובה
ניסיון בSpark - חובה
ניסיון בעבודה עם בסיסי נתונים גדולים, כולל אופטימיזציה של שאילתות - יתרון
ניסיון פיתוח בReact - יתרון
תואר ראשון במדעי המחשב - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8376478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 8 שעות
דרושים בפרוסיד
סוג משרה: משרה מלאה ועבודה היברידית
ארגון פיננסי גדול מגייס ראש צוות Cloud AI לתפקיד שמשלב הובלה טכנולוגית וניהול צוות, לצד עבודה Hands-on בפיתוח פתרונות data מתקדמים בענן.

תיאור התפקיד:
הובלה מקצועית וטכנולוגית של צוות פיתוח
תכנון ארכיטקטורת מערכות data מורכבות
פיתוח פתרונות מבוססי Cloud ו-AI לשיפור תהליכים עסקיים
עבודה עם Databricks ופלטפורמות data בענן Azure
הובלת פרויקטים חוצי ארגון ועבודה מול משתמשים עסקיים
תכנון תכניות עבודה וניהול משימות בצוות
דרישות:
ניסיון בניהול עובדים או הובלה טכנולוגית משמעותית
ניסיון בפיתוח Python ושליפות SQL מורכבות
ניסיון בעבודה עם טכנולוגיות Cloud
ניסיון בעבודה עם Databricks / data Factory או כלים דומים
ניסיון בהובלת פרויקטים מורכבים ועבודה מול ממשקים מרובים
אנגלית ברמה טובה

נשמע רלוונטי?
שלחו קורות חיים ונשמח להכיר המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8569404
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בNishapro
סוג משרה: משרה מלאה
דרוש/ה טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -

בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה - חובה.

שליטה ב- Python - חובה.

ניסיון בעבודה עם בסיסי נתונים (SQL) - חובה.

הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים


מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית

יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות

גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519703
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 9 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
בואו להוביל יוזמות AI וחדשנות!


מה אנחנו מחפשים?
מנהל/ת פרויקטים טכנולוגיים עם זיקה לעולמות ה-Product - התפקיד פועל בתוך יחידת ה AI של הראל, ומטרתו להוביל יוזמות AI ואוטומציה מקצה לקצה החל מהיכרות, תיעדוף וזיהוי הצרכים העסקיים ועד הטמעה ובקרה שוטפת.
התפקיד מהווה ציר מחבר בין היחידות העסקיות, הדאטה, מערכות מידע ותפעול – תוך כדי הובלה מטריציונית של Squad ייעודי לתהליכי עבודה שבתיעדוף יוזמות ה AI של הארגון.
 
אחריות מרכזית
הובלת פרויקטים טכנולוגיים מקצה לקצה (E2E):
תכנון, ניהול וביצוע פרויקטים טכנולוגיים מעמיקים הן בעולמות ה AI, בניית Roadmap והגדרת אבני דרך בהתאם ליעדי היחידות העסקיות
הובלה על בסיס מתודולוגיית עבודה אג'ילית, ניהול שוטף של ההתקדמות, תקציבים, סיכונים ותפוקות
 
הובלת squads מטריציונים :
ניהול סקוואדים הכוללים: אנשי Data Science ,ארכיטקטים, מפתחים, מעצבים QA ,
יצירת תיאום בין יחידות עסקיות עם עולמות תוכן שונים בארגון
הנעת תהליכים טכנולוגים ואנושיים כאחד בסביבה מרובת גורמים, התנגשויות
בקרה שוטפת, ניתוח תהליכים פרויקטאלים בשלבים שונים (הוכחת יכולת, פיילוטים, הטמעה בייצור, אופטימיזציה וכו')
תכנון שוטף, תוכנית עבודה roadmap, ואבני דרך
הובלה בסביבת עבודה אג'ילית
הטמעת מוצרים ותהליכי AI בקרב משתמשים פנימיים, עסקיים ולקוחות הקצה
דרישות:
מינימום 3-5 שנות ניסיון בניהול פרויקטים טכנולוגיים.
ניסיון במתודולוגיות Agile וProduct Ownership
ניסיון מוכח של עבודה צמודה לבעלי תפקידים עסקיים בכירים ובסביבה מורכבת מרובת ממשקים ואינטגרציות למערכות ליבה.
ניסיון מוכח בבניה של תהליכי עבודה, roadmap, תיעדוף אבני דרך וכתיבת דרישות ניהול      )Product אפיון, כתיבת דרישות)
יכולת הובלה ולקיחת יוזמות משלב הרעיון ל-Delivery
יכולת לחשוב מחוץ לקופסא לזיהוי פתרונות טכנולוגיים יצירתיים לצד פתרונות AIחדשניים.
ידע בעולמות AI/ML/LLM - יתרון משמעותי
ניסיון בהובלת יוזמות DATA/AI - יתרון
ניסיון בביטוח/פיננסיםHealthcare  - יתרון
אנגלית ברמה גבוהה
 
אנחנו יושבים ברמת גן, מתחם הבורסה, סמוך לרכבת סבידור מרכז ולרכבת הקלה.
 * המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8582883
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
you will be part of our company rem department. our road experience management (rem) is an end-to-end mapping and localization engine. this process leverages advanced algorithms, massive parallelization, and Big Data technologies, creating a highly complex system that demands both a deep understanding of the map creation workflow and strong technical expertise. were looking for a senior data engineer to lead the architecture and development of large-scale, production-grade data pipelines supporting ml inference systems. what will your job look like:
architect and own end-to-end data pipelines for large-scale model inference
design high-throughput, scalable data streaming to the cloud
integrate data conversion into data collection and inference pipelines
drive performance, scalability, and reliability across distributed systems
partner with ml, platform, and infrastructure teams
Requirements:
all you need is: 5+ years of experience as a data engineer in production environments
strong Python expertise
hands-on experience with spark, polars, pandas, duckdb, aws
proven experience designing distributed data architectures
strong understanding of data performance, i/o, and scalability
experience working with ml or inference pipelines .we change the way we drive, from preventing accidents to semi and fully autonomous vehicles. if you are an excellent, bright, hands-on person with a passion to make a difference come to lead the revolution!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8579321
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
We are looking for a DataOps Engineer to own the infrastructure that powers our large-scale data processing platform. This is a platform-facing role sitting at the intersection of data engineering and infrastructure - you'll be the person who makes Spark run reliably and efficiently on Kubernetes, so that data engineers can build with confidence.
You understand data workloads deeply enough to make smart infrastructure decisions, and you have the production instincts to keep complex systems healthy at scale. If you get excited about shaving minutes off Spark job runtimes, right-sizing cluster autoscalers, and building the internal tooling that makes a data platform feel effortless, this role is for you.
RESPONSIBILITIES:
Design, deploy, and operate the Kubernetes-based infrastructure that runs Apache Spark and large-scale data processing workloads
Own the reliability, performance, and cost-efficiency of the data platform - including SLAs, autoscaling, resource quotas, and workload isolation
Manage Spark-on-K8s configurations, Airflow infrastructure, and Databricks integration; tune for throughput, latency, and cost
Build and maintain CI/CD pipelines and infrastructure-as-code for data platform components
Develop observability tooling - metrics, logging, alerting, and data quality dashboards - to proactively surface issues across the pipeline stack
Collaborate closely with Data Engineers to understand workload patterns and translate them into infrastructure decisions
Manage cloud storage (GCS/S3), Delta Lake, and Unity Catalog infrastructure
Drive platform improvements end-to-end: from design through deployment and ongoing ownership.
Requirements:
5+ years of experience in a production infrastructure, SRE, or DevOps role
Strong Kubernetes experience, autoscaling, resource management, and the broader K8s ecosystem
2+ years with infrastructure-as-code tools (Terraform, Pulumi, or similar)
Proficiency in at least one general-purpose language - Python or Go preferred
Experience with workflow orchestration tools, particularly Apache Airflow
Solid understanding of cloud infrastructure - GCP preferred (GCS, GKE, IAM)
Strong observability skills: metrics pipelines, structured logging, alerting frameworks
OTHER REQUIREMENTS:
Hands-on experience running data processing workloads (Apache Spark, Flink, or similar) in production
Familiarity with Delta Lake, Parquet, and columnar storage formats
Experience with data quality frameworks and pipeline lineage tooling
Knowledge of query optimization, partition strategies, and Spark performance tuning
Experience managing queues and databases (Kafka, PostgreSQL, Redis, or similar).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8599274
סגור
שירות זה פתוח ללקוחות VIP בלבד