דרושים » ניהול ביניים » Application data team leader

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 5 שעות
דרושים בפרוסיד
מיקום המשרה: מספר מקומות
תיאור התפקיד:
הובלה, ניהול והנחיה של צוות מפתחי תוכנה ודאטה, תוך טיפוח מצוינות מקצועית וצמיחה אישית
שילוב Hands-on בפיתוח, Code Reviews וקבלת החלטות ארכיטקטוניות
תכנון, פיתוח ותחזוקה של שירותי תשתית נתונים סקיילביליים, אמינים ובטוחים
הובלת פרויקטים טכנולוגיים מורכבים מקצה לקצה
עבודה שוטפת עם Product Owners, ארכיטקטים וגורמים עסקיים להגדרת Roadmap טכנולוגי
קידום תרבות של חדשנות, שיפור מתמיד ואימוץ טכנולוגיות חדשות
אחריות על זמינות, ביצועים ו-Observability של מערכות הנתונים
זיהוי ופתרון תקלות מערכתיות מורכבות
ניהול תהליכי פיתוח, שגרות צוות, פגישות אישיות והערכות ביצועים
דרישות:
דרישות:
ניסיון של לפחות שנתיים בהובלה וניהול צוותי פיתוח תוכנה -חובה
בפיתוח מערכות נתונים מבוזרות בקנה מידה גדול ( data Engineering)- חובה
ניסיון בעיצוב ארכיטקטורת נתונים ועבודה עם בסיסי נתונים SQL ו-NoSQL- חובה
ניסיון מוכח בהטמעת פתרונות Observability - Metrics, Logging, Distributed Tracing- חובה
היכרות עם data Governance: איכות נתונים, Lineage, אבטחה ועמידה ברגולציה- חובה
ניסיון Hands-on עם DBT / Apache Spark / Kafka- חובה
ניסיון בעבודה עם CI/CD וכלי Infrastructure as Code (IaC)- חובה
היכרות עם Machine Learning Workflows ו-MLOps- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8506845
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בדטה קיוב בע''מ
סוג משרה: משרה מלאה
לצוות דאטה ותשתיות מרכזי בארגון גדול ומוביל, דרוש/ה ראש צוות פיתוח עם ניסיון טכנולוגי עמוק ויכולות ניהול והובלה.
זהו תפקיד Hands-on המשלב ניהול צוות מפתחים לצד פיתוח, קבלת החלטות ארכיטקטוניות והובלת פתרונות דאטה בקנה מידה גדול.
מה כולל התפקיד?
הובלה, חניכה וניהול מקצועי ואישי של צוות מפתחי תוכנה
עבודה Hands-on בפיתוח, Code Reviews וקבלת החלטות ארכיטקטוניות
תכנון, פיתוח ותחזוקה של תשתיות דאטה ומערכות מבוזרות בקנה מידה גדול
עבודה עם מערכות backend, בסיסי נתונים SQL / NoSQL
שיתוף פעולה שוטף עם Product Owners, ארכיטקטים ובעלי עניין
דרישות:
ניסיון של שנתיים לפחות בניהול והובלת צוותי פיתוח
ניסיון של 3 שנים ומעלה בפיתוח מערכות data מבוזרות / data Engineering
ניסיון בעבודה עם SQL וNoSQL
ניסיון עם טכנולוגיות עיבוד נתונים כגון Spark / Kafka / DBT
ניסיון בעבודה עם CI/CD וInfrastructure as Code
יכולת עבודה Hands-on וראייה מערכתית רחבה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8505768
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 3 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
חברה פיננסית באזור מרכז מגייסת ראש/ת צוות Digital Application data
התפקיד כולל: הובלה, הנחיה וניהול של צוות מפתחי תוכנה, תכנון, פיתוח ותחזוקה של שירותי תשתית סקיילביליים עם דגש על ביצועים, אמינות, אבטחה ועוד.
דרישות:
- 3 שנות ניסיון בפיתוח מערכות נתונים מבוזרות בקנה מידה גדול
- שנתיים ניסיון ניהולי בהובלת צוותי פיתוח תוכנה
- שליטה בעיצוב ארכיטקטורת נתונים ובטכנולוגיות backend
- ניסיון בעבודה עם בסיסי נתונים מסוג SQL ו-NoSQL המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8507072
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בטי סי אם טכנולוגיות בע"מ
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
הזדמנות נדירה להצטרף לעולם הדאטה הקליני ולהוביל צוות מקצועי במסגרת פרויקט טרנספורמציה טכנולוגי מתקדם. התפקיד כולל ניהול ישיר של צוות BI / data, הובלת פרויקטי דאטה מקצה לקצה, אפיון וניתוח פתרונות, ועבודה עם סביבות Microsoft ו-AWS לצד הנהלה בכירה.
דרישות:
כ-5 שנות ניסיון בפיתוח BI ו- ETL
ניסיון במידול DWH והובלת פרויקטי דאטה end-to-end
ניסיון ניהולי של שנה לפחות חובה
ניסיון בכלי Microsoft: SSIS, SSRS, Power BI
ניסיון בכלים מודרניים בסביבות ענן
היכרות עם יישומי AI יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8445056
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה ועבודה היברידית
לארגון אנטרפרייז מוביל
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.

תחומי אחריות:

פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL) חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים

מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות
גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355699
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים בפרוסיד
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
פרוסיד מגייסת ראש צוות פיתוח דאטה BI

במסגרת התפקיד:
* הובלה וניהול צוות דאטה (3-4 אנשי BI / data Engineering / data Science)
* אחריות על פיתוח פתרונות BI ודאטה מקצה לקצה (Back + Front)
* ניהול פרויקטי דאטה ותוכנית עבודה ביחידת הדאטה
* אפיון, ניתוח ויישום פתרונות דאטה בארגון מורכב
* עבודה שוטפת מול מנהלים בכירים וסמנכ"לים
* עבודה בסביבות Microsoft וAWS כחלק מטרנספורמציית דאטה וענן
דרישות:
* ניסיון של 5+ שנים בפיתוח BI, כולל ETL - חובה
* ניסיון במידול DWH וניהול פרויקטי דאטה E2E - חובה
* ניסיון ניהולי של שנה לפחות - חובה
* ניסיון מעשי בכלי Microsoft: Power BI, SSIS, SSRS - חובה
* עבודה עם סביבות פיתוח מודרניות - חובה
* הובלה / הבנה ביישומי AI (pipelines, בחירת מודלים) - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8506247
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
It starts with you - a technical leader whos passionate about data pipelines, data modeling, and growing high-performing teams. You care about data quality, business logic correctness, and delivering trusted data products to analysts, data scientists, and AI systems. Youll lead the Data Engineering team in building ETL/ELT pipelines, dimensional models, and quality frameworks that turn raw data into actionable intelligence.
If you want to lead a team that delivers the data products powering mission-critical AI systems, join mission - this role is for you.
:Responsibilities
Lead and grow the Data Engineering team - hiring, mentoring, and developing engineers while fostering a culture of ownership and data quality.
Define the data modeling strategy - dimensional models, data marts, and semantic layers that serve analytics, reporting, and ML use cases.
Own ETL/ELT pipeline development using platform tooling - orchestrated workflows that extract from sources, apply business logic, and load into analytical stores.
Drive data quality as a first-class concern - validation frameworks, testing, anomaly detection, and SLAs for data freshness and accuracy.
Establish lineage and documentation practices - ensuring consumers understand data origins, transformations, and trustworthiness.
Partner with stakeholders to understand data requirements and translate them into well-designed data products.
Build and maintain data contracts with consumers - clear interfaces, versioning, and change management.
Collaborate with Data Platform to define requirements for new platform capabilities; work with Datastores on database needs; partner with ML, Data Science, Analytics, Engineering, and Product teams to deliver trusted data.
Design retrieval-friendly data products - RAG-ready paths, feature tables, and embedding pipelines - while maintaining freshness and governance SLAs.
Requirements:
8+ years in data engineering, analytics engineering, or BI development, with 2+ years leading teams or technical functions. Hands-on experience building data pipelines and models at scale.
Data modeling - Dimensional modeling (Kimball), data vault, or similar; fact/dimension design, slowly changing dimensions, semantic layers
Transformation frameworks - dbt, Spark SQL, or similar; modular SQL, testing, documentation-as-code
Orchestration - Airflow, Dagster, or similar; DAG design, dependency management, scheduling, failure handling, backfills
Data quality - Great Expectations, dbt tests, Soda, or similar; validation rules, anomaly detection, freshness monitoring
Batch processing - Spark, SQL engines; large-scale transformations, optimization, partitioning strategies
Lineage & cataloging - DataHub, OpenMetadata, Atlan, or similar; metadata management, impact analysis, documentation
Messaging & CDC - Kafka, Debezium; event-driven ingestion, change data capture patterns
Languages - SQL (advanced), Python; testing practices, code quality, version control
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504281
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
29/12/2025
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
סוכנות ביטוח בתל אביב מגייסת מנהל /ת מחלקת BI לחטיבת מערכות מידע.
אם אתם חיים ונושמים דאטה, בעלי חשיבה אנליטית ויכולת השפעה ארגונית - זו ההזדמנות שלכם להוביל את תחום ה- BI בארגון גדול ומשפיע!
במסגרת התפקיד:
ניהול והובלת מחלקת BI כולל צוות מפתחים ואנליסטים.
פיתוח, בנייה ותחזוקה של דוחות ודשבורדים מתקדמים.
אפיון צרכים עסקיים ותרגומם לפתרונות BI חדשניים.
ניתוח מגמות והפקת תובנות אסטרטגיות עבור הנהלה ומנהלים.
אחריות על data Governance ושיפור איכות ומהימנות הנתונים.
עבודה שוטפת עם מערכות ביטוח, CRM ומחסני נתונים.
הובלה וליווי של פרויקטים רוחביים בעולם הדאטה.
קורות חיים שולחים למייל.
דרישות:
תואר ראשון במערכות מידע / תעשייה וניהול / מדעי המחשב / סטטיסטיקה / כלכלה - חובה.
ניסיון בניהול צוות BI - חובה.
ניסיון משמעותי בפיתוח דוחות ודשבורדים (Power BI - יתרון בולט).
ידע מעמיק ב-SQL ותהליכי ETL, היכרות עם מערכת נובידאה.
ניסיון מארגוני ביטוח - יתרון משמעותי.
יכולת הובלה, חשיבה אנליטית גבוהה ועבודה מצוינת מול ממשקים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8477283
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
11/12/2025
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands-on data infrastructure and platform engineer with proven leadership skills to lead and evolve our self-service data platform that powers petabyte-scale batch and streaming, near-real-time analytics, experimentation, and the feature platform. Youll guide an already excellent team of senior engineers, own reliability and cost efficiency, and be the focal point for pivotal, company-wide data initiatives- feature platform, lakehouse, and streaming.
Own the lakehouse backbone: Mature Iceberg at high scalepartitioning, compaction, retention, metadataand extend our IcebergManager in-house product to automate the lakehouse management in a self serve fashion.
Unify online/offline for features: Drive Flink adoption and patterns that keep features consistent and low-latency for experimentation and production.
Make self-serve real: Build golden paths, templates, and guardrails so product/analytics/DS engineers can move fast safely.
Run multi-tenant compute efficiently: EMR on EKS powered by Karpenter on Spot instances; right-size Trino/Spark/Druid for performance and cost.
Cross-cloud interoperability: BigQuery + BigLake/Iceberg interop where it makes sense (analytics, experimentation, partnership).
What you'll be doing
Leading a senior Data Platform team: setting clear objectives, unblocking execution, and raising the engineering bar.
Owning SLOs, on-call, incident response, and postmortems for core data services.
Designing and operating EMR on EKS capacity profiles, autoscaling policies, and multi-tenant isolation.
Tuning Trino (memory/spill, CBO, catalogs), Spark/Structured Streaming jobs, and Druid ingestion/compaction for sub-second analytics.
Extending Flink patterns for the feature platform (state backends, checkpointing, watermarks, backfills).
Driving FinOps work: CUR-based attribution, S3 Inventory-driven retention/compaction, Reservations/Savings Plans strategy, OpenCost visibility.
Partnering with product engineering, analytics, and data science & ML engineers on roadmap, schema evolution, and data product SLAs.
Leveling up observability (Prometheus/VictoriaMetrics/Grafana), data quality checks, and platform self-service tooling.
Requirements:
2+ years leading engineers (team lead or manager) building/operating large-scale data platforms; 5+ years total in Data Infrastructure/DataOps roles.
Proven ownership of cloud-native data platforms on AWS: S3, EMR (preferably EMR on EKS), IAM, Glue/Data Catalog, Athena.
Production experience with Apache Iceberg (schema evolution, compaction, retention, metadata ops) and columnar formats (Parquet/Avro).
Hands-on depth in at least two of: Trino/Presto, Apache Spark/Structured Streaming, Apache Druid, Apache Flink.
Strong conceptual understanding of Kubernetes (EKS), including autoscaling, isolation, quotas, and observability
Strong SQL skills and extensive experience with performance tuning, with solid proficiency in Python/Java.
Solid understanding of Kafka concepts, hands-on experience is a plus
Experience running on-call for data platforms and driving measurable SLO-based improvements.
You might also have
Experience building feature platforms (feature definitions, materialization, serving, and online/offline consistency).
Airflow (or similar) at scale; Argo experience is a plus.
Familiarity with BigQuery (and ideally BigLake/Iceberg interop) and operational DBs like Aurora MySQL.
Experience with Clickhouse / Snowflake / Databricks / Starrocks.
FinOps background (cost attribution/showback, Spot strategies).
Data quality, lineage, and cataloging practices in large orgs.
IaC (Terraform/CloudFormation).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8454253
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
23/12/2025
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for an experienced Data Engineering Team Leader.
In this role, you will lead and strengthen our Data Team, drive innovation, and ensure the robustness of our data and analytics platforms.
A day in the life and how youll make an impact:
Drive the technical strategy and roadmap for the data engineering function, ensuring alignment with overall business objectives.
Own the design, development, and evolution of scalable, high-performance data pipelines to enable diverse and growing business needs.
Establish and enforce a strong data governance framework, including comprehensive data quality standards, monitoring, and security protocols, taking full accountability for data integrity and reliability.
Lead the continuous enhancement and optimization of the data analytics platform and infrastructure, focusing on performance, scalability, and cost efficiency.
Champion the complete data lifecycle, from robust infrastructure and data ingestion to detailed analysis and automated reporting, to maximize the strategic value of data and drive business growth.
Requirements:
5+ years of Data Engineering experience (preferably in a startup), with a focus on designing and implementing scalable, analytics-ready data models and cloud data warehouses (e.g., BigQuery, Snowflake).
Minimum 3 years in a leadership role, with a proven history of guiding teams to success.
Expertise in modern data orchestration and transformation frameworks (e.g., Airflow, DBT).
Deep knowledge of databases (schema design, query optimization) and familiarity with NoSQL use cases.
Solid understanding of cloud data services (e.g., AWS, GCP) and streaming platforms (e.g., Kafka, Pub/Sub).
Fluent in Python and SQL, with a backend development focus (services, APIs, CI/CD).
Excellent communication skills, capable of simplifying complex technical concepts.
Experience with, or strong interest in, leveraging AI and automation for efficiency gains.
Passionate about technology, proactively identifying and implementing tools to enhance development velocity and maintain high standards.
Adaptable and resilient in dynamic, fast-paced environments, consistently delivering results with a strong can-do attitude.
B.Sc. in Computer Science / Engineering or equivalent.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8469343
סגור
שירות זה פתוח ללקוחות VIP בלבד