דרושים » ניהול ביניים » Data Platform Team Lead

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Data Platform Team Lead
Tel Aviv-Yafo, Gush Dan, Israel
About the Role:
Atop player in its game and is heading for an exciting year.
In this role, you will take an integral part in the creation of a new and innovative SaaS product.
If you are a talented software engineer that likes to solve complex problems and looking for your next challenge we want you to join our team!
What youll do: As the Team Leader for Data Platform, you will lead a talented team to design, implement, and deploy scalable data solutions for an innovative SaaS product. Youll be responsible for shaping the direction of a system that impacts millions of users worldwide. If you're an experienced manager with a strong technical background, ready to lead in a dynamic, fast-paced production environment, we want you on our team!
Responsibilities:
Lead and guide the Data Engineering team in the design and deployment of scalable data infrastructure.
Collaborate effectively with cross-functional teams (Data Science, Security, etc.) to ensure alignment on business needs and security standards.
Manage the technical backlog, make critical decisions on product milestones, and ensure timely, secure, high-quality delivery and deployment.
Foster the growth of team members through mentorship, personal development opportunities, and the promotion of continuous improvement.
Identify, manage, and mitigate security risks across the data platform, maintaining high standards in all initiatives.
Define and implement methodologies to guarantee the performance, scalability, and quality of our data infrastructure.
Requirements:
5+ years of software engineering experience, with at least 2 years in a leadership capacity.
Extensive knowledge of distributed computing platforms (Flink, Spark, Beam) and cloud platforms (AWS, GCP, Azure).
Proficiency in programming languages such as Python, Java, Scala, or Go.
Demonstrated strong leadership abilities, including guiding teams, managing backlogs, and fostering effective cross-functional collaboration.
Proven experience in managing security risks and ensuring high-quality, scalable, and compliant systems.
Ability to maintain focus on key priorities and excel in a fast-paced, dynamic production environment.
Advantages:
Bachelors degree in Computer Science or a related field.
Experience with microservice architecture, data management tools (Kafka, Airflow, MLOps), and CI/CD processes.
Familiarity with databases (Postgres SQL, Redis) and Kubernetes.
Background in identity management, risk assessment, or fraud detection.
This position is open to all candidates.
 
Hide
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8550291
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 7 שעות
דרושים בפרוסיד
סוג משרה: משרה מלאה ואיקון מתאים גם למגזר הדתימתאים גם למגזר הדתי
פרוסיד מגייסת data Engineer (GCP Focus | data AI Platforms) להובלת פרויקטי דאטה ו- AI חדשניים!

במסגרת התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בסביבת Google Cloud Platform (GCP).
בנייה וניהול של data Pipelines מקצה לקצה - איסוף, עיבוד, טרנספורמציה ואחסון נתונים על גבי GCP.
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים כגון.dbt
עבודה Hands-on עם מחסן נתונים מודרני בענן.BigQuery
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins או GitLab CI בסביבת.GCP
שיתוף פעולה הדוק עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום ארכיטקטורות דאטה ופתרונות.AI
בחינת טכנולוגיות חדשות ב-GCP הובלת PoC והטמעת חדשנות מתמדת בתהליכי הדאטה וה.AI
דרישות:
דרישות:
ניסיון של שנה לפחות כמהנדס/ת דאטה - חובה.
ניסיון מוכח בעבודה עם Google Cloud Platform (GCP) - חובה.
ניסיון Hands-on עם BigQuery - חובה.
שליטה מלאה בSQL וב- Python - חובה.
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt) - חובה.
ניסיון בעבודה עם כלי BI (Looker / Looker Studio / Power BI / Tableau) או רקע קודם כ- BI Developer - חובה.
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI) חובה.
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות בסביבת GCP -חובה.
ידע מעשי בתחום ה,GenAIכולל Prompt Engineering ושימוש בכלי AI - חובה.
יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות כגון data Mesh / data Fabric - יתרון משמעותי
ניסיון בהטמעת פתרונות ML/AI ו MLOps - יתרון משמעותי
רקע בכתיבת אפיונים טכניים ופונקציונליים- יתרון
ניסיון עם כלי data Governance, data Catalog ו- data Quality- יתרון
תואר אקדמי רלוונטי- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527293
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 8 שעות
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק גלובאלית המתמחה בעולמות ה-AdTech, דרוש/ה data Engineer team lead.
החברה פיתחה פלטפורמת פרסום בווידאו גדולה בזמן אמת המבוססת AI, Machine Learning.
ניהול צוות בעל השפעה גבוהה אשר עובד על מערכת הליבה של החברה, התעסקות עם כמויות אדירות של דאטה. הצוות מונה 9 מפתחים. כ-20% Hands On.
החברה יציבה ומבוססת נסחרת בנסדאק ובלונדון.
יושבים בת"א, מודל עבודה היברידי
דרישות:
4+ שנות ניסיון בניהול צוותי פיתוח
6+ שנות ניסיון כ- data engineer
4+ שנות ניסיון ב- JAVA
ניסיון בארכיטקטורה
pipelines/Vertica/Hadoop/Spark/Kafka - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530653
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 12 שעות
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בכלל ביטוח ופיננסים
סוג משרה: משרה מלאה
בואו להיות חלק ממשהו גדול, להיות חלק מכלל

מה תעשו?
תנהלו את הדאטה של מוקד אלמנטר בכל הפעילויות
תתנו מענה ראשוני לעובדים בטיפול תקלות מערכת
תנתחו דוחות, תזהו מגמות ושינויים, תציפו כשלים ותטפלו מול הגורמים רלוונטיים
תכתבו איפיונים לדרישות עסקיות חדשות ושדרוגים במערכת
תבצעו בדיקות קבלה (QA) ואישור עליות לייצור
תפיקו דוחות ומצגות תקופתיות (רבעוניות) להנהלה, נציגי מכירות ומנהלי הצוותים

כלל היא מעסיקה שתומכת בגיוון והכלה ומגייסת מועמדים ומועמדות מרקע שונה.
מיותר להגיד שהמשרה מיועדת לנשים, גברים וכל מי שביניהם:)
דרישות:
מה אנחנו מחפשים?
ניסיון קודם בניתוח דוחות- חובה
שליטה טובה מאוד ב- Excel ובמערכותBI(BO)- חובה
ניסיון בעבודה עם Oracle- יתרון משמעותי

**המידע נמסר בהסכמתך ומרצונך ובין היתר לצורך בחינת התאמתך למשרה, וללא המידע לא נוכל להעריך את התאמתך לתפקיד. למידע נוסף אודות המידע שנאסף, השימוש בו ולמי נמסר המידע, וכן למידע אודות זכויותיך לעיון ותיקון המידע ולפרטי הממונה על הגנת הפרטיות, ראה מדיניות הפרטיות למועמדים באתר כלל ביטוח. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8550855
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בכלל ביטוח ופיננסים
סוג משרה: משרה מלאה
בואו להיות חלק ממשהו גדול, להיות חלק מכלל

מה תעשו?
תנהלו את הדאטה של מוקד אלמנטר בכל הפעילויות
תתנו מענה ראשוני לעובדים בטיפול תקלות מערכת
תנתחו דוחות, תזהו מגמות ושינויים, תציפו כשלים ותטפלו מול הגורמים רלוונטיים
תכתבו איפיונים לדרישות עסקיות חדשות ושדרוגים במערכת
תבצעו בדיקות קבלה (QA) ואישור עליות לייצור
תפיקו דוחות ומצגות תקופתיות (רבעוניות) להנהלה, נציגי מכירות ומנהלי הצוותים

כלל היא מעסיקה שתומכת בגיוון והכלה ומגייסת מועמדים ומועמדות מרקע שונה.
מיותר להגיד שהמשרה מיועדת לנשים, גברים וכל מי שביניהם:)
דרישות:
מה אנחנו מחפשים?
ניסיון קודם בניתוח דוחות- חובה
שליטה טובה מאוד ב- Excel ובמערכותBI(BO)- חובה
ניסיון בעבודה עם Oracle- יתרון משמעותי

**המידע נמסר בהסכמתך ומרצונך ובין היתר לצורך בחינת התאמתך למשרה, וללא המידע לא נוכל להעריך את התאמתך לתפקיד. למידע נוסף אודות המידע שנאסף, השימוש בו ולמי נמסר המידע, וכן למידע אודות זכויותיך לעיון ותיקון המידע ולפרטי הממונה על הגנת הפרטיות, ראה מדיניות הפרטיות למועמדים באתר כלל ביטוח. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8561779
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for an experienced and passionate Staff Data Engineer to join our Data Platform group in TLV as a Tech Lead. As the Groups Tech Lead, youll shape and implement the technical vision and architecture while staying hands-on across three specialized teams: Data Engineering Infra, Machine Learning Platform, and Data Warehouse Engineering, forming the backbone of data ecosystem.
The groups mission is to build a state-of-the-art Data Platform that drives toward becoming the most precise and efficient insurance company on the planet. By embracing Data Mesh principles, we create tools that empower teams to own their data while leveraging a robust, self-serve data infrastructure. This approach enables Data Scientists, Analysts, Backend Engineers, and other stakeholders to seamlessly access, analyze, and innovate with reliable, well-modeled, and queryable data, at scale.
In this role youll :
Technically lead the group by shaping the architecture, guiding design decisions, and ensuring the technical excellence of the Data Platforms three teams
Design and implement data solutions that address both applicative needs and data analysis requirements, creating scalable and efficient access to actionable insights
Drive initiatives in Data Engineering Infra, including building robust ingestion layers, managing streaming ETLs, and guaranteeing data quality, compliance, and platform performance
Develop and maintain the Data Warehouse, integrating data from various sources for optimized querying, analysis, and persistence, supporting informed decision-makingLeverage data modeling and transformations to structure, cleanse, and integrate data, enabling efficient retrieval and strategic insights
Build and enhance the Machine Learning Platform, delivering infrastructure and tools that streamline the work of Data Scientists, enabling them to focus on developing models while benefiting from automation for production deployment, maintenance, and improvements. Support cutting-edge use cases like feature stores, real-time models, point-in-time (PIT) data retrieval, and telematics-based solutions
Collaborate closely with other Staff Engineers across to align on cross-organizational initiatives and technical strategies
Work seamlessly with Data Engineers, Data Scientists, Analysts, Backend Engineers, and Product Managers to deliver impactful solutions
Share knowledge, mentor team members, and champion engineering standards and technical excellence across the organization
Requirements:
8+ years of experience in data-related roles such as Data Engineer, Data Infrastructure Engineer, BI Engineer, or Machine Learning Platform Engineer, with significant experience in at least two of these areas
A B.Sc. in Computer Science or a related technical field (or equivalent experience)
Extensive expertise in designing and implementing Data Lakes and Data Warehouses, including strong skills in data modeling and building scalable storage solutions
Proven experience in building large-scale data infrastructures, including both batch processing and streaming pipelines
A deep understanding of Machine Learning infrastructure, including tools and frameworks that enable Data Scientists to efficiently develop, deploy, and maintain models in production, an advantage
Proficiency in Python, Pulumi/Terraform, Apache Spark, AWS, Kubernetes (K8s), and Kafka for building scalable, reliable, and high-performing data solutions
Strong knowledge of databases, including SQL (schema design, query optimization) and NoSQL, with a solid understanding of their use cases
Ability to work in an office environment a minimum of 3 days a week
Enthusiasm about learning and adapting to the exciting world of AI - a commitment to exploring this field is a fundamental part of our culture
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8547738
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
We are building the next generation of digital heart-health products and our data platform is the foundation.
Were looking for a Data Platform Team Lead to own and evolve an AI-first, cloud-native data platform that already:
Serves 100+ data users across the company
Powers ML models impacting thousands of users every day
Supports production systems in a company that literally saves lives
You will lead a growing team of 4 data engineers and 1 BI developer, and work in close, day-to-day partnership with Product, Analytics, Data Science & Engineering
Our future is serving millions of users across multiple products in the heart-health ecosystem. This role owns the platform that will scale us there. We are intentionally building an AI-first / agentic data platform.
That means:
Automating table creation, validation, and testing
Agent-driven monitoring for data quality, freshness, and failures
Using agents to generate and maintain documentation
Reducing manual operational overhead so humans focus on architecture, leverage, and product impact
You will have full organizational support to rethink how a modern data platform should work in an AI-native environment, not incremental improvements, but fundamental design decisions.
Our Technologies stack: Python, Spark, Airflow, DBT, Kafka, AWS (Glue, EMR, S3, Athena and more), Snowflake, Docker, Kubernetes, MongoDB, Redis, Postgres, Elasticsearch, and evolving
Responsibilities:
Platform Leadership & Team Management: Lead, mentor, and grow a team of senior data engineers and BI developers. Set a high bar for technical quality, ownership, and delivery.
Core Data Platform Architecture: Own the design, evolution, and reliability of our cloud-native data platform, balancing scalability, cost, security, and developer velocity.
Deep Collaboration with R&D: Work closely with product, engineering, and ML teams to ensure the data platform enables fast experimentation, production ML, and new product development.
Production-Grade Data Systems: Oversee end-to-end data pipelines, streaming and batch processing, semantic layers, and analytics foundations that serve the entire organization.
Operational Excellence: Ensure data quality, freshness, observability, and incident response meet the standards of a mission-critical system.
Requirements:
7+ years of experience designing and operating production-scale data systems
4+ years of experience leading data or platform engineering teams
Proven experience building and operating cloud-native data platforms on AWS and Snowflake
Deep understanding of trade-offs across reliability, cost, performance, and security
Experience owning shared platforms supporting multiple teams and products
Automation and AI are treated as practical engineering leverage rather than buzzwords
Strong experience with the AWS ecosystem and Snowflake
Hands-on experience with Python and modern data tooling
Experience with distributed systems, including Spark, streaming, and large-scale batch processing
Production experience with Kubernetes
Experience collaborating closely with analytics, engineering, data science, and product teams
Comfort leading architectural discussions and making complex technical trade-offs
Experience working with US-based teams is considered an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8534205
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Operations Team Lead to lead and scale our data operations function. This role sits at the intersection of data, algorithms, and operations, and is critical to the success of our computer vision and AI models.
You will lead a distributed team responsible for data collection, annotation, quality control, and delivery, while working closely with Algorithm teams to understand model needs, prioritize requests, and ensure reliable, high-quality data pipelines.
This is a hands-on leadership role - you will manage people and processes, but also actively design, build, and improve data workflows.
About The Role
Lead and manage the Data Operations team, including annotation teams in Israel and a large remote team in India
Serve as the primary interface between Data Operations and Algorithm teams: understand model requirements, prioritize tasks, and plan data delivery
Own end-to-end data workflows, from model improvement needs through data definition, annotation guidelines, execution, and delivery
Ensure high data quality through close monitoring, validation, troubleshooting, and root-cause analysis
Design and maintain clear annotation guidelines, documentation, and training materials
Closely manage remote annotation teams, including weekly syncs, hands-on oversight, and deadline management
Own and operate the annotation pipeline using industry tools (e.g., CVAT)
Monitor progress, track performance, and continuously improve efficiency and quality
Own annotation budgets, monthly reporting, and validation of hours and outputs
Evaluate, benchmark, and implement new tools and processes in the data and annotation domain
Work hands-on with scripts, AI tools, and monitoring systems as needed to support data quality and operations.
Requirements:
Proven experience leading teams, preferably including remote or global teams
Strong background in data operations, data quality, or data-centric workflows
Experience working closely with Algorithm / ML / Computer Vision teams
Strong prioritization and execution skills in a fast-paced environment
Hands-on technical mindset, including basic scripting and tool usage
Ability to create clear documentation, guidelines, and training materials
Excellent communication skills and ability to manage multiple stakeholders
High ownership mentality and attention to detail
Nice to Have
Experience managing teams in India
Experience with data annotation tools such as CVAT
Familiarity with Elastic / Kibana or similar monitoring tools
Experience in AI / Computer Vision environments
Experience evaluating and implementing new data tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8562063
סגור
שירות זה פתוח ללקוחות VIP בלבד