דרושים » דאטה » Big Data Team Lead

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
We are looking for a We are looking for a.
As a Big Data Team Lead, you will lead a core team focused on the ingestion of big data and the development of core algorithms. Your role will involve building scalable and robust solutions for processing massive geospatial datasets, including spatially-focused algorithms. You will also be responsible for developing innovative big data solutions to ensure accuracy and efficiency within a fast-paced and evolving technical ecosystem. This position requires a passionate leader with a strong background in big data technologies and a drive to innovate.
RESPONSIBILITIES:
Lead and manage a big data engineering team, focused on processing high-volume spatial-temporal data, while also engaging in hands-on technical tasks.
Collaborate daily with product managers, R&D stakeholders, and data scientists to translate requirements into robust data systems.
Prioritize and scope incoming feature requests and technical improvements to balance innovation with stability.
Maintain and evolve the teams Apache Spark-based data pipelines, including optimization and scaling.
Lead technical planning sessions, foster ownership and accountability within the team.
Drive project-level KPIs and data quality KPIs such as pipeline completion time, job reliability, data freshness metrics and data accuracy.
Manage 36 direct reports.
Requirements:
2 years of experience in leading a data engineering team
Strong expertise in Apache Spark, and big data pipeline design.
Deep understanding of big data architecture in cloud environments, ideally GCP (e.g., Dataproc, BigQuery, GCS, Composer).
Problem-solving mindset with the ability to diagnose complex system behavior and debug issues across layers of the stack.
Experience with geospatial data or spatial analytics (Advantage).
Familiarity with Airflow (Advantage) Proficiency in Scala (Advantage)
Effective communicator with adaptability and prioritization skills to align cross-functional teams and balance short- and long-term goals.
BSc in Computer Science, Engineering or a related technical field (or equivalent experience in the industry).
This position is open to all candidates.
 
Hide
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8358859
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
חברה חסויה
Job Type: Full Time and Hybrid work
At least 4 years of experience as a BI Developer Must

Hands-on experience in designing and implementing complex ETL processes

Experience in establishing and maintaining data Warehouse ( DWH ) systems

Proven track record in developing data models and decision-support dashboards

Strong analytical thinking and logical reasoning

High technical proficiency with a variety of BI tools

Experience in business process analysis and supporting decision-making

Previous management experience or demonstrated leadership potential

Experience in mentoring or leading a BI team

Background in business analysis or cross-functional projects
Requirements:
BI Development Experience: 4+ years of experience in BI development
Strong background in ETL and data Warehousing ( DWH ) processes.
Technical Expertise: Proficiency in BI tools like Power BI (PBI) or Tableau, with a solid understanding of data modeling and report/dashboard design.
Familiarity with cloud platforms like Azure or AWS.
Business Acumen: Strong ability to understand client requirements and translate them into technical solutions that drive business outcomes.
Proven experience in leading and managing teams
Quick learner with a creative problem-solving approach, capable of thriving in a dynamic, fast-paced client environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8272184
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne data
סוג משרה: משרה מלאה ועבודה היברידית
הזדמנות להשתלב בארגון גדול ודינמי, עם מאות משתמשים, הנמצא בתנופת עשייה ומעבר לטכנולוגיות חדשניות ומתקדמות!
הצטרף/י לצוות BI שאחראי על תפעול, פיתוח והובלת פרויקטים משמעותיים משלב האפיון ועד ליישום והטמעה מלאה של פתרונות דאטה ובינה עסקית.
במסגרת התפקיד:
אפיון דרישות עסקיות ומיפוי נתונים
הגדרת תהליכי ETL ותרשימי ERD
פיתוח ותחזוקת pipelines בסביבת data Lake
פיתוח דשבורדים ודוחות במערכות BI
מתן מענה שוטף לדרישות עסקיות, תקלות, ופרויקטים
עבודה עם טכנולוגיות מתקדמות בסביבת ענן
דרישות:
לפחות 8 שנות ניסיון בבניית ותחזוקת data Pipelines מקצה לקצה
ניסיון עם כלי SAP חובה
ניסיון עם Databricks ו-Snowflake חובה
שליטה מעמיקה ב-SQL (כולל stored procedures, Indexing, Performance Tuning)
ניסיון בפיתוח תהליכי שינוע נתונים בעולמות רלציוניים
ניסיון בכלי תשתית: SSIS, SAP -DI / SAP -DS, SQR
עבודה עם תהליכי CI/CD
ניסיון בעבודה בסביבת ענן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8347624
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים בלוגיקה IT
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
לארגון מוביל ויציב הממוקם בפתח תקווה דרוש/ה   data Engineer !! 

תיאור התפקיד:

אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.

תחומי אחריות:
פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה חובה.
שליטה ב- Python  - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL) חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים

מאפייני אישיות:
אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות
גמישות מחשבתית

יתרונות:
ניסיון מחברת ביטוח או פיננסים יתרון משמעותי.
שליטה ב Informatica יתרון.
ניסיון עם ענן AWS / MICROSOFT המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355916
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בדטה קיוב בע''מ
סוג משרה: משרה מלאה
- ניהול והובלת צוות פיתוח, מנהלי מערכת, תפעול ו- DBA
- ניהול פלטפורמות פיתוח לצוותים בתחום
-תפעול וניהול מחסן נתונים ותהליכי ETL /ELT
- ניהול ותחזוקת שרתים WIN/ Linux
-בחינת כלים חדשים והטמעתם
- ניהול אפליקציות וביצוע שדרוגי גרסאות
דרישות:
-הבנה בארכיטקטורת data warehouse ובמודלים מורכבים של BI
-ידע בבסיס הנתונים של אורקל, Exadata
-ידע באפליקציות ETL - יתרון לאינפורמטיקה/ Datastage/TALEND
-ידע ב- Python יתרון
-ידע בעבודה עם פלטפורמות ענן, לרבות AWS/ Snowflake יתרון
- ניהול צוות BI לפחות שנה ניסיון
- ניהול פרויקטים יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8329164
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
דרושים בOne data
סוג משרה: מספר סוגים
בנייה ואופטימיזציה של שאילתות Splunk ותהליכי Ingestion
עבודה עם Kafka, APIs לוגים ומקורות נוספים
העשרת נתונים בזמן אמת והקמת מערך התראות
שיתוף פעולה עם צוותי Dev, DevOps ומוניטורינג
דרישות:
לפחות 3 שנות ניסיון עם Splunk
ידע חזק בSPL - לוחות בקרה, מאקרו, ביצועים
ניסיון עם מערכות מבוססות אירועים (Kafka, REST APIs)
שליטה בJSON, XML ונתונים חצי-מובנים
סקריפטינג בPython או Bash
יכולת עבודה עצמאית והובלת פתרונות ברמת פרודקשן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8265056
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
Were looking for a hands-on Individual Contributor Data Engineer to design, build, and operate large-scale data products. Youll own mission-critical pipelines and services, balancing pre-computation with on-demand execution to deliver complex, business-critical insights with the right cost, latency, and reliability.
RESPONSIBILITIES:
Design and run Spark data pipelines, orchestrated with Airflow, governed with Unity Catalog.
Build scalable batch and on-demand data products, aiming for the sweet spot between pre-compute and on-demand for complex logic - owning SLAs/SLOs, cost, and performance.
Implement robust data quality, lineage, and observability across pipelines.
Contribute to the architecture and scaling of our Export Center for off-platform report generation and delivery.
Partner with Product, Analytics, and Backend to turn requirements into resilient data systems.
Requirements:
BSc degree in Computer Science or an equivalent
5+ years of professional Backend/Data-Engineering experience
2+ years of Data-Engineering experience
Production experience with Apache Spark, Airflow, Databricks, and Unity Catalog.
Strong SQL and one of Python/Scala; solid data modeling and performance tuning chops.
Proven track record building large-scale (multi-team, multi-tenant) data pipelines and services.
Pragmatic approach to cost/latency trade-offs, caching, and storage formats.
Experience shipping reporting/exports pipelines and integrating with downstream delivery channels.
IC mindset: you lead through design, code, and collaboration (no direct reports).
OTHER REQUIREMENTS:
Delta Lake, query optimization, and workload management experience.
Observability stacks (e.g., metrics, logging, data quality frameworks).
GCS or other major cloud provider experience.
Terraform IAC experience.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8358829
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
26/08/2025
חברה חסויה
Location: Ramat Gan
Job Type: Full Time and Hybrid work
As a Senior Big Data Engineer on our BI team, youll build and scale the data infrastructure that powers our business insights. Youll design and implement robust data pipelines to process billions of daily records, leveraging cutting-edge cloud technologies and visualization platforms to transform data into actionable intelligence.

If youre passionate about data engineering and driving business growth through insights, wed love to hear from you!

Responsibilities:
Design, Build, and operate scalable infrastructure for optimal data extraction, transformation, and loading from a wide variety of data sources, utilizing SQL, cloud migration tools, and Big Data technologies.
Work with a variety of programming languages, systems, frameworks, and cloud technologies, including Python, DBT, Airflow, AWS, Linux, Spark, and more.
Collaborate with customers and internal stakeholders to resolve data-related technical issues and support their data infrastructure and business needs.
Implement data validation, monitoring, and governance practices to ensure data accuracy, consistency, and security.
Requirements:
5+ years of hands-on experience in building scalable automatic data pipelines in a Big Data environment (several terabytes per day) preferably in the mobile apps market.
Proficiency in ELTs using SQL, DBT, and Python.
Experience in data visualization tools (Tableau/Looker/Mixpanel/Thoughtspot), cloud providers (AWS/GCP/Azure), orchestration tools (e.g, Airflow), Big Data frameworks (Spark), and Iceberg.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8320609
סגור
שירות זה פתוח ללקוחות VIP בלבד