רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
חברות מגייסות
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
SQLink
דרושים בSQLink
סוג משרה: משרה מלאה
חברת ביטוח גדולה במרכז הארץ מגייסת data Analyst
התפקיד כולל: פיתוח ותחזוקה של תהליכי ETL לעיבוד נתונים בסביבת Azure, עבודה עם מערכות בענן, אופטימיזציה של ביצועים וניהול נתונים. בנוסף, ניתוח נתונים ובניית דוחות לשימושים עסקיים ועוד.
דרישות:
- שנה ניסיון בכתיבת שאילתות מורכבות ב-SQL וניתוח נתונים
- ניסיון בעבודה עם בסיסי נתונים גדולים ואופטימיזציה של שאילתות
- ניסיון בעבודה בסביבת ענן (עדיפות ל-Azure)
- ניסיון עם מערכות לעיבוד נתונים
- ידע בשפת Python - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8175712
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
SQLink
דרושים בSQLink
סוג משרה: משרה מלאה
משרד ממשלתי באזור המרכז מגייס מנהל /ת פרויקטים בתחום data
במסגרת התפקיד: ניהול פרויקטים מורכבים, אחריות על תחום ה- data בארגון ומסדי הנתונים ועוד.
דרישות:
- 6 שנות ניסיון בניהול פרויקטים טכנולוגיים
- ניסיון בעבודה עם שירותי ענן כגון: AWS / Azure / GCP
- רקע מקצועי בבינה מלאכותית, מדעי הנתונים או הנדסת נתונים
- ניסיון בארכיטקטורת מערכות מידע, ממשקי API, ניהול זהויות והרשאות ותשתיות נתונים
- ניסיון בבניה וניהול של תוכניות עבודה מורכבות, כולל ויסות משאבים וניהול סיכונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8173934
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
TOP SOFT טופ סופט - השמה ומיקור חוץ
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
לארגון גדול ומוביל בירושלים דרוש/ה מפתח/ת ETL מנוסה
דרישות:
- לפחות 5 שנות ניסיון כמפתח/ת ETL ועבודה עם כלי ETL
- ניסיון בתכנון ובניית Pipelines data מורכבים
- שליטה בשפת SQL ברמה גבוהה וניסיון בכתיבת שאילתות מורכבות
- ניסיון בעבודה עם כלי ETL כגון: DataStage, Talend, Informatica, SSIS, Airflow
- ניסיון בעבודה עם Hadoop, Spark, Kafka
- ניסיון בעבודה מול כלים ותשתיות בענן- יתרון
-היכרות עם עולם המס או תחום האכיפה הכלכלית- יתרון
- יכולת עבודה עצמאית, לצד יכולת עבודה בצוותים רב-תחומיים
- חשיבה יצירתית, אהבה לדאטה וראייה רחבה
- יכולות אנליטיות ויכולות ניתוח ומידול נתונים
- יכולת תקשורת עם צוותים שונים והסברת מושגים מורכבים בצורה ברורה ומובנית
- יכולת איתור ופתרון בעיות באופן עצמאי ומסודר המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8167937
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Were building the future workforce of Technology organization, while working tightly with domain owners and top management to define what per-role excellence means, leveraging data from development tools to help infer proficiency levels, providing tailored development plans and training & learning material, and harnessing the individuals themselves for their professional and personal development.
Responsibilities:
Design, implement, and maintain the complete data flow, from extraction to visualization using external tools Work within a product team where solutions are collaboratively proposed. You will be expected to translate requirements into technical designs and implement them as part of large-scale data engineering solutions Utilize various Machine Learning models to explore data, collaborating with cutting-edge Big Data tools and techniques Collaborate with various stakeholders to plan, design, develop, TEST and maintain extraordinary features Collaborating with a team of skilled developers to develop high-traffic, cloud-based applications.
Requirements:
Qualifications:
At least 5 years of experience in Big-Data technologies as a data engineer, including ETL /ELT processes and data exploration.
At least 3 years of experience in building end-to-end data pipelines using Spark, Databricks or similar tools is required.
At least 3 years of experience in Python programming and SQL queries. Experience as a backend Developer - advantage.
Team player committed to the success of the team.
Strong verbal and written communication skills with the ability to clearly explain technical concepts.
Excellent debugging, investigating and problem-solving abilities.
Curious learner who loves sharing knowledge and best practices, and can work both independently and in a team.
Ability to thrive in a fast-paced, ambiguous, and changing environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8138977
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
XM Cyber is a leading hybrid cloud security company that's changing the way organizations approach cyber risk. XM Cyber transforms exposure management by demonstrating how attackers leverage and combine misconfigurations, vulnerabilities, identity exposures, and more, across cloud and on-prem environments to compromise critical assets. With XM Cyber, you can see all the ways attackers might go, and all the best ways to stop them, pinpointing where to remediate exposures with a fraction of the effort. XM Cyber is looking for a talented Senior Big Data Engineer ! Join a team of experts responsible for developing innovative features that integrate into XM Cyber's fully automated attack simulation. This role provides the opportunity to design & implement advanced server-side features using a wide range of technologies: Apache Spark, K8s, Airflow, MongoDB, Kafka, Dockers If you are up for the challenge and you have the 'XM factor', come and join us!
Requirements:
* 5+ years of experience in backend design and development * 3+ years of experience with Spark distributed computing frameworks. * 2+ years of experience in server-side development using Node.js * 2+ years of experience with Python and TypeScript/JavaScript * 1+ year of experience with Airflow * Experience with high-scale production environments * Experience in designing and developing large distributed systems and microservices architecture * Experience with Docker/Kubernetes (advantageous) * Experience with React (advantageous) * B.Sc. degree in Computer Science or equivalent practical experience
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8113769
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Senior Data Engineer to join our dynamic data team. In this role, you will design, build, and maintain robust data systems and infrastructure that support data collection, processing, and analysis. Your expertise will be crucial in developing scalable data pipelines, ensuring data quality, and collaborating with cross-functional teams to deliver actionable insights.

Key Responsibilities:

Design, develop, and maintain scalable ETL processes for data transformation and integration.
Build and manage data pipelines to support analytics and operational needs.
Ensure data accuracy, integrity, and consistency across various sources and systems.
Collaborate with data scientists and analysts to support AI model deployment and data-driven decision-making.
Optimize data storage solutions, including data lakehouses and databases, to enhance performance and scalability..
Monitor and troubleshoot data workflows to maintain system reliability.
Stay updated with emerging technologies and best practices in data engineering.
Requirements:
4+ years of experience in data engineering or a related role within a production environment.
Proficiency in Python and SQL
Experience with both relational (e.g., PostgreSQL) and NoSQL databases (e.g., MongoDB, Elasticsearch).
Familiarity with big data AWS tools and frameworks such as Glue, EMR, Kinesis etc.
Experience with containerization tools like Docker and Kubernetes.
Strong understanding of data warehousing concepts and data modeling.
Excellent problem-solving skills and attention to detail.
Strong communication skills, with the ability to work collaboratively in a team environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8158855
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
You will work in an energetic startup environment following Agile concepts and methodologies. Joining the company at this unique and exciting stage in our growth journey creates an exceptional opportunity to take part in shaping data infrastructure at the forefront of Fintech and AI.

What you'll do:

Design, build, and maintain scalable data pipelines and ETL processes for our financial data platform

Develop and optimize data infrastructure to support real-time analytics and reporting

Implement data governance, security, and privacy controls to ensure data quality and compliance

Create and maintain documentation for data platforms and processes

Collaborate with data scientists and analysts to deliver actionable insights to our customers

Troubleshoot and resolve data infrastructure issues efficiently

Monitor system performance and implement optimizations

Stay current with emerging technologies and implement innovative solutions
Requirements:
3+ years experience in data engineering or platform engineering roles

Strong programming skills in Python and SQL

Experience with orchestration platforms like Airflow/Dagster/Temporal

Experience with MPPs like Snowflake/Redshift/Databricks

Hands-on experience with cloud platforms (AWS) and their data services

Understanding of data modeling, data warehousing, and data lake concepts

Ability to optimize data infrastructure for performance and reliability

Experience working with containerization (Docker) in Kubernetes environments

Familiarity with CI/CD concepts

Fluent in English, both written and verbal
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8152188
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
XM Cyber is a global leader in hybrid cloud security. XM Cyber brings a new approach that uses the attacker’s perspective to find and remediate critical attack paths across on-premises and multi-cloud networks. The XM Cyber platform enables companies to rapidly prioritize and respond to cyber risks affecting their business-sensitive systems. We are seeking a talented and motivated Senior BI Analyst to build our Tableau environment from the ground up. The ideal candidate will have strong analytical skills, a deep understanding of data visualization principles, and the expertise to transform data into actionable insights. You will play a single and critical role in designing, developing, and implementing Tableau dashboards and reports that facilitate data-driven decision-making within our organization. Responsibilities:
* Environment Setup: Establish and configure the Tableau environment, including server setup, user access, and security protocols.
* Data Integration: Collaborate with data engineering and IT teams to gather, clean, and integrate data from multiple sources (Salesforce, MongoDB, APIs) into Tableau.
* Dashboard Development: Design, create, and maintain interactive and user-friendly
* Tableau dashboards and reports that meet the needs of various stakeholders across the organization.
* Data Modeling: Develop and document data models and schemas to ensure efficient data retrieval and analysis.
* Business Requirements Gathering: Work closely with business users to understand their reporting needs and translate them into technical specifications.
* Performance Optimization: Monitor and optimize the performance of Tableau reports and dashboards, ensuring they meet performance standards and are scalable.
* Training and Support: Provide training and support to end-users, guiding them on how to utilize Tableau for self-service analytics.
* Documentation: Maintain comprehensive documentation of the Tableau environment, data sources, dashboards, and user training materials.
* Continuous Improvement: Stay updated on the latest Tableau features and best practices, and continuously seek opportunities to enhance and optimize the reporting capabilities.
Requirements:
* 5+ years of experience with Tableau, including dashboard creation, data visualization, and server management.
* Strong understanding of data warehousing concepts, data modeling, and ETL processes.
* Proficiency in SQL and experience with databases like SQL Server, Oracle, MySQL, etc.
* Excellent analytical and problem-solving skills, with a keen attention to detail.
* Strong communication and collaboration skills, with the ability to work effectively with technical and non-technical teams - Must have
* Experience with Python for statistical analysis and modeling — an advantage.
* Bachelor’s degree in Computer Science, Data Science, Information Systems, or related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8146655
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
18/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Senior Data Platform Engineer to join our Data Platform team. The ideal candidate will have extensive experience with data engineering, specifically with Kafka and Elasticsearch, to design and maintain our data platforms. You will work closely with cross-functional teams to ensure the scalability and reliability of our data solutions.

Job Summary:
As a Senior Data Platform Engineer, you'll be responsible for design, development, maintenance, troubleshooting, and implementation of our big data architecture. Your expertise in Elastic, Kafka, and Java will be critical in ensuring the scalability and performance of our data systems.

What youll do:

Implement data processing pipelines using Kafka for real-time data streaming.
Optimize and manage search capabilities using Elastic technologies.
Collaborate with product managers, data analysts, and other stakeholders to gather requirements and translate them into technical specifications.
Oversee code reviews, ensure best practices in coding and data handling, and maintain high-quality standards in software development.
Stay up-to-date with emerging trends and technologies in big data and recommend improvements to our architecture and processes.
Troubleshoot and resolve issues in a timely manner to minimize downtime and ensure system reliability.
Requirements:
Bachelors degree in Computer Science, Engineering, or a related field; Masters degree preferred.
8+ years of experience in the software engineering field.
5+ years of experience in big data technologies, with a focus on Elastic and Kafka.
Proficiency in Java programming and experience with related frameworks.
Strong understanding of data modeling, ETL processes, and data warehousing.
Excellent problem-solving abilities and strong analytical skills.
A solid understanding of CI/CD principles.
Experience working with both external and in-house APIs and SDKs
Advantages:

Experience with Docker, Kubernetes
Experience with cloud platforms (e.g., AWS or Azure)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8142364
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We're looking for a Senior Data Engineer to help expand our cloud team's capabilities. Our team owns the central cloud services for the entire company, including a unique content management infrastructure that forms the core of our product. As a senior data engineer, you will work with cutting-edge technologies, designing and implementing advanced SaaS solutions and large-scale data processes. We seek someone who is self-driven, motivated, independent, and a strong team player.

Build and optimize scalable data pipelines and services, with a focus on performance and efficiency.
Drive new feature creation within complex data systems by gathering requirements, crafting robust architecture, and delivering high-quality solutions.
Collaborate with multiple teams across the company to ensure the integration of data-driven features and services.
Solve complex challenges in a fast-paced and evolving environment while maintaining high-quality standards.
Ensure system reliability and robustness through CI/CD pipelines, Agile Scrum methodologies, and proactive testing.
Requirements:
5+ years of hands-on experience in data engineering, data manipulation, and ETL development using tools like AWS, Node.js, and/or TypeScript.
Demonstrated expertise in designing and implementing large-scale data systems and pipelines.
Strong expertise in AWS or similar cloud platforms (S3, EC2, Athena, Glue, etc.), with a focus on deploying and optimizing data services.
Strong background in data manipulation, including ETL flows, big data processing, and data modeling.
Familiarity with Elasticsearch (Elastic) or similar search and analytics engines.
Excellent teamwork and communication skillsable to collaborate effectively in a cross-functional environment.
BSc in Computer Science/Engineering or equivalent industry experience.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8142208
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
17/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for an experienced Data Product Manager to work in our Data Product team within the Ad Network. As a Data Product Manager you will be responsible for finding ways to leverage data throughout the entire product lifecycle to improve our advertising solution. You will be responsible to balance the strategy, governance, and implementation of anything data-related, and facilitate the conversations between all impacted stakeholders (executives, engineers, analysts, other product teams and other data consumers).
This role is part of a small team of data products who are responsible for data flow and business logic across the organization from the raw data levels up until the consumption by reporting an ml processes. We re working on building and singular data pipeline and creating one source of truth for all the data while supporting ongoing needs for ml and reporting. This team is in the center of all projects and enables the organization to make data based decision.

What you'll be doing:
Define data flow.
Enhance existing data product (BI Portal, Aggregated data and other data products).
Translate requirements of large data initiatives into smaller actionable items.
Lead and motivate a team of data engineers.
Prioritize.
Communicate timelines to organization.
Key member in major projects (from kickoff until handover to business from a product/tech perspective).
Focal point across the company on data.
Increase data accessibility (surface data where people need it when they need it).
Increase data democratization (make it easier for people to manipulate the data).
Requirements:
What we're looking for:
At least 4 years of experience as a data product with big data.
Strong leadership, organizational and execution skills.
Exceptional communication skills.
Strong analytical and technical knowledge.
Knowledge and hands-on SQL experience.
You are passionate for solving complex technical issues and understand how great products work behind the scenes.
Self managing and follow through.
Understanding of data management principles.
Understanding complex systems and working with very technical colleagues.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8141978
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
17/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a highly skilled and experienced Senior Machine Learning Engineer to join our dynamic AI team. The ideal candidate will have a strong background in machine learning, data engineering, and software engineering, and will be responsible for leading the design, development, and deployment of cutting-edge machine learning pipelines and systems.
What you'll be doing
System Design and Architecture: Develop and maintain robust, scalable, and efficient ML pipelines including data collection, preprocess, and analyze large datasets to facilitate model training, evaluation and monitoring.
Research and Innovation: Stay current with the latest advancements in machine learning and AI, and apply innovative techniques to improve model performance and application.
Mentorship and Leadership: Provide technical guidance and mentorship to junior engineers and data scientists, and lead project teams to successful completion.
Cross-Functional Collaboration: Work closely with data scientists, software engineers, architects and product managers to integrate machine learning solutions into production systems.
Requirements:
What we're looking for:
Proficiency in programming languages such as Python or Java/Scala and experience with ML frameworks such as TensorFlow, PyTorch, and Scikit-Learn.
Hands on experience in streaming technologies (Kafka, Kinesis, SQS)
Expert in big data processing frameworks such as Apache Spark, Trino, Ray, Dask.
Data Lake management knowledge: table formats (Iceberg, Delta). Data-warehouses (Redshift, Big Query, Snowflake)
MLOps systems - Model registry, Experiment Tracking (MLFlow, W&B), Feature Store management (Feast, Tecton), Workflow management (Kubeflow, Airflow), Serving platform (Seldon Core, KServe, Ray Serve, Sagemaker).
Knowledge of microservices architecture and event-driven design.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8141802
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Lead process for setting data-driven goals, develop forecasting models to predict growth, and assess impact of high-priority growth initiatives and develop a long-term plan for enhancing Waze's attribution methodologies.
Monitor Waze's performance against goals, analyze root causes of deviations, and provide executive leadership with data-driven insights for informed decision-making.
Collaborate on in-depth analytical projects, uncover insights to drive product enhancements and improve user experience. Ensure Waze and Geo are aligned on key metrics, identify proxy metrics, and guide the design of new metrics to provide a comprehensive view of driving behavior across platforms.
Drive efforts in leveraging next generation data science capabilities to address new problem areas.
Serve as a thought leader within Waze and beyond, using data analysis and business acumen to shape product roadmaps, measurement strategies, and drive strategic decision-making.
Requirements:
Bachelor's degree in Statistics, Mathematics, Data Science, Engineering, Physics, Economics, or a related quantitative field.
8 years of work experience using analytics to solve product or business problems, performing statistical analysis, and coding (e.g., Python, R, SQL), or 5 years work experience with an advanced degree.

Preferred qualifications:
Advanced degree in Statistics, Mathematics, Data Science, Engineering, Physics, Economics, or a related quantitative field.
Proficiency with statistical packages (R or Python) to perform forecasting, segmentation, classification, and exploratory data analysis, in addition to gathering and processing data through standard querying languages (e.g., SQL).
Knowledge of statistics and commonly used statistical methods (e.g., hypothesis testing, regression, cohort analysis) and data visualization skills, including building dashboards and visualizations for business reviews and executive-level presentations.
Ability to translate product questions into problem solving frameworks and combining business acumen and statistics to arrive at an answer.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8135285
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for an experienced data engineer to join our team and help lead the development of our data platform. If youre passionate about big data and love solving complex data problems at scale, come join the team!
What you'll do:
Take a leading part in the companys data strategy, designing and building data flows and data pipelines from scratch
Maintain and improve existing data pipelines and aggregation processes ingesting petabytes of data on a daily basis
Work closely with our data analysts, data scientists and engineering teams to define and optimize ways we use our data
Be the go-to person for every data related issue, assisting most teams within R&D
Requirements:
5+ years of experience as a big data engineer
Prior experience writing in Go - an advantage
Experienced with high-scale data pipelines over the cloud
Managed data flows over a cloud-based data warehouse. Experience with Google Bigquery or Snowflake - an advantage!
Prior work with event-based system and messaging queues such as Kafka, RabbitMQ or cloud-managed queueing solution
Team player with great communication and presentation skills
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8133026
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
לארגון גדול ומוביל דרוש/ה Data Engineer לצוות מפתחי Big Data
לתפקיד מעניין ומגוון, הובלה ופיתוח מקצה לקצה של תהליכי Data Pipeline
ו-Big Data Solutionת ביצוע Design ויישום פתרונות.
עבודה עם אנשי Data Scinence וData Architect.
עבודה בPthon, Spark, Infromatica.
וטכנולוגיות מתקדמות נוספותת בעלת יכולות גבוהות להתמודדות עם אתגרים חדשים ומשתנים, מוטיבציה ללימוד עצמי, Team Player ויכולות התנהלות מול ממשקים שונים בארגון.
דרישות:
מינימום של 2 שנות ניסיון מעשי בפיתוח תהליכי Data Pipeline בקוד Phton - חובה.
מינימום של 2 שנות ניסיון מעשי עם SPARK ועבודה על Big Data Cluster - חובה.
מינימום של 2 שנות ניסיון בעבודה עם Hadoop - חובה.
מינימום של 2 שנות ניסיון בכתיבת SQL ברמה גבוה - חובה.
מינימום של 2 שנות ניסיון בעבודה עם Databases שונים כגון:MS SQL, Teeradata, Hive, Oracle - חובה.
ניסיון בפיתוח תהליכי ETL/Data Pilelines בכלים כגון: SSIS, Informatica - יתרון משמעותי.
רקע בBI - יתרון משמעותי. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8131912
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
תיאור משרה:
הגדרה ותמיכה בארכיטקטורות מידע עבור פרויקטים בתחומים מגוונים כמו cyber, שיווק פננסים וכו`.
תכנון וחשיבה אסטרטגית על פעילות הדאטה בארגון והתאמת פתרונות טכנולוגיים לדרישות עתידיות.
בניית תהליכי עבודה, מתודולוגית וסטנטרדיזציה המותאמים לעולם פיתוח מודלים, הדאטה ולסביבת עבודה ארגונית.
עבודה מול ספקי מידע, מנהלי פרויקטים, אנשי Science Data וData Analyst בארגון לצרך התאמת ומתן מענה לדרישות עסקיות בארגון.
עבודה עם כלים וטכנולוגיות מתקדמות בתחום הLearning Machine.
והBig Data ביצוע מחקרי שוק בחינת כלים משלימים לעולמות ביג דאטה ופיתוח מודלים.
דרישות:
מינימום 4 שנות ניסיון והתמחות מעשית בניהול מאגרי מידע גדולים - חובה.
מינימום 4 שנות ניסיון מוכח בניהול ותפעול מערכות בסביבת BIG DATA - חובה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8131907
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
06/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
A growing tech company in the automotive space with hubs across the US and Israel. Our mission is to constantly disrupt the industry by creating groundbreaking technologies to help dealers build stronger, more resilient businesses. Our work happens in the fast lane as we bring AI-powered, data-driven solutions to a quickly evolving industry.

Our team consists of curious and creative individuals who are always looking to achieve the impossible. We are bold, collaborative, and goal-driven, and at our core, we believe every voice has value and can impact our bottom line.
If you are a creative, solutions-oriented individual who is ready to put your career in drive,the place for you!

We are looking for an experienced Data Engineering Tech Lead to join our team and make a real impact! In this hands-on role, you will drive the architecture, development, and optimization of our Data infrastructure, ensuring scalable and high-performance data solutions that support analytics, AI, and business intelligence needs. You will collaborate closely with analysts, Product, DevOps, and software engineers to cultivate a robust data ecosystem.

This position will report to the CISO and can be based out of Jerusalem or Tel-Aviv.

What you will be responsible for
Lead the design and implementation and maintenance of our DWH & Data Lake architecture to support both analytical and operational use cases.
Develop scalable ETL/ELT pipelines for ingestion, transformation, and optimization of structured and unstructured data.
Ensure data quality, governance, and security throughout the entire data lifecycle.
Optimize performance and cost-efficiency of data storage, processing, and retrieval.
Work closely with BI and analytics teams to guarantee seamless data integration with visualization tools.
Collaborate with stakeholders (BI teams, Product, and Engineering) to align data infrastructure with business needs.
Mentor and guide analysts, fostering a culture of best practices and professionalism.
Stay updated with industry trends and evaluate new technologies for continuous improvement.
Requirements:
5+ years of experience in data engineering, with at least 2-3 years experience in a Tech Lead role.
At least 3 years of hands-on experience with AWS, including services like S3, Redshift, Glue, Athena, Lambda, and RDS.
Expertise in DWH & Data Lake architectures, including columnar databases, data partitioning, and lakehouse concepts.
Strong experience with cloud data solutions like Redshift, Snowflake, BigQuery, or Databricks.
Proficiency in ETL/ELT tools (e.g., dbt, Apache Airflow, Glue, Dataflow).
Deep knowledge of SQL & Python for data processing and transformation.
Experience working with BI and visualization tools such as Power BI, Tableau, Looker, or similar.
Experience with real-time data streaming (Kafka, Kinesis, Pub/Sub) and batch processing.
Understanding of data modeling (Star/Snowflake), data governance, and security best practices.
Experience with CI/CD, infrastructure-as-code (Terraform, CloudFormation), and DevOps for data.
The personal competencies you need to have:
Excellent communication skills and the ability to work as a team.
Strong sense of ownership, urgency, and drive.
Ability to take the initiative, come up with ideas and solutions, and run it with a "getting things done" attitude.
Ability to work independently and manage tight deadlines.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8129541
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן 18 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >