רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
מיקום המשרה: ראשון לציון
מחלקת delivery בפלטפורמת הדאטה. עובדים בסביבת עבודה אגילית ודינמית, אנו מפתחים פתרונות BI מתקדמים ואיכותיים, המאפשרים ללקוחותינו העסקיים ברחבי הבנק לקבל החלטות מושכלות ומבוססות נתונים.

תחומי אחריות:
תכנון וביצוע בדיקות מקיפות על תהליכי ETL, טבלאות DWH ודוחות BI.
כתיבת מסמכי בדיקות מפורטים (STR, STD, STP ) בהתאם לסטנדרטים גבוהים.
איתור, ניתוח ופתרון תקלות נתונים, תוך הבנת שורש הבעיה והשלכותיה.
בדיקת איכות נתונים ממערכות מקור שונות, והשוואתם למקורות המידע המאוחדים.
השתתפות פעילה בתהליכי תכנון, פיתוח ובדיקות, תוך מתן משוב בונה וקידום פתרונות יצירתיים.
עבודה במתודולוגיית Agile דינמית, תוך שיתוף פעולה הדוק עם חברי הצוות.
דרישות:
ניסיון של לפחות שנתיים בבדיקות QA על תוצרי data או BI - חובה.
שליטה מעולה בשפת SQL ובכתיבת שאילתות מורכבות - חובה.
היכרות מעמיקה עם כלי ETL מובילים (Informatica, DataStage).
היכרות עם מערכות BI (Pyramid, Tableau) -
היכרות עם Database מורכב
יכולת עבודה עצמאית, יסודית וירידה לפרטים
תקשורת בינאישית מצוינת ויכולת עבודה אפקטיבית מול צוותים מגוונים
חיבור והבנה של עולם הדאטה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8498232
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק בתחום ה- Cyber security דרוש/ה Mid/Senior data engineer.
במסגרת התפקיד: עבודה בצוות מגוון מאוד, עבודה בתור data engineer
כולל עבודה בעיקר ב- Python, שימוש בכלי data חדישים ומובילים, עבודה מרובה מול
DB שונים וכן עבודה קבועה מול צוותי פיתוח מקבילים בחברה.
דרישות:
תואר ראשון טכנולוגי - חובה
4 שנות ניסיון בתור data engineer - חובה
רקע מעולמות הפיתוח backend - יתרון אך לא חובה
ניסיון מאוד מעמיק ב- Python - חובה
רקע רלוונטי בכלי data חדישים
אנגלית מעולה
רמה אישית גבוהה מאוד המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8486634
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברת תוכנה במרכז הארץ מגייסת data Engineer
התפקיד כולל: עבודה עם לקוחות עסקיים, מנתחי מערכות ומנהלי פרויקטים לצורך פיתוח פתרונות BI מקצה לקצה: אפיון דרישות, פיתוח תהליכי ETL, בניית מודלים ל- DWH, פיתוח דשבורדים והטמעת הפתרונות בסביבת הייצור, הבנה עסקית עמוקה, פתרון בעיות, הובלת תהליכים מקצועיים בעולם הדאטה ועוד.
דרישות:
- 3 שנות ניסיון בפיתוח פתרונות BI מקצה לקצה
- ניסיון באפיון מול לקוחות ופיתוח תהליכי ETL
- שליטה ב-SSIS וניסיון עם פיתוח דשבורדים Power BI
- הבנה עמוקה של שכבות נתונים, DWH וראייה מערכתית
- ניסיון עם אחד מהכלים: data Factory / Rivery / DBT / Airflow / Informatica /
Glue - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8517153
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בריקרוטיקס בע"מ
Location: More than one
Job Type: Full Time and Hybrid work
We are a pioneer company that integrates statistics modules and algorithms with a passion to sports, mainly soccer.
We are looking for a data analyst to join our research department. The data analyst function will support several stakeholders in our company.
As a part of your job you'll be:
Working with the research team and be the one to look and understand the bigger picture.
Learning the data gathering mechanism.
Face and solve business problems by analyzing data and provide insights to the business.
Develop complex logic flows to identify predefined events and generate desired insights.
Support the researchers on their projects.
Responsible for conducting both recurring and ad hoc analysis for business stake holders.
Research and integrate new tools and methods to enrich datasets.
Requirements:
A least 2 years of experience as a data Analyst - a must
High hands-on SQL skills ( SQL server ) - a must
R or Python programming skills- a must
Knowledge in statistics - a must
Interest in FinTech, Algo Trading - an advantage
Interest in sports (soccer in particular) - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8480663
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Senior Data Engineer.
Main responsibilities:
Provide the direction of our data architecture. Determine the right tools for the right jobs. We collaborate on the requirements and then you call the shots on what gets built.
Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Optimize and monitor the team-related cloud costs.
Design and construct monitoring tools to ensure the efficiency and reliability of data processes.
Implement CI/CD for Data Workflows
Requirements:
5+ Years of Experience in data engineering and big data at large scales. - Must
Extensive experience with modern data stack - Must:
Snowflake, Delta Lake, Iceberg, BigQuery, Redshift
Kafka, RabbitMQ, or similar for real-time data processing.
Pyspark, Databricks
Strong software development background with Python/OOP and hands-on experience in building large-scale data pipelines. - Must
Hands-on experience with Docker and Kubernetes. - Must
Expertise in ETL development, data modeling, and data warehousing best practices.
Knowledge of monitoring & observability (Datadog, Prometheus, ELK, etc)
Experience with infrastructure as code, deployment automation, and CI/CD.
Practices using tools such as Helm, ArgoCD, Terraform, GitHub Actions, and Jenkins.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509776
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Experienced Data Engineer? Excellent team player?
Come join a great team to overcome meaningful cyber challenges!
Our Data Solutions Group is looking for an exceptional Python developer with Data Engineering experience.
Requirements:
Excellent team player
Excellent Python developer
BSc Computer Science or similar
2+ years of experience with big data frameworks such as Spark or Hadoop
2+ years of experience in managing ETLs in AirFlow or similar, multi-source data flows and processing of large data sets.
3+ years of experience with SQL
Attention to details, high responsibility and open minded
Ability to take initiative with a self-motivated attitude and reliability
Critical thinker and problem-solving skills
Advantages
Proven capabilities in data analysis and data-driven conclusions
Experience with the ElasticSearch suite
Java development experience
Experience with Linux environment
Background in the cyber domain.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509743
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking an outstanding and passionate Data Platform Engineer to join our growing R&D team.

You will work in an energetic startup environment following Agile concepts and methodologies. Joining the company at this unique and exciting stage in our growth journey creates an exceptional opportunity to take part in shaping our data infrastructure at the forefront of Fintech and AI.

What you'll do:

Design, build, and maintain scalable data pipelines and ETL processes for our financial data platform.

Develop and optimize data infrastructure to support real-time analytics and reporting.

Implement data governance, security, and privacy controls to ensure data quality and compliance.

Create and maintain documentation for data platforms and processes.

Collaborate with data scientists and analysts to deliver actionable insights to our customers.

Troubleshoot and resolve data infrastructure issues efficiently.

Monitor system performance and implement optimizations.

Stay current with emerging technologies and implement innovative solutions.
Requirements:
What you'll bring:

3+ years experience in data engineering or platform engineering roles.

Strong programming skills in Python and SQL.

Experience with orchestration platforms like Airflow/Dagster/Temporal.

Experience with MPPs like Snowflake/Redshift/Databricks.

Hands-on experience with cloud platforms (AWS) and their data services.

Understanding of data modeling, data warehousing, and data lake concepts.

Ability to optimize data infrastructure for performance and reliability.

Experience working with containerization (Docker) in Kubernetes environments.

Familiarity with CI/CD concepts.

Fluent in English, both written and verbal.

And it would be great if you have (optional):

Experience with big data processing frameworks (Apache Spark, Hadoop).

Experience with stream processing technologies (Flink, Kafka, Kinesis).

Knowledge of infrastructure as code (Terraform).

Experience building analytics platforms.

Experience building clickstream pipelines.

Familiarity with machine learning workflows and MLOps.

Experience working in a startup environment or fintech industry.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509718
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a highly skilled Senior Database Engineer to join our DBA team. In this role, youll design and optimize our large-scale database infrastructure while ensuring high availability, scalability, and performance. In your day-to-day, you will:
Design and optimize our large-scale database infrastructure to meet high availability and performance standards
Identify cost-effective areas for improvement in current databases
Collaborate with developers and software architects to model, create, and maintain robust data structures and the data layer
Lead and execute technical database-related POCs and benchmarks
Conduct regular audits of database design to ensure quality and compliance with service level agreements (SLAs)
Quickly identify and resolve critical production issues and provide on-call support as needed.
Requirements:
10+ years of hands-on production experience with MySQL, MongoDB, RDBMS, and NoSQL databases
Proven track record as a Senior Database Engineer, Technical Leader, or DBA TL with significant experience leading major database initiatives
Strong expertise in Data Solution Architecture, including high availability, scalability, backups, and disaster recovery (DR), data modeling, performance tuning, as well as conducting POCs and benchmarks
Experience with cloud platforms such as AWS and/or GCP and their data products
Fast learner with extensive infrastructure knowledge of Unix/Linux systems
Excellent interpersonal communication skills to collaborate effectively with professionals across various departments
Passion for automation, experience with tools like Ansible/Jenkins/Puppet/Chef - an advantage
Knowledge of AI technologies and their applications in database management or optimizations, including experience with AI-driven analytics or machine learning models - an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509688
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
18/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Data Engineer - ML & GenAI Platform
Job Description
As a data engineer in our data science group, youll build, use, and enhance our ML and GenAI platforms, powering data products and LLM-based services across. Youll design and operate data and MLOps infrastructure for batch inference, knowledge-base workflows, evaluation metrics, and fine-tuning pipelines. Collaborating with data scientists, product managers, and engineers, youll bring AI features into production at scale.
Extend and implement new capabilities in ML and GenAI platforms
Design and maintain scalable, reliable data architectures and pipelines for model training, LLM fine-tuning, inference, and evaluation
Develop and maintain Airflow DAGs for metrics calculation, batch inference, KB workflows, and other data science projects
Collaborate with data scientists and engineers to integrate models and GenAI features into production systems Ensure high-quality code through best practices in testing, code reviews, documentation, and CI/CD for data and ML workloads
Work with tools and platforms like Airflow, Spark, Docker, Python Serverless, Kafka, and multiple cloud environments to deliver scalable, cost-effective GenAI solutions.
Requirements:
Were looking for a technically proficient engineer with expertise in data, a passion for ML and GenAI, and the ability to identify and solve complex problems.
3+ years of experience in data engineering or building data-intensive systems
Proficient in Python and SQL with hands-on experience building data pipelines and production-grade services
Practical experience with Airflow, Spark, and Docker
Knowledge of or strong interest in data science and machine learning
Experience or strong interest in GenAI platforms and LLM-based services
Excellent communication and collaboration skills to work with cross-team stakeholders
Experience in cloud environments like AWS and/or GCP - an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8506295
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
18/01/2026
Location: Merkaz
Job Type: Full Time
we are looking for a Data engineer position - part of the iTero data team.
Key Responsibilities:
Collect and arrange data from various sources
Automate workflows and improve performance of existing data processes
Implement data quality checks, monitoring, and alerting to ensure accuracy and reliability
Optimize performance and costs of our data platform
Ensure compliance with data governance, security, and privacy standard
Requirements:
4+ years of industry experience as a data engineer
Hands-on experience with Spark
Data driven with understanding of business processes and logics
Experienced coding with python or Scala​
Experience working with different ETL / ELT tools
Advantage
Knowledge of working with Databricks platform and services
Strong SQL skills
Familiar with AWS environment and services
Familiar with CICD processes​
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8505898
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Senior Backend Developer.
What You'll Do:
Design and implement end-to-end features and services within a multi-service architecture.
Build and maintain a scalable data platform, incorporating advanced business logic and developing asynchronous, data-oriented, and scalable services.
Continuously improve and enhance the current data platform to ensure reliability, scalability, and performance.
Enhance and extend the functionality of existing systems.
Requirements:
5+ years as a Data Engineer or Backend Developer.
Proficient in Python; advanced skills are a plus.
Experience designing scalable data platforms, preferably in SaaS.
Expertise in building, optimizing, and maintaining large-scale production systems.
Hands-on with ETL/ELT pipelines, focusing on monitoring, supportability, and resource efficiency.
Strong knowledge of orchestration tools (e.g., Apache Airflow, Dagster).
Clear communication of technical processes to non-technical stakeholders.
Proven ability to design scalable, cloud-based systems in SaaS environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504305
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
It starts with you - an engineer who cares about building data pipelines and models that deliver reliable, trusted data. You value data quality, clean transformations, and making data accessible to those who need it. Youll work alongside experienced engineers to build ETL/ELT pipelines, maintain dimensional models, and implement quality checks that turn raw data into actionable intelligence.
If you want to grow your skills building data products for mission-critical AI, join mission - this role is for you.
:Responsibilities
Build and maintain ETL/ELT pipelines using platform tooling - workflows that extract from sources, apply transformations, and load into analytical stores.
Develop and maintain data models - fact/dimension tables, aggregations, and views that serve analytics and ML use cases.
Implement data quality checks - validation rules, tests, and monitoring for data freshness and accuracy.
Maintain documentation and lineage - keeping data catalogs current and helping consumers understand data sources and transformations.
Work with stakeholders to understand data requirements and implement requested data products.
Troubleshoot pipeline failures - investigating issues, fixing bugs, and improving reliability.
Write clean, tested, well-documented SQL and Python code.
Collaborate with Data Platform on tooling needs; work with Datastores on database requirements; partner with ML, Data Science, Analytics, Engineering, and Product teams on data needs.
Design retrieval-friendly data artifacts - RAG-supporting views, feature tables, and embedding pipelines - with attention to freshness and governance expectations.
Requirements:
3+ years in data engineering, analytics engineering, BI development, or software engineering with strong SQL focus.
Strong SQL skills; complex queries, window functions, CTEs, query optimization basics
Data modeling - Understanding of dimensional modeling concepts; fact/dimension tables, star schemas
Transformation frameworks - Exposure to dbt, Spark SQL, or similar; understanding of modular, testable transformations
Orchestration - Familiarity with Airflow, Dagster, or similar; understanding of DAGs, scheduling, dependencies
Data quality - Awareness of data validation approaches, testing strategies, and quality monitoring
Python - Proficiency in Python for data manipulation and scripting; pandas, basic testing
Version control - Git workflows, code review practices, documentation
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504288
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
It starts with you - a technical leader whos passionate about data pipelines, data modeling, and growing high-performing teams. You care about data quality, business logic correctness, and delivering trusted data products to analysts, data scientists, and AI systems. Youll lead the Data Engineering team in building ETL/ELT pipelines, dimensional models, and quality frameworks that turn raw data into actionable intelligence.
If you want to lead a team that delivers the data products powering mission-critical AI systems, join mission - this role is for you.
:Responsibilities
Lead and grow the Data Engineering team - hiring, mentoring, and developing engineers while fostering a culture of ownership and data quality.
Define the data modeling strategy - dimensional models, data marts, and semantic layers that serve analytics, reporting, and ML use cases.
Own ETL/ELT pipeline development using platform tooling - orchestrated workflows that extract from sources, apply business logic, and load into analytical stores.
Drive data quality as a first-class concern - validation frameworks, testing, anomaly detection, and SLAs for data freshness and accuracy.
Establish lineage and documentation practices - ensuring consumers understand data origins, transformations, and trustworthiness.
Partner with stakeholders to understand data requirements and translate them into well-designed data products.
Build and maintain data contracts with consumers - clear interfaces, versioning, and change management.
Collaborate with Data Platform to define requirements for new platform capabilities; work with Datastores on database needs; partner with ML, Data Science, Analytics, Engineering, and Product teams to deliver trusted data.
Design retrieval-friendly data products - RAG-ready paths, feature tables, and embedding pipelines - while maintaining freshness and governance SLAs.
Requirements:
8+ years in data engineering, analytics engineering, or BI development, with 2+ years leading teams or technical functions. Hands-on experience building data pipelines and models at scale.
Data modeling - Dimensional modeling (Kimball), data vault, or similar; fact/dimension design, slowly changing dimensions, semantic layers
Transformation frameworks - dbt, Spark SQL, or similar; modular SQL, testing, documentation-as-code
Orchestration - Airflow, Dagster, or similar; DAG design, dependency management, scheduling, failure handling, backfills
Data quality - Great Expectations, dbt tests, Soda, or similar; validation rules, anomaly detection, freshness monitoring
Batch processing - Spark, SQL engines; large-scale transformations, optimization, partitioning strategies
Lineage & cataloging - DataHub, OpenMetadata, Atlan, or similar; metadata management, impact analysis, documentation
Messaging & CDC - Kafka, Debezium; event-driven ingestion, change data capture patterns
Languages - SQL (advanced), Python; testing practices, code quality, version control
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504281
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
It starts with you - an engineer driven to build modern, real-time data platforms that help teams move faster with trust. You care about great service, performance, and cost. Youll architect and ship a top-of-the-line open streaming data lake/lakehouse and data stack, turning massive threat signals into intuitive, self-serve data and fast retrieval for humans and AI agents - powering a unified foundation for AI-driven mission-critical workflows across cloud and on-prem.
If you want to make a meaningful impact, join mission and build best-in-class data systems that move the world forward - this role is for you.
:Responsibilities
Build self-serve platform surfaces (APIs, specs, CLI/UI) for streaming and batch pipelines with correctness, safe replay/backfills, and CDC.
Run the open data lake/lakehouse across cloud and on-prem; enable schema evolution and time travel; tune partitioning and compaction to balance latency, freshness, and cost.
Provide serving and storage across real-time OLAP, OLTP, document engines, and vector databases.
Own the data layer for AI - trusted datasets for training and inference, feature and embedding storage, RAG-ready collections, and foundational building blocks that accelerate AI development across the organization.
Enable AI-native capabilities - support agentic pipelines, self-tuning processes, and secure sandboxing for model experimentation and deployment.
Make catalog, lineage, observability, and governance first-class - with clear ownership, freshness SLAs, and access controls.
Improve performance and cost by tuning runtimes and I/O, profiling bottlenecks, planning capacity, and keeping spend predictable.
Ship paved-road tooling - shared libraries, templates, CI/CD, IaC, and runbooks - while collaborating across AI, ML, Data Science, Engineering, Product, and DevOps. Own architecture, documentation, and operations end-to-end.
Requirements:
6+ years in software engineering, data engineering, platform engineering, or distributed systems, with hands-on experience building and operating data infrastructure at scale.
Streaming & ingestion - Technologies like Flink, Structured Streaming, Kafka, Debezium, Spark, dbt, Airflow/Dagster
Open data lake/lakehouse - Table formats like Iceberg, Delta, or Hudi; columnar formats; partitioning, compaction, schema evolution, time-travel
Serving & retrieval - OLAP engines like ClickHouse or Trino; vector databases like Milvus, Qdrant, or LanceDB; low-latency stores like Redis, ScyllaDB, or DynamoDB
Databases - OLTP systems like Postgres or MySQL; document/search engines like MongoDB or ElasticSearch; serialization with Avro/Protobuf; warehouse patterns
Platform & infra - Kubernetes, AWS, Terraform or similar IaC, CI/CD, observability, incident response
Performance & cost - JVM tuning, query optimization, capacity planning, compute/storage cost modeling
Engineering craft - Java/Scala/Python, testing, secure coding, AI coding tools like Cursor, Claude Code, or Copilot
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504233
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
As part of the Audiences team, youll work on highly scalable systems, tackle real-time challenges, and contribute to a platform that directly impacts the success of our customers campaigns.

Our team mixes disciplines from back-end, data, AI and front-end engineers and were looking for a great back-end data oriented developer that is passionate about what they do, who want to dive into the worlds of big data, microservices and production management at our scale, to help us reach our vision and goals

What youll do:
Solve diverse, complex problems at a large scale.
Collaborate with Product Managers, data scientists and Software Engineers to deliver innovative, user-facing products.
Independent - cradle to grave, own a feature from scratch to production.
Analyze and improve performance, scalability and stability of our products, environments and tools.
Continuously learn and evaluate new technologies in the everlasting effort to perfect our products and adapt to the ever-growing scale.
Requirements:
What you have:
5+ years of development experience with a passion for excellence.
Experience in data engineering with a focus on Apache Spark.
Experience in server-side engineering.
Experience in programming languages such as Node.js, Scala, Go.
B.Sc. in computer science or an equivalent.
Excellent collaboration and teamwork skills.
A proactive, problem-solving mindset with a passion for learning and tackling new challenges.

Bonus points:
Experience with data orchestration tools like Airflow.
Familiarity with AWS services such as SQS, EMR, RDS, S3.
Recommended by our employee.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8502280
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
The Audiences team is responsible for building and maintaining our industry leading segmentation solution. Enabling customers to define, manage, and activate dynamic user segments across multiple advertising platforms.

We handle complex data pipelines, real-time audience updates, and seamless integrations with major media partners. Were also building predictive audience capabilities using AI to help our customers target the right users before they take action. Our work plays a critical role in driving user acquisition, engagement, and retention strategies for some of the worlds largest brands.

As part of the Audiences team, youll work on highly scalable systems, tackle real-time challenges, and contribute to a platform that directly impacts the success of our customers campaigns.

Our team mixes disciplines from back-end, data, AI and front-end engineers and were looking for a great back-end data oriented developer that is passionate about what they do, who want to dive into the worlds of big data, microservices and production management at our scale, to help us reach our vision and goals

What youll do
Solve diverse, complex problems at a large scale
Collaborate with Product Managers, data scientists and Software Engineers to deliver innovative, user-facing products.
Independent - cradle to grave, own a feature from scratch to production
Analyze and improve performance, scalability and stability of our products, environments and tools
Continuously learn and evaluate new technologies in the everlasting effort to perfect our products and adapt to the ever-growing scale
Requirements:
What you have:
3+ years of development experience with a passion for excellence.
Experience in data engineering with a focus on Apache Spark.
Experience in server-side engineering.
Experience in programming languages such as Node.js, Scala, Go.
B.Sc. in computer science or an equivalent.
Excellent collaboration and teamwork skills.
A proactive, problem-solving mindset with a passion for learning and tackling new challenges.

Bonus points:
Experience with data orchestration tools like Airflow.
Familiarity with AWS services such as SQS, EMR, RDS, S3.
Recommended by our employee.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8502008
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
Job Type: Full Time and Hybrid work
SQL & data Engineer | Direct employment from day one!
Join a successful, fast-growing Med-Tech startup making a real impact in the healthcare world!
Were looking for a hands-on SQL expert to own our data environment and fuel our growth. This is a unique opportunity to join a scaling success story while enjoying a flexible hybrid model with 3 days of working from home. WHAT YOULL DO
Work directly with messy, production SQL server data
Write and optimize complex SQL (CTEs, window functions, performance tuning)
Manage backups, reliability, and data integrity for SQL
Build Python pipelines to extract, clean, and transform data
Design and maintain MongoDB collections used for analytics and reporting
Support BI tools and internal reports with clean, reliable datasets
Partner closely with product and operations on real business questions.
Requirements:
MUST-HAVE REQUIREMENTS
At least 4 years of strong SQL server experience (core requirement)
Experience working with legacy or imperfect schemas Python for data processing and automation
Practical experience with MongoDB (modeling, indexing, querying)
Excellent English communication skills
Comfortable working hands-on in a fast-moving startup environment
NICE TO HAVE (ADVANTAGES)
BI tools (Power BI, Looker, Tableau, etc.).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8500627
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/01/2026
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced Data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data-driven solutions for the business. Key Responsibilities:
* Design, develop, and optimize ETL/ELT pipelines for large-scale data processing.
* Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
* Troubleshoot and optimize queries and jobs for performance improvements.
* Implement best practices for data governance, security, and monitoring.
* Stay updated with industry trends and emerging technologies in data engineering. If you're passionate about building scalable data solutions and thrive in a fast-paced environment, we’d love to hear from you!
Requirements:
* 4+ years of experience in data engineering or related fields.
* Proficiency in Python for data processing and automation (mandatory).
* Deep understanding of Apache Spark and Databricks for big data processing (mandatory).
* Experience with Git (mandatory).
* Expertise in Apache Airflow for workflow orchestration.
* Familiarity with cloud-based environments, particularly Azure.
* Advanced proficiency in SQL and query optimization.
* Familiarity with data modeling, ETL/ELT principles, and performance tuning.
* Knowledge of CI/CD and containerization (Docker).
* An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8500308
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a Senior Data Engineer to join our Platform group in the Data Infrastructure team.
Youll work hands-on to design and deliver data pipelines, distributed storage, and streaming services that keep our data platform performant and reliable. As a senior individual contributor you will lead complex projects within the team, raise the bar on engineering best-practices, and mentor mid-level engineers - while collaborating closely with product, DevOps and analytics stakeholders.
About the Platform group
The Platform Group accelerates our productivity by providing developers with tools, frameworks, and infrastructure services. We design, build, and maintain critical production systems, ensuring our platform can scale reliably. We also introduce new engineering capabilities to enhance our development process. As part of this group, youll help shape the technical foundation that supports our entire engineering team.
Code & ship production-grade services, pipelines and data models that meet performance, reliability and security goals
Lead design and delivery of team-level projects - from RFC through rollout and operational hand-off
Improve system observability, testing and incident response processes for the data stack
Partner with Staff Engineers and Tech Leads on architecture reviews and platform-wide standards
Mentor junior and mid-level engineers, fostering a culture of quality, ownership and continuous improvement
Stay current with evolving data-engineering tools and bring pragmatic innovations into the team.
Requirements:
5+ years of hands-on experience in backend or data engineering, including 2+ years at a senior level delivering production systems
Strong coding skills in Python, Kotlin, Java or Scala with emphasis on clean, testable, production-ready code
Proven track record designing, building and operating distributed data pipelines and storage (batch or streaming)
Deep experience with relational databases (PostgreSQL preferred) and working knowledge of at least one NoSQL or columnar/analytical store (e.g. SingleStore, ClickHouse, Redshift, BigQuery)
Solid hands-on experience with event-streaming platforms such as Apache Kafka
Familiarity with data-orchestration frameworks such as Airflow
Comfortable with modern CI/CD, observability and infrastructure-as-code practices in a cloud environment (AWS, GCP or Azure)
Ability to break down complex problems, communicate trade-offs clearly, and collaborate effectively with engineers and product partners
Bonus Skills
Experience building data governance or security/compliance-aware data platforms
Familiarity with Kubernetes, Docker, and infrastructure-as-code tools
Experience with data quality frameworks, lineage, or metadata tooling.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8499899
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו