דרושים » תוכנה » data Engineer

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת data Engineer לארגון פיננסי מוביל במרכז!
הזדמנות לפיתוח תהליכי שינוע נתונים ופתרונות Big Data מתקדמים בסביבה טכנולוגית מרתקת.
דרישות:
מעל שנתיים ניסיון בעולמות ה- Big Data בדגש על Hive
ניסיון בעבודה עם Talend
ניסיון בפיתוח תהליכי ETL ואינפורמטיקה
יכולות קריאה וכתיבת שאילתות SQL מורכבות
ניסיון בעבודה עם תהליכי CI/CD המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8477217
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 7 שעות
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 7 שעות
דרושים בפרוסיד
סוג משרה: מספר סוגים
פרוסיד מגייסת data Engineer (Modern data Stack) להובלת פרויקטי דאטה ו-AI חדשניים!

תיאור התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בענן (AWS / GCP / Azure)
בנייה וניהול End-to-End של data Pipelines איסוף, עיבוד, טרנספורמציה ואחסון נתונים
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים (dbt)
עבודה Hands-on עם DWH מודרניים בענן (Snowflake / BigQuery / Redshift)
פיתוח והטמעת פתרונות AI / GenAI / ML בסביבות ענן (Vertex AI / SageMaker), כולל Prompt Engineering
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins, GitLab CI
עבודה צמודה עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום פתרונות מקצה לקצה
הובלת PoC, בחינת טכנולוגיות חדשות ושילוב חדשנות בתהליכי דאטה
אופטימיזציה של תהליכי דאטה קיימים ושיפור ביצועים, אמינות ואיכות נתונים
דרישות:
דרישות חובה:
לפחות שנה ניסיון כ- data Engineer
ניסיון בעבודה עם פלטפורמות ענן (AWS / GCP / Azure)
ניסיון Hands-on עם מחסני נתונים מודרניים בענן (Snowflake / BigQuery / Redshift)
שליטה מלאה ב-SQL וב- Python
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt)
ניסיון בעבודה עם כלי BI (Looker / Power BI / Tableau / QuickSight) ו/או ניסיון כ- BI Developer
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI)
ניסיון Hands-on בפיתוח פתרונות AI / GenAI / ML בענן (Vertex AI / SageMaker) + ניסיון ב-Prompt Engineering
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות
אנגלית טכנית ברמה גבוהה (קריאה, כתיבה ודיבור)

יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות ( data Mesh / data Fabric)
ניסיון בכתיבת אפיונים טכניים ופונקציונליים
ניסיון עם כלי data Governance, data Catalog, data Quality Observability המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405965
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 40 דקות
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת הייטק נהדרת וצומחת בתל אביב דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה בתור data engineer ובהמשך Tech lead, שימוש
רב ב- Python וכן נכונות לעבודה בשפות נוספות, שימוש בטכנולוגיות מתקדמות נוספות
עבודה מול צוותי פיתוח מקבילים וכן שימוש ב-DB מורכבים כולל טכנולוגיות Big Data
דרישות:
תואר ראשון טכנולוגי - חובה
רקע בפיתוח backend עם עדיפות ל- Python - חובה
ניסיון כלשהו ב-Scala או JAVA - יתרון
ניסיון מעשי של 3 שנים ומעלה בתור data engineer - חובה
נכונות לעבוד בתור Tech lead בהמשך
רקע בכלי data מהמתקדמים כיום בשוק המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8480422
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לארגון מוביל דרוש/ה data Engineer בכיר/ה להצטרפות לצוות האחראי על פיתוח והקמה של פלטפורמת דאטה מתקדמת בקנה מידה ארגוני.
התפקיד משלב יכולות data Engineering גבוהות יחד עם חשיבה ארכיטקטונית ופתרונית, והשפעה ישירה על עיצוב תשתיות הדאטה והפתרונות הארגוניים.
תכנון, פיתוח והובלת data Platform ארגונית
פיתוח ותחזוקה של data Pipelines (Batch וStreaming)
עבודה עם נפחי דאטה גבוהים (High-Volume / Big Data )
דרישות:
ניסיון מוכח בעבודה עם AWS / סביבות ענן ידע וניסיון מעשי ב Apache Iceberg | Trino / Starburst | dbt | Kafka
ניסיון בעבודה עם Streaming data
ניסיון בעבודה בסביבות Big Data המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8470319
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
07/12/2025
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה ועבודה ציבורית / ממשלתית
פיתוח בתחום הנדסת מידע (Data Engineer) בעולמות ה-Big Data, בשפת Python. התפקיד כולל פיתוח הן במסגרת פרוייקט חדש ומשמעותי בארגון והן עבור פרוייקטים קיימים. במסגרת התפקיד נדרשת עבודה עם הטכנולוגיות הבאות: א. טכנולוגיות ביג-דאטה דוגמת Hadoop ecosystem, Cassandra, Redis, MongoDB, S3, spark. ב. טכנולוגיות פתוחות כגון Airflow, Open Shift.
דרישות:
תנאי סף
ניסיון מוכח בתחום הפיתוח שלא יפחת מ-3 שנים במצטבר מתוך 5 השנים האחרונות
ניסיון מוכח בטכנולוגיות Big Data דוגמת spark, Hadoop
ניסיון מוכח בשפות תכנות high level וכלי פיתוח, בפרט רמה גבוהה ב-Java או Python
ניסיון שלא יפחת משנה אחת מתוך 3 השנים האחרונות בפיתוח פרוייקטים וכן עבודה בסביבת ייצור ועבודה עם כלי DevOps דוגמת CI/CD
ניסיון של 3 שנים מתוך 5 השנים האחרונות במצטבר בעבודה עם תורים, כגון Rabbit, Kafka
קריטריונים נוספים
יכולת עיצוב, תכנון, פתרון בעיות ומימוש פתרון טכנולוגי באופן עצמאי ובעבודת צוות - יתרון
תואר או הסמכה מיח' צבאית בעלת אופי דומה, בתחום רלוונטיים לתפקיד, כדוגמת מדעי המחשב, הנדסת תוכנה - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8446243
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
we are seeking a Senior Data Infra Engineer. You will be responsible for designing and building all data, ML pipelines, data tools, and cloud infrastructure required to transform massive, fragmented data into a format that supports processes and standards. Your work directly empowers business stakeholders to gain comprehensive visibility, automate key processes, and drive strategic impact across the company.
Responsibilities
Design and Build Data Infrastructure: Design, plan, and build all aspects of the platform's data, ML pipelines, and supporting infrastructure.
Optimize Cloud Data Lake: Build and optimize an AWS-based Data Lake using cloud architecture best practices for partitioning, metadata management, and security to support enterprise-scale operations.
Lead Project Delivery: Lead end-to-end data projects from initial infrastructure design through to production monitoring and optimization.
Solve Integration Challenges: Implement optimal ETL/ELT patterns and query techniques to solve challenging data integration problems sourced from structured and unstructured data.
Requirements:
Experience: 5+ years of hands-on experience designing and maintaining big data pipelines in on-premises or hybrid cloud SaaS environments.
Programming & Databases: Proficiency in one or more programming languages (Python, Scala, Java, or Go) and expertise in both SQL and NoSQL databases.
Engineering Practice: Proven experience with software engineering best practices, including testing, code reviews, design documentation, and CI/CD.
AWS Experience: Experience developing data pipelines and maintaining data lakes, specifically on AWS.
Streaming & Orchestration: Familiarity with Kafka and workflow orchestration tools like Airflow.
Preferred Qualifications
Containerization & DevOps: Familiarity with Docker, Kubernetes (K8S), and Terraform.
Modern Data Stack: Familiarity with the following tools is an advantage: Kafka, Databricks, Airflow, Snowflake, MongoDB, Open Table Format (Iceberg/ Delta)
ML/AI Infrastructure: Experience building and designing ML/AI-driven production infrastructures and pipelines.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8478237
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Senior Algo Data Engineer
Realize your potential by joining the leading performance-driven advertising company!
As a Senior Algo Data Engineer on the Infra group, youll play a vital role in develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools.
About Algo platform:
The objective of the algo platform group is to own the existing algo platform (including health, stability, productivity and enablement), to facilitate and be involved in new platform experimentation within the algo craft and lead the platformization of the parts which should graduate into production scale. This includes support of ongoing ML projects while ensuring smooth operations and infrastructure reliability, owning a full set of capabilities, design and planning, implementation and production care.
The group has deep ties with both the algo craft as well as the infra group. The group reports to the infra department and has a dotted line reporting to the algo craft leadership.
The group serves as the professional authority when it comes to ML engineering and ML ops, serves as a focal point in a multidisciplinary team of algorithm researchers, product managers, and engineers and works with the most senior talent within the algo craft in order to achieve ML excellence.
How youll make an impact:
As a Senior Algo Data Engineer, youll bring value by:
Develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools, including CI/CD, monitoring and alerting and more
Have end to end ownership: Design, develop, deploy, measure and maintain our machine learning platform, ensuring high availability, high scalability and efficient resource utilization
Identify and evaluate new technologies to improve performance, maintainability, and reliability of our machine learning systems
Work in tandem with the engineering-focused and algorithm-focused teams in order to improve our platform and optimize performance
Optimize machine learning systems to scale and utilize modern compute environments (e.g. distributed clusters, CPU and GPU) and continuously seek potential optimization opportunities.
Build and maintain tools for automation, deployment, monitoring, and operations.
Troubleshoot issues in our development, production and test environments
Influence directly on the way billions of people discover the internet
Our tech stack:
Java, Python, TensorFlow, Spark, Kafka, Cassandra, HDFS, vespa.ai, ElasticSearch, AirFlow, BigQuery, Google Cloud Platform, Kubernetes, Docker, git and Jenkins.
Requirements:
Experience developing large scale systems. Experience with filesystems, server architectures, distributed systems, SQL and No-SQL. Experience with Spark and Airflow / other orchestration platforms is a big plus.
Highly skilled in software engineering methods. 5+ years experience.
Passion for ML engineering and for creating and improving platforms
Experience with designing and supporting ML pipelines and models in production environment
Excellent coding skills in Java & Python
Experience with TensorFlow a big plus
Possess strong problem solving and critical thinking skills
BSc in Computer Science or related field.
Proven ability to work effectively and independently across multiple teams and beyond organizational boundaries
Deep understanding of strong Computer Science fundamentals: object-oriented design, data structures systems, applications programming and multi threading programming
Strong communication skills to be able to present insights and ideas, and excellent English, required to communicate with our global teams.
Bonus points if you have:
Experience in leading Algorithms projects or teams.
Experience in developing models using deep learning techniques and tools
Experience in developing software within a distributed computation framework.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8437886
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
This role has been designed as Hybrid with an expectation that you will work on average 2 days per week from an HPE office.
Job Description:
We are looking for a highly skilled Senior Data Engineer with strong architectural expertise to design and evolve our next-generation data platform. You will define the technical vision, build scalable and reliable data systems, and guide the long-term architecture that powers analytics, operational decision-making, and data-driven products across the organization.
This role is both strategic and hands-on. You will evaluate modern data technologies, define engineering best practices, and lead the implementation of robust, high-performance data solutionsincluding the design, build, and lifecycle management of data pipelines that support batch, streaming, and near-real-time workloads.
What Youll Do
Architecture & Strategy
Own the architecture of our data platform, ensuring scalability, performance, reliability, and security.
Define standards and best practices for data modeling, transformation, orchestration, governance, and lifecycle management.
Evaluate and integrate modern data technologies and frameworks that align with our long-term platform strategy.
Collaborate with engineering and product leadership to shape the technical roadmap.
Engineering & Delivery
Design, build, and manage scalable, resilient data pipelines for batch, streaming, and event-driven workloads.
Develop clean, high-quality data models and schemas to support analytics, BI, operational systems, and ML workflows.
Implement data quality, lineage, observability, and automated testing frameworks.
Build ingestion patterns for APIs, event streams, files, and third-party data sources.
Optimize compute, storage, and transformation layers for performance and cost efficiency.
Leadership & Collaboration
Serve as a senior technical leader and mentor within the data engineering team.
Lead architecture reviews, design discussions, and cross-team engineering initiatives.
Work closely with analysts, data scientists, software engineers, and product owners to define and deliver data solutions.
Communicate architectural decisions and trade-offs to technical and non-technical stakeholders.
Requirements:
610+ years of experience in Data Engineering, with demonstrated architectural ownership.
Expert-level experience with Snowflake (mandatory), including performance optimization, data modeling, security, and ecosystem components.
Expert proficiency in SQL and strong Python skills for pipeline development and automation.
Experience with modern orchestration tools (Airflow, Dagster, Prefect, or equivalent).
Strong understanding of ELT/ETL patterns, distributed processing, and data lifecycle management.
Familiarity with streaming/event technologies (Kafka, Kinesis, Pub/Sub, etc.).
Experience implementing data quality, observability, and lineage solutions.
Solid understanding of cloud infrastructure (AWS, GCP, or Azure).
Strong background in DataOps practices: CI/CD, testing, version control, automation.
Proven leadership in driving architectural direction and mentoring engineering teams
Nice to Have
Experience with data governance or metadata management tools.
Hands-on experience with DBT, including modeling, testing, documentation, and advanced features.
Exposure to machine learning pipelines, feature stores, or MLOps.
Experience with Terraform, CloudFormation, or other IaC tools.
Background designing systems for high scale, security, or regulated environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8461496
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/12/2025
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a talented and experienced Data Engineer to join our data group.
The team is responsible for processing and transforming data from multiple external sources while building and maintaining an internal serving platform. Our key challenges include operating at scale, integrating with diverse external interfaces, and ensuring the data is served in a consistent and reliable manner.
Responsibilities
Designing and implementing our data platform
Transforming, modeling, and serving all our medical data.
Utilize data best practices, to improve the product and allow data-driven decision-making.
Collaborate closely with cross-functional teams to understand business requirements and translate them into data-driven solutions.
Stay updated with the latest research and advancements in the data field.
Requirements:
5+ years of experience in software development, with at least 3 years as a data engineer.
Proven track record designing and implementing scalable ETL/ELT data pipelines.
Strong SQL skills.
Experience with relational and analytical data platforms (e.g., PostgreSQL, Snowflake, data lakes).
Strong coding skills (preferably in Python), with prior software engineering experience (e.g., API development) a plus.
Experience with cloud environments, AWS preferable.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8452349
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
About the Role:We are seeking an experienced Senior Data Engineer to join our dynamic data team. The ideal candidate will be responsible for designing, building, and maintaining scalable data pipelines and infrastructure, ensuring the availability, reliability, and quality of our data. This role requires strong technical expertise, problem-solving skills, and the ability to collaborate across teams to deliver data-driven solutions.Key Responsibilities:

Design, implement, and maintain robust, scalable, and high-performance data pipelines and ETL processes.
Develop and optimize data models, schemas, and storage solutions to support analytics and machine learning initiatives.
Collaborate with software engineers and product managers to understand data requirements and deliver high-quality solutions.
Ensure data quality, integrity, and governance across multiple sources and systems.
Monitor and troubleshoot data workflows, resolving performance and reliability issues.
Evaluate and implement new data technologies and frameworks to improve the data platform.
Document processes, best practices, and data architecture.
Mentor junior data engineers and contribute to team knowledge sharing.
Requirements:
Bachelors or Masters degree in Computer Science, Engineering, or a related field.
5+ years of experience in data engineering, ETL development, or a similar role.
Strong proficiency in SQL and experience with relational and NoSQL databases.
Experience with data pipeline frameworks and tools such as: Apache Spark, Airflow & Kafka. - MUST
Familiarity with cloud platforms (AWS, GCP, or Azure) and their data services.
Solid programming skills in Python, Java, or Scala.
Strong problem-solving, analytical, and communication skills.
Knowledge of data governance, security, and compliance standards.
Experience with data warehousing, big data technologies, and data modeling best practices such as ClickHouse, SingleStore, StarRocks.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8437853
סגור
שירות זה פתוח ללקוחות VIP בלבד