דרושים » תוכנה » data Engineer

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת data Engineer לארגון פיננסי מוביל במרכז!
הזדמנות לפיתוח תהליכי שינוע נתונים ופתרונות Big Data מתקדמים בסביבה טכנולוגית מרתקת.
דרישות:
מעל שנתיים ניסיון בעולמות ה- Big Data בדגש על Hive
ניסיון בעבודה עם Talend
ניסיון בפיתוח תהליכי ETL ואינפורמטיקה
יכולות קריאה וכתיבת שאילתות SQL מורכבות
ניסיון בעבודה עם תהליכי CI/CD המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8533930
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בקומפאי טכנולוגיות בע"מ
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
אנחנו מחפשים מפתח/ת data עם תשוקה לטכנולוגיה ולעולמות ה- Big Data להצטרפות לצוות salesforce רב-תחומי, מוביל וחדשני. התפקיד כולל פיתוח תהליכי שינוע נתונים, בניית data Pipelines מתקדמים, עבודה עם מקורות מידע מגוונים וסביבות מרובות מפתחים, והשפעה ישירה על פתרונות טכנולוגיים קריטיים שמניעים את הפעילות העסקית.
דרישות:
מעל שנתיים ניסיון בעולמות Big Data בדגש על HIVE- חובה
שליטה גבוהה ב-SQL ויכולת כתיבת שאילתות מורכבות- חובה
ניסיון בתהליכי ETL /ELT והיכרות עם DWH ו- data Lake- חובה
ניסיון בעבודה בתהליכי CI/CD וסביבת פיתוח מרובת מפתחים-חובה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530837
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בדאטה קור
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
תיאור המשרה:
אנחנו מחפשים מוביל.ה טכנולוגי.ת יוצא.ת דופן להובלת צוות ה- Data Engineering בחברה קמעונאית מהגדולות בישראל. התפקיד מיועד למנהל.ת מנוסה עם תשוקה לדאטה, יכולת הובלה מוכחת וניסיון עמוק בבניית ארכיטקטורות נתונים מורכבות. זוהי הזדמנות להוביל את אסטרטגיית הנתונים של הארגון, לנהל פרויקטים רחבי היקף ולעבוד עם טכנולוגיות הענן המתקדמות ביותר ב-Scale עצום.

-משרה מלאה
-מיקום המשרדים: הרצליה

תיאור התפקיד:
- ניהול והובלה: ניהול ישיר של צוות ה- Data Engineers (לפחות שנתיים ניסיון), תיעדוף משימות, חניכה מקצועית והובלת ה Roadmap הטכנולוגי.
- תכנון וארכיטקטורה: אפיון ותכנון פרויקטים מקצה לקצה, בניית Data Lakes ותהליכי ETL /ELT מורכבים.
- בקרת איכות: ביצוע Code Reviews,הבטחת ביצועי מערכת (Performance) ושמירה על איכות נתונים גבוהה.
- סמכות מקצועית: מתן פתרונות טכנולוגיים לבעיות מורכבות והטמעת מתודולוגיות עבודה (Agile, CI/CD)
דרישות:
דרישות התפקיד:
- ניסיון ניהולי: ניסיון מוכח בניהול צוות פיתוח/ דאטה - חובה.
- ניסיון ב-GCP: לפחות שנה אחת של ניסיון מעשי עמוק בעבודה עם תשתיות הדאטה של Google Cloud Platform כגון: BigQuery, Dataflow, Cloud Composer/Airflow -חובה.
- מומחיות ב ETL: ניסיון עשיר בתכנון ופיתוח תהליכי ETL /ELT מורכבים מעל Data Lake ו- Data Warehouse
- ידע טכני: שליטה מלאה ב- Python וב SQL ברמה גבוהה מאוד.
- מתודולוגיות: הבנה עמוקה וניסיון עבודה במתודולוגיות פיתוח מקובלות, עבודה עם Git וסביבות ענן.

יתרונות:
- ניסיון מחברה קמעונאית גדולה או עבודה עם נפחי דאטה גבוהים (High Volume)
- היכרות עם כלי Streaming כגון: Kafka, Pub/Sub
- ניסיון בכתיבת תשתיות כקוד (Terraform)
- תואר ראשון במדעי המחשב / הנדסת תוכנה או תחום רלוונטי. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8529760
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה
דרוש/ה Senior data engineer עבור חברת SaaS נהדרת בתל אביב.
במסגרת התפקיד: עבודה בתור data engineer בצוות, סיוע בהובלה מקצועית
מדי פעם, עבודה מרובה ב- Python יחד עם כלי data חדישים וכן נכונות מדי פעם
לכתוב קוד ב- JAVA ו -Scala.
דרישות:
תואר ראשון טכנולוגי - חובה
7 שנות ניסיון בתחום
רקע של 3 שנות ניסיון לפחות בעבודה מול חברת SaaS
ניסיון של 4 שנים לפחות ב- Python
נכונות לשלב עבודבה ב- JAVA ו-Scala
רקע מעמיק בכלי data חדישים
אנגלית מעולה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8532987
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בפרוסיד
סוג משרה: משרה מלאה ואיקון מתאים גם למגזר הדתימתאים גם למגזר הדתי
פרוסיד מגייסת data Engineer (GCP Focus | data AI Platforms) להובלת פרויקטי דאטה ו- AI חדשניים!

במסגרת התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בסביבת Google Cloud Platform (GCP).
בנייה וניהול של data Pipelines מקצה לקצה - איסוף, עיבוד, טרנספורמציה ואחסון נתונים על גבי GCP.
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים כגון.dbt
עבודה Hands-on עם מחסן נתונים מודרני בענן.BigQuery
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins או GitLab CI בסביבת.GCP
שיתוף פעולה הדוק עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום ארכיטקטורות דאטה ופתרונות.AI
בחינת טכנולוגיות חדשות ב-GCP הובלת PoC והטמעת חדשנות מתמדת בתהליכי הדאטה וה.AI
דרישות:
דרישות:
ניסיון של שנה לפחות כמהנדס/ת דאטה - חובה.
ניסיון מוכח בעבודה עם Google Cloud Platform (GCP) - חובה.
ניסיון Hands-on עם BigQuery - חובה.
שליטה מלאה בSQL וב- Python - חובה.
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt) - חובה.
ניסיון בעבודה עם כלי BI (Looker / Looker Studio / Power BI / Tableau) או רקע קודם כ- BI Developer - חובה.
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI) חובה.
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות בסביבת GCP -חובה.
ידע מעשי בתחום ה,GenAIכולל Prompt Engineering ושימוש בכלי AI - חובה.
יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות כגון data Mesh / data Fabric - יתרון משמעותי
ניסיון בהטמעת פתרונות ML/AI ו MLOps - יתרון משמעותי
רקע בכתיבת אפיונים טכניים ופונקציונליים- יתרון
ניסיון עם כלי data Governance, data Catalog ו- data Quality- יתרון
תואר אקדמי רלוונטי- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527293
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת SU מצליחה בעולמות הPublic Safety שמפתחת מוצר מציל חיים לשעת חירום דרוש/ה Senior Software data Engineer
דרישות:
7+ שנות ניסיון כמהנדס/ת תוכנה עם מומחיות בהנדסת נתונים (ניסיון בפיתוח Scala או JAVA ).
תואר ראשון בהנדסת תוכנה, מדעי המחשב, מדעי המחשב, סטטיסטיקה, אינפורמטיקה, מערכות מידע או תחום כמותי אחר.
ניסיון בבנייה ואופטימיזציה של צינורות נתונים, ארכיטקטורות ומערכי נתונים של Big Data
ניסיון עם כלי Big Data ועיבוד זרמים (Kinesis, Kafka, Spark, Spark-Streaming, Storm וכו').
ניסיון עם שירותי ענן של AWS (EKS, EMR, RDS, Redshift).
ידע טוב ב-SQL וניסיון בעבודה עם מסדי נתונים יחסיים של SQL ו-NoSQL, כולל MySQL ו-DynamoDB.
ניסיון בביצוע ניתוח גורם שורש על נתונים ותהליכים פנימיים וחיצוניים כדי לענות על שאלות עסקיות ספציפיות ולזהות הזדמנויות לשיפור.
כישורי אנליטיקה חזקים הקשורים לעבודה עם מערכי נתונים לא מובנים וחצי מובנים.
בניית תהליכים התומכים בטרנספורמציה של נתונים, מבני נתונים, מטא- דאטה, תלות וניהול עומסי עבודה.
היסטוריה מוצלחת של מניפולציה, עיבוד והפקת ערך ממערכי נתונים גדולים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8522826
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
we are seeking a Senior Data Infra Engineer. You will be responsible for designing and building all data, ML pipelines, data tools, and cloud infrastructure required to transform massive, fragmented data into a format that supports processes and standards. Your work directly empowers business stakeholders to gain comprehensive visibility, automate key processes, and drive strategic impact across the company.
Responsibilities
Design and Build Data Infrastructure: Design, plan, and build all aspects of the platform's data, ML pipelines, and supporting infrastructure.
Optimize Cloud Data Lake: Build and optimize an AWS-based Data Lake using cloud architecture best practices for partitioning, metadata management, and security to support enterprise-scale operations.
Lead Project Delivery: Lead end-to-end data projects from initial infrastructure design through to production monitoring and optimization.
Solve Integration Challenges: Implement optimal ETL/ELT patterns and query techniques to solve challenging data integration problems sourced from structured and unstructured data.
Requirements:
Experience: 5+ years of hands-on experience designing and maintaining big data pipelines in on-premises or hybrid cloud SaaS environments.
Programming & Databases: Proficiency in one or more programming languages (Python, Scala, Java, or Go) and expertise in both SQL and NoSQL databases.
Engineering Practice: Proven experience with software engineering best practices, including testing, code reviews, design documentation, and CI/CD.
AWS Experience: Experience developing data pipelines and maintaining data lakes, specifically on AWS.
Streaming & Orchestration: Familiarity with Kafka and workflow orchestration tools like Airflow.
Preferred Qualifications
Containerization & DevOps: Familiarity with Docker, Kubernetes (K8S), and Terraform.
Modern Data Stack: Familiarity with the following tools is an advantage: Kafka, Databricks, Airflow, Snowflake, MongoDB, Open Table Format (Iceberg/ Delta)
ML/AI Infrastructure: Experience building and designing ML/AI-driven production infrastructures and pipelines.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8478237
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Operate and debug object store-backed data lake infrastructure, enabling schema-on-read access, high-throughput ingestion, advanced searching strategies, and performance tuning for large-scale workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8512434
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Big Data Engineer to develop and integrate systems that retrieve, process and analyze data from around the digital world, generating customer-facing data. This role will report to our Team Manager, R&D.
Why is this role so important?
we are a data-focused company, and data is the heart of our business.
As a big data engineer developer, you will work at the very core of the company, designing and implementing complex high scale systems to retrieve and analyze data from millions of digital users.
Your role as a big data engineer will give you the opportunity to use the most cutting-edge technologies and best practices to solve complex technical problems while demonstrating technical leadership.
Requirements:
Passionate about data.
Holds a BSc degree in Computer Science\Engineering or a related technical field of study.
Has at least 5 years of software or data engineering development experience in one or more of the following programming languages: Python, Java, or Scala.
Has strong programming skills and knowledge of Data Structures, Design Patterns and Object Oriented Programming.
Has good understanding and experience of CI/CD practices and Git.
Excellent communication skills with the ability to provide constant dialog between and within data teams.
Can easily prioritize tasks and work independently and with others.
Conveys a strong sense of ownership over the products of the team.
Is comfortable working in a fast-paced dynamic environment.
Advantage:
Has experience with containerization technologies like Docker and Kubernetes.
Experience in designing and productization of complex big data pipelines.
Familiar with a cloud provider (AWS / Azure / GCP).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8531681
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
06/01/2026
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Senior Data Engineer.
As a Senior Data Engineer you will be helping us design and build a flexible and scalable system that will allow our business to move fast and innovate. You will be expected to show ownership and responsibility for the code you write, but it doesn't stop there.
you are encouraged to think big and help out in other areas as well.
Key focuses:
Designing and writing code that is critical for business growth
Mastering scalability and enterprise-grade SAAS product implementation
Sense of ownership - leading design for new products and initiatives as well as integrating with currently implemented best-practices
Review your peer's design and code
Work closely with product managers, peer engineers, and business stakeholders
Requirements:
5+ years of experience as a hands on software engineer (Python, TypeScript, Node.JS)
Hands on experience in managing major clouds vendors infrastructure (AWS, GCP, Azure)
Hands on experience in designing and implementing data pipelines, distributed systems and restful APIs
Proficiency with SQL, modeling and working with relational and non databases, and pushing them past their limits
Experience working with CI/CD systems, Docker and orchestration tools such as Kubernetes
Enjoy communicating and collaborating, sharing your ideas and being open to honest feedback
The ability to lead new features from design to implementation, taking into consideration topics such as performance, scalability, and impact on the greater system
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8490187
סגור
שירות זה פתוח ללקוחות VIP בלבד