דרושים » דאטה » Senior data Engineer בחברת סטארט-אפ בתחום ה-Cloud

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 17 שעות
GotFriends
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת מוצר חדש של פלטפורמה לאופטימיזציה של Kubernetes המעניקה לחברות דרך חכמה לחסוך בעלויות ענן וגם לשפר ביצועים וכל זה בזמן אמת.
החברה ממוקמת בתל אביב- קו רכבת קלה, משלבת מודל עבודה היברידי ומונה 120 עובדים.
מהות התפקיד: חלק מצוות. פיתוח של חלק מתשתיות ה- data מאפס, עבודה בסביבת Production צמוד למפתחים ולפרודקט. סטאק טכנולוגי: Apache Spark, Databricks, Airflow, DBT, PySpark, Microservices, Python, Cloud.
דרישות:
- 6 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח עם Cloud
- ניסיון בעבודה עם Databricks/Airflow/DBT המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8223304
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
GotFriends
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
מטרת החברה היא לפתח מחדש את כל מערכות הבנק המיושנות למערכות חדשניות מבוססות ענן.
החברה ממוקמת בתל אביב, משלבת מודל עבודה היברידי ומונה 67 עובדים.
מהות התפקיד: חלק מצוות בכפיפות לראש הצוות. סטאק טכנולוגי: Python, Apache Kafka, Apache NiFi, Apache Airflow, MongoDB, AWS, CI/CD.
דרישות:
- 5 שנות ניסיון בפיתוח ב- Python
- שנתיים ניסיון כ- data Engineer
- ניסיון עם כלי דאטה
- ניסיון בפיתוח עם AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8213224
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
GotFriends
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה פיתחה מוצר בתחום מודיעין המכירות שפונה למתכנתים והמטרה שלו לעזור לחברות תוכנה למצוא הזדמנויות מכירה שהן באמת טובות ולא רנדומליות. הפלטפורמה מונעת על ידי בינה מלאכותית, תוכננה באופן ייחודי לספק אינטליגנציה ברמת פירוט גבוהה, המאפשרת לצוותים להפוך נתונים מורכבים לתובנות ניתנות לפעולה.
החברה ממוקמת בתל אביב- קו רכבת ומונה 28 עובדים. עבודה מהמשרדים.
מהות התפקיד: תפקיד ראשון בחברה, פיתוח ב- Python עם Apache Spark, CI/CD Pipelines, AWS Cloud Services.
דרישות:
- 5 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח ב-Spark
- ניסיון בפיתוח עם Cloud המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8216104
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
GotFriends
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת פתרון לאחת הבעיות הסבוכות ביותר באבטחת הסייבר- כיצד למנוע מתוקפים לנוע ברשת הארגונית.
החברה ממוקמת בתל אביב- קו רכבת, מונה 100 עובדים גלובלית, רובם בישראל ומשלבת מודל עבודה היברידי.
מהות התפקיד: חלק מצוות. בניית data -Platform Infrastructures שתתמוך ב-High Scale, פיתוח ב- Python, עבודה עם Kafka, Kubernetes, Iceberg Trino.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- תואר טכנולוגי או יחידה טכנולוגית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8213186
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Mertens – Malam Team
דרושים בMertens – Malam Team
מיקום המשרה: מספר מקומות
סוג משרה: מספר סוגים
חברת Mertens - MalamTeam  מגייסת   data Engineer לארגון רפואי בבני ברק 

תיאור משרה:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Apache Nifi ו Apache Spark -
עבודה עם Apache Flink לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוניים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
שלוש שנות ניסיון ומעלה כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
 Apache Spark
 Apache NiFi
 Apache Flink
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218581
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
TechTalent
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת הייטק איכותית במרכז הארץ דרוש/ה data engineer.
במסגרת התפקיד: השתלבות בצוות data מגוון ואיכותי, עבודה שכוללת
שימוש ב- Spark, apache airflow, Python, gcp לעיתים שימוש ב-Scala
וכן עבודה שכוללת פיתוחים מאפס.
דרישות:
תואר ראשון במדעי המחשב או בהנדסת תכנה
לפחות 4 שנות ניסיון בתור data engineer - חובה
רקע בפיתוח backend
רקע בשימוש ב- Python - חובה
ניסיון כלשהו ב-Scala - יתרון אך לא חובה
ניסיון כלשהו ב- Spark, apache airflow,, gcp
אנגלית מעולה
רמה אישית גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8213309
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
G-NESS
דרושים בG-NESS
Location: Herzliya
Job Type: Full Time and Hybrid work
We are looking for a talented Big Data software engineer to join our cyber defense product group and skillfully plan and build our data pipes and processing flows.

The successful candidate should have hands-on experience with Big Data processing technologies and architectures.

 The candidate will join our growing team of analysts, developers, data scientists, and architects who design and develop innovative solutions to the most critical needs of our customers. This is a unique opportunity to join the cyber and Big-Data revolution, learn, influence and work on meaningful challenges.

 Responsibilities
Designs, architects, implements, and supports our data pipes and processing flows.

Work with data scientists and and analytics department in analyzing and understanding data sources.

Design and provide insights on database technology and data modeling best practices.
Requirements:
Be very familiar with frameworks such as Spark, Hadoop, Kafka, Nifi and Airflow.
4 years of experience as Big Data engineer.
Previous experience in configuring and managing multi-source data flows and processing of large data sets.
Experienced with Linux environment
 Fluent in Python and can easily navigate in Big Data store technologies.

 Maintaining data integrity and security and managing data and analysis flows requires attention to details, high responsibility and much talent, therefore we seek excellent candidates with a high sense of responsibility, accountability and details orientation, as well as strong inter-personal skills and ability to perform well as part of a professional team.

 Advantages
 Experience in architecting and configuring virtualization, processing cluster systems and micro services environments (VMs, Dockers, Kubernetes) is an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7970661
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
קבוצת יעל
דרושים בקבוצת יעל
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה ועבודה היברידית
תנאים נוספים:קרן השתלמות
הזדמנות מצוינת להיכנס לתחום ה  data Science, עבודה בצוות AI & Big Data. צוות זה אחראי על פיתוח אנליטיקה מתקדמת והצגת תובנות מנתונים, פיתוח של מודלי  Machine Learning  ו  NLP, חילוץ טקסט ממסמכים, פיתוח תהליכי  Big Data  בסביבת Hadoop מעל  Spark
ו KAFKA הכוללת עבודה עם מבנה נתונים כגון JSON ו Parquet, בסיס נתונים גרפי, ועוד. הובלה של הצוות מבחינה מקצועית כולל ביצוע CODE REVIEW
שימוש כ SCRUM MASTER - ניהול ותכנון המשימות לחברי הצוות
עבודה צמודה עם  data Scientists בצוות לפיתוח פאנלים עבור מודלי  Machine Learning  בתחומי הרפואה.
מידול דאטה ועיצוב אפליקציות בתחומי ה   Big Data
פיתוח של תהליכי דאטה בזמן אמת.
ביצוע של אנליזה בסיסית על דאטה.
דרישות:
השכלה אקדמאית בתחום הנדסת תוכנה /מדעי המחשב  חובה
ניסיון עבודה של ארבע שנים ומעלה בפיתוח בשפת פייתון וSQL  חובה
ניסיון עבודה של שנתיים ומעלה עם HDFS, Hive, Spark, Kafka  חובה
ניסיון בבסיסי נתונים לא רלציוניים כמו Elastic, Neo4J.
ניסיון בפיתוח ועיצוב תהליכי  ETL  - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8209788
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה ועבודה ציבורית / ממשלתית
דרוש/ה מפתח/ת בכיר/ה בתחום הנדסת מידע Senior Data Engineer
פיתוח בתחום הנדסת מידע (Data Engineer) בעולמות ה-Big Data, בשפת Python. התפקיד כולל פיתוח הן במסגרת פרוייקט חדש ומשמעותי בארגון והן עבור פרוייקטים קיימים. במסגרת התפקיד נדרשת עבודה עם הטכנולוגיות הבאות: א. טכנולוגיות ביג-דאטה דוגמת Hadoop ecosystem, Cassandra, Redis, MongoDB, S3, spark. ב. טכנולוגיות פתוחות כגון Airflow, Open Shift.
דרישות:
תנאי סף
ניסיון מוכח בתחום הפיתוח שלא יפחת מ-3 שנים במצטבר מתוך 5 השנים האחרונות
ניסיון מוכח בטכנולוגיות Big Data דוגמת spark, Hadoop
ניסיון מוכח בשפות תכנות high level וכלי פיתוח, בפרט רמה גבוהה ב-Java או Python
ניסיון שלא יפחת משנה אחת מתוך 3 השנים האחרונות בפיתוח פרוייקטים וכן עבודה בסביבת ייצור ועבודה עם כלי DevOps דוגמת CI/CD
ניסיון של 3 שנים מתוך 5 השנים האחרונות במצטבר בעבודה עם תורים, כגון Rabbit, Kafka
קריטריונים נוספים
יכולת עיצוב, תכנון, פתרון בעיות ומימוש פתרון טכנולוגי באופן עצמאי ובעבודת צוות - יתרון
תואר או הסמכה מיח' צבאית בעלת אופי דומה, בתחום רלוונטיים לתפקיד, כדוגמת מדעי המחשב, הנדסת תוכנה - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8218148
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Temporary
We are looking for a Data Engineer to join our team and play a key role in designing, building, and maintaining scalable, cloud-based data pipelines. You will work with AWS (Redshift, S3, Glue, Managed Airflow, Lambda) to integrate, process, and analyze large datasets, ensuring data reliability and efficiency.
Your work will directly impact business intelligence, analytics, and data-driven decision-making across the
What Youll Do:
ETL & Data Processing: Develop and maintain ETL processes, integrating data from various sources (APIs, databases, external platforms) using Python, SQL, and cloud technologies.
Cloud & Big Data Technologies: Implement solutions using PySpark, Databricks, Airflow, and cloud platforms (AWS) to process large-scale datasets efficiently.
Data Modeling: Design and maintain logical and physical data models to support business needs.
Optimization & Scalability: Improve process efficiency and optimize runtime performance to handle large-scale data workloads.
Collaboration: Work closely with BI analysts and business stakeholders to define data requirements and functional specifications.
Monitoring & Troubleshooting: Ensure data integrity and reliability by proactively monitoring pipelines and resolving issues.
Data Modeling: Design and maintain logical and physical data models to support analytics and operational needs.
Requirements:
Education & Experience:
BSc in Computer Science, Engineering, or equivalent practical experience.
3+ years of experience in data engineering or related roles.
Technical Expertise:
Proficiency in Python for data engineering and automation.
Experience with Big Data technologies such as Spark, Databricks, DBT, and Airflow.
Hands-on experience with AWS services (S3, Redshift, Glue, Managed Airflow, Lambda)
Knowledge of Docker, Terraform, Kubernetes, and infrastructure automation.
Strong understanding of data warehouse (DWH) methodologies and best practices.
Soft Skills:
Strong problem-solving abilities and a proactive approach to learning new technologies.
Excellent communication and collaboration skills, with the ability to work independently and in a team.
Nice to Have (Big Advantage):
Experience with JavaScript, React, and Node.js.
Familiarity with K8s for infrastructure as code.
Experience with Retool for internal tool development.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8219367
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ra'anana
Job Type: Full Time and Hybrid work
We are expanding our global data platform infrastructure team and were hiring top-tier engineering talent in Israel. This is a critical role focused on building scalable, secure, and intelligent platform capabilities that empower data engineers, analysts, ML engineers, and data scientists across the company.
Youll be part of a high-impact international team driving the foundation of our enterprise data platform designing automation, governance, and observability frameworks that power secure, compliant, and efficient data operations at scale.
Location: Raanana, Israel (Hybrid 3 days/week onsite, office is right on the train station)
What Youll Do
Design and build infrastructure for real-time, secure, and governed data operations empowering data practitioners across
Develop capabilities to support data ingestion, modeling, analytics, and MLOps using modern tooling and scalable cloud-native architecture
Implement security best practices, including automatic key rotation, RBAC, data classification, and encryption at rest/in transit
Own and automate infrastructure components using Infrastructure as Code (e.g., Terraform)
Build and maintain operations for tools like Airflow and dbt to enable seamless orchestration and transformation workflows
Collaborate across data engineering, analytics, data science, and DevOps teams to enhance platform capabilities and adoption
Support modern metadata standards and technologies like Model Context Protocol (MCP) and Apache Iceberg
Monitor and improve platform performance, reliability, and security posture.
Requirements:
8+ years of experience in platform infrastructure, DevOps for data, or data platform engineering roles
Strong Python development skills
Good SQL knowledge and experience with query optimization
Hands-on experience with Airflow, Kafka and dbt operationalization
Strong background in cloud data platforms on AWS and GCP
Hands-on experience with Kubernetes for containerized environments.
Familiarity with Infrastructure as Code practices using tools like Terraform
Solid understanding of RBAC, data security, and enterprise compliance
Experience with data lake/lakehouse table formats like Apache Iceberg
Experience with modern data warehouses or lakehouses such as Snowflake or Databricks
Knowledge of data lineage, metadata frameworks, and data observability practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8218957
סגור
שירות זה פתוח ללקוחות VIP בלבד