דרושים » דאטה » data Engineer (533029)

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
04/03/2026
משרה זו סומנה ע"י המעסיק כלא אקטואלית יותר
מיקום המשרה: פתח תקווה
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בNishapro
סוג משרה: משרה מלאה
דרוש/ה טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -

בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה - חובה.

שליטה ב- Python - חובה.

ניסיון בעבודה עם בסיסי נתונים (SQL) - חובה.

הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים


מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית

יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות

גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519703
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בQpoint Technologies
סוג משרה: משרה מלאה ועבודה היברידית
ארגון מוביל מגייס data Engineer להשתלבות בצוות דאטה מתקדם, לעבודה על מערכות מורכבות ועשירות נתונים בסביבת Big Data.

תיאור התפקיד:

פיתוח, ניהול ועיבוד נתונים בהיקפים גדולים בסביבת Big Data

פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Python ו-SQL

עבודה עם ElasticSearch כולל היבטי DevOps

פיתוח שירותים ותהליכים בסביבת OpenShift

כתיבת קוד ופתרונות data מתקדמים ב- Python

כתיבת שאילתות מורכבות ואופטימיזציה של ביצועים

עבודה שוטפת מול צוותי BI, data Science ופיתוח מערכות מידע
דרישות:
דרישות חובה:

ניסיון של 3+ שנים כ- data Engineer

ניסיון משמעותי בפיתוח Python לעיבוד נתונים ובניית data Flows

ניסיון בעבודה עם ELK / ElasticSearch

שליטה מלאה ב-SQL

הבנה בארכיטקטורת נתונים וסביבות Big Data

יתרונות:

ניסיון עם MongoDB וכתיבת Aggregation Pipelines

ניסיון בעבודה עם Kafka

ניסיון בפיתוח בסביבת Microservices ו-OpenShift

ניסיון עם כלי BI (SSAS, DataStage)

ניסיון בפיתוח מודולי AI / LLM ושילובם בפתרונות דאטה

היכרות עם כלי ניהול תצורה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8584961
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה ועבודה היברידית
חברת טכנולוגיה מובילה מגייסת data Engineer מנוסה בעולמות Microsoft Fabric להקמה, פיתוח ותחזוקה של פתרונות data מקצה לקצה בסביבה היברידית (On-Prem + Cloud).

התפקיד משלב data Engineering, BI ו-Analytics עם עבודה Hands-On ב- Python, Power BI ו-Power Automate.

?? תחומי אחריות

תכנון והטמעה של Lakehouse Architecture על Microsoft Fabric

בניית data Pipelines מקצה לקצה

חיבור מקורות מידע On-Prem ו-Cloud

עבודה עם Fabric data Factory ו-Notebooks

יישום Medallion Architecture (Bronze / Silver / Gold)

כתיבת Python Notebooks ( ETL / ELT, data Enrichment)

הכנת נתונים לאנליטיקה ו-AI

עבודה עם Power BI :

Semantic Models

DAX

Power Query

אופטימיזציית ביצועים

שימוש ב-Power Automate לאוטומציות, טריגרים והתראות

הקמת On-Premises data Gateway

ניטור תהליכים ויציבות מערכות

תיעוד תהליכים ו-Best Practices

עבודה שוטפת מול גורמי Business ו-Stake
דרישות:
דרישות חובה

לפחות 3 שנות ניסיון כ- data Engineer או BI Developer מתקדם

ניסיון מעשי מוכח עם Microsoft Fabric

ניסיון בהובלת תהליכי data מקצה לקצה

שליטה גבוהה ב-SQL

ניסיון ב- Python (Notebooks, Pandas)

ניסיון חובה ב-Power BI (DAX, Power Query, Semantic Models)

ניסיון ב-Power Automate

ניסיון ב- ETL / ELT

הבנה מעמיקה ב- data Warehouse ו-Lakehouse Architecture

ניסיון בעבודה עם Git / Azure DevOps

? יתרון משמעותי

ניסיון עם Apache Spark / PySpark

ניסיון עם Azure Synapse או Databricks

עבודה עם Streaming / EventHub

פרויקטי Greenfield

ניסיון בהכנת נתונים ל-AI / Copilot

CI/CD ל- data Pipelines

היכרות עם תחום Energy / Utilities / SCADA

?? ניסיון ב-Spark אינו חובה אך ייחשב כיתרון משמעותי.

?? מאפיינים אישיים

עצמאי/ת, יוזם/ת ו-Hands-On

יכולת עבודה בצוות ובאופן עצמאי

תקשורת מצוינת בעברית ובאנגלית

סדר, אחריות ועמידה ביעדים

?? סביבת עבודה טכנולוגית מתקדמת
?? עבודה על מערכות data מורכבותת המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8530078
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה ועבודה היברידית
לארגון גדול ומוביל במרכז דרוש/ה data Engineer

הזדמנות להצטרף לצוות BI מקצועי בארגון הנמצא בתנופת עשייה ובמעבר לטכנולוגיות מתקדמות וחדשניות

תחומי אחריות:

אפיון ומיפוי מידע

הגדרת ופיתוח תהליכי ETL

בניית מודל נתונים והבנת הקשרים בין טבלאות

ניתוח מערכות BI

פיתוח דשבורדים ודוחות בהתאם לדרישות העסקיות

מתן מענה שוטף לדרישות, תקלות וקידום פרויקטים
דרישות:
* לפחות 4 שנות ניסיון כ- data Engineer

* ניסיון חובה עם Databricks

ניסיון בהגדרת ופיתוח תהליכי ETL

ניסיון בניתוח מערכות BI

ניסיון בעבודה מול ממשקים עסקיים וטכנולוגיים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8577359
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה ועבודה היברידית
לארגון אנטרפרייז מוביל במרכז דרוש/ה data ENGINEER
התפקיד כולל ניהול תהליכי הסבת נתונים ממערכות המקור לבסיסי נתונים ו/או מאגרי אחסון בסביבת הענן.
הובלת תהליכי פיתוח, ניטור ובקרה על תהליכי עיבוד נתונים וניהול ממשקי עבודה מול הגורם העסקי
דרישות:
תואר ראשון במדעי המחשב / הנדסת תוכנה / תחום רלוונטי
מינימום 3 שנות ניסיון מוכח כ- data Engineer
היכרות עם כלי AWS: Glue, Lambda, EMR/Spark
היכרות עם כלי CI/CD: Jenkins / GitLab CI / GitHub Actions, Harness
אורקסטרציה: Apache Airflow (DAG design, XCom, pools)
שפות תכנות: JAVA / Python
יתרונות:
היכרות עם DB מבוססי ענן (PostgreSQL, DocumentDB, OpenSearch)
היכרות עם Apache Kafka
ניסיון בKubernetes / EKS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355779
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתחום ה-Fintech דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה שכוללת פיתוח בעולמות ה- data, שימוש ב- Python
שימוש ב-Airflow כלי data מתקדמים וכן עבודה בצוות חוד בחברה.
דרישות:
תואר ראשון טכנולוגי
לפחות 6 שנות ניסיון בעולמות data - חובה
רקע בפיתוח backend - יתרון אך לא חובה
ניסיון ב- Python - חובה
ניסיון ב-Air Flow
ניסיון בכלי data נוספים
אנגלית טובה מאוד המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8580111
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
סוג משרה: מספר סוגים
שכר: 12,000-15,000
התפקיד כולל בין היתר:
- עבודה מול מנכ"ל החברה
- עבודה שוטפת על אקסל
- הפקת דוחות בקרה ממערכות החברה
- ייעול תהליכי הפצה
- עבודה מול מנהלי סניפים
משרה מלאה בפתח תקווה, בקרבה לרכבת הקלה
דרישות:
אוריינטציה אנליטית גבוהה
ניסיון ושליטה מלאה באקסל, כולל נוסחאות - חובה
ניסיון מעולם ההפצה/לוגיסטיקה
תואר ראשון בלוגיסטיקה/ הנדסת תעשייה וניהול - יתרון
אסרטיביות, יכולת עמידה בריבוי משימות ויכולת למידה עצמאית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8558714
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Petah Tikva
Job Type: Full Time
Were looking for a highly skilled and motivated Senior Data Engineer to join the Resolve (formerly DevOcean) team at our company. In this role, youll be responsible for designing, building, and optimizing the data infrastructure that powers our SaaS platform. Youll play a key role in shaping a cost-efficient and scalable data architecture while building robust data pipelines that serve analytics, search, and reporting needs across the organization.
Youll work closely with our backend, product, and analytics teams to ensure our data layer remains fast, reliable, and future-proof. This is an opportunity to influence the evolution of our data strategy and help scale a cybersecurity platform that processes millions of findings across complex customer environments.
Roles and Responsibilities:
Design, implement, and maintain data pipelines to support ingestion, transformation, and analytics workloads.
Collaborate with engineers to optimize MongoDB data models and identify opportunities for offloading workloads to analytical stores (ClickHouse, DuckDB, etc.).
Build scalable ETL/ELT workflows to consolidate and enrich data from multiple sources.
Develop data services and APIs that enable efficient querying and aggregation across large multi-tenant datasets.
Partner with backend and product teams to define data retention, indexing, and partitioning strategies to reduce cost and improve performance.
Ensure data quality, consistency, and observability through validation, monitoring, and automated testing.
Contribute to architectural discussions and help define the long-term data platform vision.
Requirements:
8+ years of experience as a Data Engineer or Backend Engineer working in a SaaS or data-intensive environment.
Strong proficiency in Python and experience with data processing frameworks (e.g., Pandas, PySpark, Airflow, or equivalent).
Deep understanding of data modeling and query optimization in NoSQL and SQL databases (MongoDB, PostgreSQL, etc.).
Hands-on experience building ETL/ELT pipelines and integrating multiple data sources.
Familiarity with OTF technologies and analytical databases such as ClickHouse, DuckDB and their role in cost-efficient analytics.
Experience working in cloud environments (AWS preferred) and using native data services (e.g., Lambda, S3, Glue, Athena).
Strong understanding of data performance, storage optimization, and scalability best practices.
Nice to Have:
Experience with streaming or CDC pipelines (e.g., Kafka, Debezium).
Familiarity with cloud security best practices and data governance.
Exposure to multi-tenant SaaS architectures and large-scale telemetry data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8556159
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/02/2026
חברה חסויה
Location: Petah Tikva
Job Type: Full Time
Required Data Engineer
Position Overview:
We are assembling an elite, small-scale team of innovators committed to a transformative mission: advancing generative AI from conceptual breakthrough to tangible product reality. As a Senior Data Engineer, you will be the critical data backbone of our innovation engine, transforming raw data into the fuel that powers groundbreaking GenAI solutions, driving our digital intelligence capabilities to unprecedented heights.
Your Strategic Role:
You are not just a data engineer - you are a strategic enabler of GenAI innovation. Your primary mission is to:
Prepare, structure, and optimize data for cutting-edge GenAI project exploration
Design data infrastructures that support rapid GenAI prototype development
Uncover unique data insights that can spark transformative AI project ideas
Create flexible, robust data pipelines that accelerate GenAI research and development
What Sets This Role Apart:
Data as the Foundation of AI Innovation
You'll be working at the intersection of advanced data engineering and generative AI
Your data solutions will directly enable the team's ability to experiment with and develop novel AI concepts
Every data pipeline you design has the potential to unlock a breakthrough GenAI project
Exploration and Innovation
Conduct deep data exploration to identify potential GenAI application areas
Work closely with AI researchers to understand data requirements for cutting-edge GenAI projects.
Requirements:
Data Engineering Expertise:
Advanced skills in designing data architectures that support GenAI research
Ability to work with diverse, complex datasets across multiple domains
Expertise in preparing and transforming data for AI model training
Proficiency in creating scalable, flexible data infrastructure
Technical Capabilities:
Deep understanding of data requirements for machine learning and generative AI
Expertise in cloud-based data platforms
Advanced skills in data integration, transformation, and pipeline development
Ability to develop automated data processing solutions optimized for AI research
Research and Innovation Skills:
Proven ability to derive strategic insights from complex datasets
Creative approach to data preparation and feature engineering
Capacity to identify unique data opportunities for GenAI projects
Strong experimental mindset with rigorous analytical capabilities
Requirements
Degree in Computer Science, Data Science, or related field
5+ years of progressive data engineering experience
Demonstrated expertise in:
Cloud platforms (AWS, Google Cloud, Azure)
Big Data technologies
Advanced SQL and NoSQL database systems
Data pipeline development for AI/ML applications
Performance optimization techniques
Technical Skill Requirements:
Expert-level SQL and database management
Proficiency in Python, with strong data processing capabilities
Experience in data warehousing and ETL processes
Advanced knowledge of data modeling techniques
Understanding of machine learning data preparation techniques
Experience integrating with BigQuery - advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8545864
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/02/2026
חברה חסויה
Location: Petah Tikva
Job Type: Full Time
We are seeking a Senior Backend & Data Engineer to join its SaaS Data Platform team.
This role offers a unique opportunity to design and build large-scale, high-performance data platforms and backend services that power our cloud-based products.
You will own features end to end-from architecture and design through development and production deployment-while working closely with Data Science, Machine Learning, DevOps, and Product teams.
What Youll Do:
Design, develop, and maintain scalable, secure data platforms and backend services on AWS.
Build batch and streaming ETL/ELT pipelines using Spark, Glue, Athena, Iceberg, Lambda, and EKS.
Develop backend components and data-processing workflows in a cloud-native environment.
Optimize performance, reliability, and observability of data pipelines and backend services.
Collaborate with ML, backend, DevOps, and product teams to deliver data-powered solutions.
Drive best practices, code quality, and technical excellence within the team.
Ensure security, compliance, and auditability using AWS best practices (IAM, encryption, auditing).
Tech Stack:
AWS Services: S3, Lambda, Glue, Step Functions, Kinesis, Athena, EMR, Airflow, Iceberg, EKS, SNS/SQS, EventBridge
Languages: Python (Node.js/TypeScript a plus)
Data & Processing: batch & streaming pipelines, distributed computing, serverless architectures, big data workflows
Tooling: CI/CD, GitHub, IaC (Terraform/CDK/SAM), containerized environments, Kubernetes
Observability: CloudWatch, Splunk, Grafana, Datadog
Key Responsibilities:
Design, develop, and maintain scalable, secure backend services and data platforms on AWS
Build and operate batch and streaming ETL/ELT pipelines using Spark, Glue, Athena, Iceberg, Lambda, and EKS
Develop backend components and data processing workflows in a cloud-native environment
Optimize performance, reliability, and observability of data pipelines and backend services
Collaborate with ML, backend, DevOps, and product teams to deliver data-driven solutions
Lead best practices in code quality, architecture, and technical excellence
Ensure security, compliance, and auditability using AWS best practices (IAM, encryption, auditing)
Requirements:
8+ years of experience in Data Engineering and/or Backend Development in AWS-based, cloud-native environments
Strong hands-on experience writing Spark jobs (PySpark) and running workloads on EMR and/or Glue
Proven ability to design and implement scalable backend services and data pipelines
Deep understanding of data modeling, data quality, pipeline optimization, and distributed systems
Experience with Infrastructure as Code and automated deployment of data infrastructure
Strong debugging, testing, and performance-tuning skills in agile environments
High level of ownership, curiosity, and problem-solving mindset.
Nice to Have:
AWS certifications (Solutions Architect, Data Engineer)
Experience with ML pipelines or AI-driven analytics
Familiarity with data governance, self-service data platforms, or data mesh architectures
Experience with PostgreSQL, DynamoDB, MongoDB
Experience building or consuming high-scale APIs
Background in multi-threaded or distributed system development
Domain experience in cybersecurity, law enforcement, or other regulated industries.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8545956
סגור
שירות זה פתוח ללקוחות VIP בלבד