דרושים » דאטה » Senior Data Engineer

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
חברה חסויה
Job Type: Full Time
We're in search of an experienced and skilled Senior Data Engineer to join our growing data team. As part of our data team, you'll be at the forefront of crafting a groundbreaking solution that leverages cutting-edge technology to combat fraud. The ideal candidate will have a strong background in designing and implementing large-scale data solutions, with the potential to grow into a leadership role. This position requires a deep understanding of modern data architectures, cloud technologies, and the ability to drive technical initiatives that align with business objectives.

Our ultimate goal is to equip our clients with resilient safeguards against chargebacks, empowering them to safeguard their revenue and optimize their profitability. Join us on this thrilling mission to redefine the battle against fraud.

Your Arena:
Design, develop, and maintain scalable, robust data pipelines and ETL processes.
Architect and implement complex data models across various storage solutions.
Collaborate with R&D teams, data scientists, analysts, and other stakeholders to understand data requirements and deliver high-quality solutions.
Ensure data quality, consistency, security, and compliance across all data systems.
Play a key role in defining and implementing data strategies that drive business value.
Contribute to the continuous improvement of our data architecture and processes.
Champion and implement data engineering best practices across the R&D organization, serving as a technical expert and go-to resource for data-related questions and challenges.
Participate in and sometimes lead code reviews to maintain high coding standards.
Troubleshoot and resolve complex data-related issues in production environments.
Evaluate and recommend new technologies and methodologies to improve our data infrastructure.
Requirements:
What It Takes - Must haves:
5+ years of experience in data engineering, with specific, strong proficiency in Python & software engineering principles - Must.
Extensive experience with AWS, GCP, Azure and cloud-native architectures - Must.
Deep knowledge of both relational (e.g., PostgreSQL) and NoSQL databases - Must.
Designing and implementing data warehouses and data lakes - Must
Strong understanding of data modeling techniques - Must.
Expertise in data manipulation libraries (e.g., Pandas) and big data processing frameworks - Must.
Experience with data validation tools such as Pydantic & Great Expectations - Must.
Proficiency in writing and maintaining unit tests (e.g., Pytest) and integration tests - Must.

Advantages:
Apache Iceberg - Experience building, managing and maintaining Iceberg lakehouse architecture with S3 storage and AWS Glue catalog - Strong Advantage.
Apache Spark - Proficiency in optimizing Spark jobs, understanding partitioning strategies, and leveraging core framework capabilities for large-scale data processing - Strong Advantage.
Modern data stack tools - DBT, DuckDB, Dagster or any other Data orchestration tool (e.g., Apache Airflow, Prefect) - Advantage.
Designing and developing backend systems, including- RESTful API design and implementation, microservices architecture, event-driven systems, RabbitMQ, Apache Kafka - Advantage.
Containerization technologies- Docker, Kubernetes, and IaC (e.g., Terraform) - Advantage.
Stream processing technologies (e.g., Apache Kafka, Apache Flink) - Advantage.
Understanding of compliance requirements (e.g., GDPR, CCPA) - Advantage
Experience mentoring junior engineers or leading small project teams.
Excellent communication skills with the ability to explain complex technical concepts to various audiences.
Demonstrated ability to work independently and lead technical initiatives
Relevant certifications in cloud platforms or data technologies.
This position is open to all candidates.
 
Hide
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8353703
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 10 שעות
דרושים בעידור מחשבים בע"מ
סוג משרה: מספר סוגים
תנאים נוספים:החזר הוצאות, קרן השתלמות
דרוש data engineer להשתלבות בעבודת הצוות ופרויקטים בתחום ה AI.
התפקיד כולל אחריות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה הדוק עם data Scientist.
עיצוב ופיתוח של תהליכי דאטה קריטיים, מגוונים וגדולים גם בסביבות ענן וגם ב on prem
דרישות:
ניסיון של לפחות 3 שנים כ data engineer - חובה
ניסיון של 3 שנים עם Python בדגש על עבודה עם קבצי json ועבודה מול בסיסי נתונים חובה
ניסיון מעשי של שנתיים לפחות ב AWS עם services של Athena/Glue/StepFunction/EMR/Redshift/RDS חובה
עבודה מול קבצי טקסט למטרות AI ו LLM יתרון משמעותי
ניסיון מעשי עם Spark עבור Large scale data -יתרון משמעותי
עבודה מול שירותי REST API -יתרון משמעותי
הבנות של טכניקות של אופטימיזציה ועבודה עם partitions של סוגים שונים של דאטה כמו parquet, Avro, hdfs, delta lake
ניסיון בתפיסה ועבודה עם docker, Linux, CI/CD tools, Kubernetes
הכרות עם פתרונות GenAI / prompt engineering יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8353439
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
דרושים במלם תים
סוג משרה: משרה מלאה ועבודה היברידית
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM.
דרישות:
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8261624
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
סוג משרה: משרה מלאה
חברה גלובלית מובילה מחפשת מוביל/ת פתרונות AI ו-ML להצטרפות לצוות טכנולוגי פורץ דרך.
במסגרת התפקיד תהיה לך אחריות על פיתוח, יישום והטמעת פתרונות AI חכמים, המשפיעים באופן ישיר על תהליכים עסקיים ומערכות ליבה בארגון.
זוהי הזדמנות לקחת חלק משמעותי בעיצוב מוצרים ותהליכים בסביבה בינלאומית ודינמית, עם תנאים מעולים למתאימים/ות.

תחומי אחריות:
פיתוח ויישום מודלים מתקדמים בתחומי NLP, Computer Vision, אנליטיקה חזויה ומערכות המלצה.
עיבוד וניתוח דאטה רחב היקף, כולל פיתוח אלגוריתמים ושיטות ML מגוונות.
שילוב יכולות AI במערכות BI ופתרונות ארגוניים.
אוטומציה חכמה לתהליכי IT ותפעול.
שיפור, ניטור ותחזוקה שוטפת של מודלים קיימים, תוך שמירה על אבטחת מידע ועקרונות אתיים.
שיתוף ידע והובלת הדרכות פנימיות בתחום AI ו-ML.
דרישות:
תואר ראשון במדעי המחשב / data Science / AI או תחום דומה.
35 שנות ניסיון מעשי בפיתוח מודלים ML/ data Science.
שליטה ב-TensorFlow, PyTorch ו-Scikit-learn.
ידע עמוק בשפות Python / R / JAVA וב-SQL.
ניסיון עם שירותי ענן (AWS SageMaker, Azure AI, Google AI).
היכרות עם תהליכי ETL, הנדסת נתונים וחיבורי API.

יתרון משמעותי לידע וניסיון ב:
עבודה עם מערכות Big Data (Spark, Hadoop).
הטמעת מודלים בסביבות MLOps/ DevOps.
מתודולוגיות ITIL ותקני ISO.
שילוב ML בכלי BI.
עקרונות אחריות ואתיקה בתחום ה-AI. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8357163
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים באלעד מערכות
מיקום המשרה: מודיעין מכבים רעות
סוג משרה: משרה מלאה ועבודה היברידית
דרוש/ה מפתח/ת DWH לארגון פינססי היושב באיירפורט סיטי

תיאור התפקיד:
התפקיד כולל פיתוח תהליכי  ETLבמחסן הנתונים הארגוני- פיתוח בכלי Talend,, DataStage
ו PL/SQL בסביבת Oracle וכן אחריות על תקינות התהליכים בסביבת הייצור.
יישום פתרונות נתונים מורכבים בבסיסי נתונים גדולים תוך עבודה מול מגוון ממשקים של מנתחי מערכות, בודקים, צוותים עסקיים וטכנולוגיים
דרישות:
פיתוח תהליכי ETL בסביבת DWH - חובה לפחות 3 שנות ניסיון
ניסיון מוכח בפיתוח בTalend  - חובה
ידע וניסיון בכתיבת stored procedures ושאילתות SQL מורכבות בסביבת Oracle חובה
ניסיון בעבודה עם מחסני נתונים ( data Warehouses) - חובה
ניסיון בפיתוח ב IBM DataStage יתרון משמעותי
ניסיון בעבודה עם מתזמן ארגוני, עדיפות ל Control-M - יתרון משמעותי
היכרות עם עולם BI / DWH Banking ועבודה בסביבה פיננסית/בנקאית- יתרון משמעותי
ניסיון בעבודה עם Linux - יתרון
השכלה אקדמאית עדיפות לתארים טכנולוגיים: מערכות מידע, תעשייה וניהול, מדעי המחשב, הנדסת תוכנה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8313264
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בקונסיסט מערכות בע"מ
סוג משרה: משרה מלאה
דרוש/ה מפתח AI /מפתח data למשרד ממשלתי בלוד
דרישות:
5 שנות ניסיון ומעלה בתפקידי דאטה, מתוכן שנתיים לפחות בdata science
ידע מוכח בהטמעת ופריסת מודלי AI לסביבות ייצור (torchserve, nvidia triton)
ידע מוכח בשפת Python ובכתיבת קוד לproduction (שימוש בpydantic)
ניסיון מוכח בעבודה בGCP לרבות שימוש בartifact registry, cloud run jobs, workflow, gke
ניסיון מוכח בבניית סוכני AI
ידע מוכח בשימוש בתהליכי docker, CICD המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8337006
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
דרושים בMertens – Malam Team
סוג משרה: מספר סוגים
חברת Mertens - MalamTeam מגייסת מהנדס.ת נתונים למערכות rt ביג דאטה לארגון פיננסי בשפלה

תיאור משרה
לתכנן ולפרוס תהליכי דאטה ( data Pipelines) בקנה מידה רחב, סטנדרטיים וברי-תחזוקה, המאפשרים רישום לוגים יעיל, טיפול שיטתי בשגיאות והעשרת נתונים בזמן אמת. התפקיד דורש אחריות מלאה הן על היישום והן על הביצועים.
יחידת דאטה ותצפיות (Observability) ממוקדת-עסקים בתוך חטיבת הטכנולוגיה, המתמקדת בתמיכה במוצרים הדיגיטליים של הבנק כולל אפליקציות מובייל ופלטפורמות אינטרנט.
הצוות עובד בשיתוף פעולה עם מנהלי מוצר, מפתחי אפליקציות, ארכיטקטים וצוותי תשתיות, כדי להגדיר מודלים אפקטיביים לניטור, למפות תהליכי משתמש, ולייצר תובנות עסקיות רלוונטיות באמצעות כלי תצפיות כמו Splunk.
במקביל מעצבים וצורכים נתוני תצפיות במטרה לשפר את חוויית המשתמש.
דרישות:
ניסיון מעשי של לפחות 3 שנים ב-Splunk 
שליטה ב-SPL, ניתוח נתונים (Parsing), בניית Dashboards, עבודה עם Macros וכיוונון ביצועים 
ניסיון בעבודה עם מערכות מבוססות אירועים (כגון Kafka, REST APIs) 
הבנה מעמיקה של נתונים מובנים וחצי-מובנים (JSON, XML, Logs)
יכולת סקריפטינג חזקה ב- Python או Bash
היכרות עם תהליכי CI/CD באמצעות כלים כמו Git ו-Jenkins
ניסיון במידול נתונים, לוגיקות העשרה ואינטגרציית מערכות
יכולת עבודה עצמאית והובלת פתרונות סקיילביליים ומוכנים ל-Production המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8352384
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
02/09/2025
חברה חסויה
Job Type: Full Time
Who We're Looking For - The Dream Maker We're in search of an experienced and skilled Senior Data Engineer to join our growing data team. As part of our data team, you'll be at the forefront of crafting a groundbreaking solution that leverages cutting-edge technology to combat fraud. The ideal candidate will have a strong background in designing and implementing large-scale data solutions, with the potential to grow into a leadership role. This position requires a deep understanding of modern data architectures, cloud technologies, and the ability to drive technical initiatives that align with business objectives. Our ultimate goal is to equip our clients with resilient safeguards against chargebacks, empowering them to safeguard their revenue and optimize their profitability. Join us on this thrilling mission to redefine the battle against fraud. Your Arena
* Design, develop, and maintain scalable, robust data pipelines and ETL processes
* Architect and implement complex data models across various storage solutions
* Collaborate with R&D teams, data scientists, analysts, and other stakeholders to understand data requirements and deliver high-quality solutions
* Ensure data quality, consistency, security, and compliance across all data systems
* Play a key role in defining and implementing data strategies that drive business value
* Contribute to the continuous improvement of our data architecture and processes
* Champion and implement data engineering best practices across the R&D organization, serving as a technical expert and go-to resource for data-related questions and challenges
* Participate in and sometimes lead code reviews to maintain high coding standards
* Troubleshoot and resolve complex data-related issues in production environments
* Evaluate and recommend new technologies and methodologies to improve our data infrastructure
Requirements:
What It Takes - Must haves: 5+ years of experience in data engineering, with specific, strong proficiency in Python & software engineering principles - Must
* Extensive experience with AWS, GCP, Azure and cloud-native architectures - Must
* Deep knowledge of both relational (e.g., PostgreSQL) and NoSQL databases - Must
* Designing and implementing data warehouses and data lakes - Must
* Strong understanding of data modeling techniques - Must
* Expertise in data manipulation libraries (e.g., Pandas) and big data processing frameworks - Must
* Experience with data validation tools such as Pydantic & Great Expectations - Must
* Proficiency in writing and maintaining unit tests (e.g., Pytest) and integration tests - Must Advantages:
* Apache Iceberg - Experience building, managing and maintaining Iceberg lakehouse architecture with S3 storage and AWS Glue catalog - Strong Advantage
* Apache Spark - Proficiency in optimizing Spark jobs, understanding partitioning strategies, and leveraging core framework capabilities for large-scale data processing - Strong Advantage
* Modern data stack tools - DBT, DuckDB, Dagster or any other Data orchestration tool (e.g., Apache Airflow, Prefect) - Advantage
* Designing and developing backend systems, including- RESTful API design and implementation, microservices architecture, event-driven systems, RabbitMQ, Apache Kafka - Advantage
* Containerization technologies- Docker, Kubernetes, and IaC (e.g., Terraform) - Advantage
* Stream processing technologies (e.g., Apache Kafka, Apache Flink) - Advantage
* Understanding of compliance requirements (e.g., GDPR, CCPA) - Advantage
* Experience mentoring junior engineers or leading small project teams
* Excellent communication skills with the ability to explain complex technical concepts to various audiences
* Demonstrated ability to work independently and lead technical initiatives
* Relevant certifications in cloud platforms or data technologies Our Story Chargeflow is a leading force in fintech innovati
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8329908
סגור
שירות זה פתוח ללקוחות VIP בלבד