דרושים » דאטה » data Engineer

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בבינת תקשורת מחשבים
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
תנאים נוספים:קרן השתלמות
אנו מחפשים איש data מנוסה להצטרפות לצוות הדאטה שלנו, להובלה של פיתוח, תפעול ואופטימיזציה של פלטפורמות נתונים מתקדמות.
התפקיד כולל עבודה עם מחסני נתונים, תהליכי עיבוד נתונים מורכבים, ופלטפורמות מבוססות קונטיינרים.

תחומי אחריות:
- תכנון, פיתוח ותחזוקה של תשתיות data ו- data Pipelines.
- עבודה עם מחסני נתונים גדולים וביצוע אופטימיזציה לשאילתות וביצועים.
- עבודה עם פלטפורמות data מבוססות Kubernetes כגון VMware Tanzu.
- עבודה עם מערכות data Warehouse כגון Greenplum Database.
- פיתוח תהליכי ETL /ELT ועבודה עם נתונים בהיקפים גדולים.
- שיתוף פעולה עם צוותי פיתוח, אנליטיקה ו- DevOps.
דרישות:
- סיווג ביטחוני (רמה 3 לפחות).
- ניסיון של 5+ שנים בתפקידי data Engineer / data Platform.
- ניסיון בעבודה עם SQL ברמה גבוהה.
- ניסיון עם data Warehouses.
- ניסיון עם Kubernetes או פלטפורמות מבוססות קונטיינרים.
- ניסיון בפיתוח pipelines לעיבוד נתונים.

יתרון משמעותי:
- ניסיון עם VMware Tanzu.
- ניסיון עם Greenplum Database.
- ניסיון עם Spark / Airflow / Kafka.
- ניסיון עם ענן (AWS / GCP / Azure).
- ניסיון בעבודה עם data Lake.
- ניסיון בסביבות air gapped.

המשרה פונה לנשים וגברים כאחד. המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8630409
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בהמרכז הרפואי תל אביב (איכילוב)
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
אגף מערכות מידע מגייס data Engineer עם רקע חזק בעולמות ה- BI, להצטרפות לצוות דאטה מרכזי העוסק בהקמה והובלה של פלטפורמת נתונים מודרנית.
התפקיד כולל עבודה על דאטה קליני ותפעולי בהיקפים גדולים, תוך שילוב בין עולמות DWH קלאסיים לבין ארכיטקטורות data Lake / Lakehouse מתקדמות.

במסגרת התפקיד:
תכנון והקמה של data Pipelines מקצה לקצה עבור דאטה רפואי ותפעולי
פיתוח מודלים אנליטיים ( data Modeling) לתמיכה בקבלת החלטות קליניות ועסקיות
עבודה עם data Lake / Lakehouse לניהול נתונים בהיקפים גדולים
אינטגרציה של מקורות מידע מגוונים (מערכות רפואיות, מערכות תפעוליות, APIs)
שיפור data Quality, ניטור תהליכים והתמודדות עם data Gaps (חוסרים, עיכובים, טעויות)
עבודה צמודה עם אנליסטים, חוקרים, צוותי BI וגורמים קליניים
הובלת Best Practices בתחום ניהול נתונים בארגון
דרישות:
דרישות חובה
ניסיון של 3+ שנים כ- BI Developer או data Engineer
שליטה גבוהה ב-SQL וניסיון מוכח ב- data Modeling (Star Schema / Snowflake)
ניסיון בפיתוח תהליכי ETL /ELT מורכבים
ניסיון בעבודה עם Python (או שפה דומה)
הבנה מעמיקה של DWH קלאסי
ניסיון בעבודה עם סביבת Microsoft ( SQL server / Power BI )

יתרון משמעותי
ניסיון עם כלים מודרניים כגון: dbt Apache Airflow Airbyte Trino
ניסיון בעבודה עם Object Storage (כגון Amazon S3) ו- data Lake
היכרות עם Apache Iceberg
ניסיון בארכיטקטורת data Lakehouse
ניסיון בעבודה עם דאטה רפואי / קליני (EMR / EHR)
היכרות עם תקני מידע רפואיים (HL7 / FHIR)
ניסיון בעבודה בסביבות ענן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8632501
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
סוג משרה: משרה מלאה ועבודות ללא קורות חיים
ארגון ממשלתי באזור המרכז מגייס אנליסט/ית נתונים
התפקיד כולל: עבודה עם עיבוד והסבת קבצי CAD ו-GIS למאגרי תשתיות לאומיות, פיתוח סקריפטים ב- Python להסבות נתונים חצי אוטומטיות ואוטומטיות, ביצוע בקרות איכות, ניתוח וקליטת מידע ממקורות מגוונים לבסיסי נתונים ועבודה בצוות רב-תחומי לשיפור תהליכי עבודה ועוד.
דרישות:
- שנתיים ניסיון כאנליסט/ית נתונים
- ניסיון בעבודה עם מערכות GIS כגגון: ArcGIS, ArcPro, QGIS
- ניסיון בעבודה עם בסיסי נתונים SQL / NoSQL
- ניסיון בפיתוח Python בסביבת GIS
- יכולת ניתוח נתונים והבנה של מפרטי מיפוי וקליטת נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8624729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בTechTalent
סוג משרה: משרה מלאה ועבודה היברידית
ארגון מוצר מתקדם מעולמות ה-Fintech מגייס data Engineer בכיר/ה להשתלבות במערך טכנולוגי מוביל.
הזדמנות לקחת חלק בפיתוח פתרונות data מתקדמים בסביבה חדשנית ובקבוצה מקצועית בחזית הטכנולוגיה.

תחומי אחריות:
תכנון ובנייה של פתרונות data מתקדמים
עבודה Hands-on בפיתוח באמצעות Python
שימוש והטמעה של תהליכי data Pipelines תוך עבודה עם Airflow
עבודה עם כלים מתקדמים בעולמות ה- data
שיתוף פעולה עם ממשקים טכנולוגיים כחלק מצוות מוביל
דרישות:
תואר ראשון בתחום טכנולוגי
לפחות 6 שנות ניסיון בעולמות ה- data
ניסיון מעשי בפיתוח ב- Python
ניסיון בעבודה עם Airflow
ניסיון בכלי data נוספים
אנגלית ברמה גבוהה מאוד
רקע קודם בפיתוח backend - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בNishapro
סוג משרה: משרה מלאה
דרוש/ה טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -

בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה - חובה.

שליטה ב- Python - חובה.

ניסיון בעבודה עם בסיסי נתונים (SQL) - חובה.

הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים


מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית

יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות

גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519703
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
דרוש/ה מפתח.ת דאטה ו BI
רקע על פעילות היחידה:
הזדמנות להשתלב בעולם מרתק של דאטה קליני ולקחת חלק בפרויקטים משמעותיים המשפיעים ישירות על תהליכי קבלת ההחלטות והעשייה הרפואית בארגון רפואי מוביל.
היחידה נמצאת בעיצומה של טרנספורמציה טכנולוגית רחבת היקף, הכוללת בחירה, הטמעה והכשרה של כלים מודרניים בסביבת ענן, וזו הזדמנות לקחת חלק מרכזי בתהליך, ולהשפיע על עתיד הדאטה בארגון.
תיאור התפקיד:
הובלת פרויקטי דאטה מקצה לקצה - משלב האפיון והניתוח, דרך הפיתוח והיישום ועד לעלייה לאוויר
ניתוח מערכות ואפיון פתרונות דאטה מורכבים מול לקוחות עסקיים וגורמים קליניים
פיתוח תהליכי ETL ומודלי DWH
פיתוח Backend ו-Frontend בעולמות ה-BI והדאטה
עבודה בסביבות Microsoft ובענן (AWS)
השתלבות בצוות פיתוח של אנשי/נשות BI ו-Data Engineers
התפקיד מתאים לאיש/אשת BI מנוסה, בעל/ת יכולת הובלה ועצמאות מקצועית, המסוגל/ת לקחת אחריות מלאה על משימות ופרויקטים ולהוות גורם מקצועי מוביל בצוות.
היקף משרה:
משרה מלאה, א'-ה'.
דרישות:
לפחות 5 שנות ניסיון בפיתוח BI (כולל פיתוח בכלי ETL)
לפחות 3 שנות ניסיון משמעותי בניתוח מערכות ואפיון פתרונות דאטה
ניסיון במידול DWH והובלת פרויקטי דאטה מקצה לקצה (Backend ו-Frontend)
ניסיון בעבודה עם כלי Microsoft : Power BI, SSIS, SSRS - חובה
ניסיון בעבודה בסביבות פיתוח מודרניות ובענן - יתרון משמעותי
יכולת עבודה עצמאית, הובלה מקצועית וראייה מערכתית רחבה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616899
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
This role has been designed as Hybrid with an expectation that you will work on average 2 days per week from an office.

We are looking for a talented Data Engineer to help build and enhance the data platform that supports analytics, operations, and data-driven decision-making across the organization. You will work hands-on to develop scalable data pipelines, improve data models, ensure data quality, and contribute to the continuous evolution of our modern data ecosystem.

Youll collaborate closely with Senior Engineers, Analysts, Data Scientists, and stakeholders across the business to deliver reliable, well-structured, and well-governed data solutions.


What Youll Do:

Engineering & Delivery

Build, maintain, and optimize data pipelines for batch and streaming workloads.

Develop reliable data models and transformations to support analytics, reporting, and operational use cases.

Integrate new data sources, APIs, and event streams into the platform.

Implement data quality checks, testing, documentation, and monitoring.

Write clean, performant SQL and Python code.

Contribute to improving performance, scalability, and cost-efficiency across the data platform.

Collaboration & Teamwork

Work closely with senior engineers to implement architectural patterns and best practices.

Collaborate with analysts and data scientists to translate requirements into technical solutions.

Participate in code reviews, design discussions, and continuous improvement initiatives.

Help maintain clear documentation of data flows, models, and processes.

Platform & Process

Support the adoption and roll-out of new data tools, standards, and workflows.

Contribute to DataOps processes such as CI/CD, testing, and automation.

Assist in monitoring pipeline health and resolving data-related issues.
Requirements:
What Were Looking For

2-5+ years of experience as a Data Engineer or similar role.

Hands-on experience with Snowflake (mandatory)-including SQL, modeling, and basic optimization.

Experience with dbt (or similar)-model development, tests, documentation, and version control workflows.

Strong SQL skills for data modeling and analysis.

Proficiency with Python for pipeline development and automation.

Experience working with orchestration tools (Airflow, Dagster, Prefect, or equivalent).

Understanding of ETL/ELT design patterns, data lifecycle, and data modeling best practices.

Familiarity with cloud environments (AWS, GCP, or Azure).

Knowledge of data quality, observability, or monitoring concepts.

Good communication skills and the ability to collaborate with cross-functional teams.


Nice to Have:

Exposure to streaming/event technologies (Kafka, Kinesis, Pub/Sub).

Experience with data governance or cataloging tools.

Basic understanding of ML workflows or MLOps concepts.

Experience with infrastructure-as-code tools (Terraform, CloudFormation).

Familiarity with testing frameworks or data validation tools.

Additional Skills:

Cloud Architectures, Cross Domain Knowledge, Design Thinking, Development Fundamentals, DevOps, Distributed Computing, Microservices Fluency, Full Stack Development, Security-First Mindset, User Experience (UX).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8598093
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
In your role as a Data Engineer , you'll be actively engaged in the most fascinating and demanding projects for our clients. Handling high-scale operations, heavy traffic, stringent SLAs, and massive data volumes is just the starting point. Our leadership in the realms of Big Data, Streaming Data, and Complex Event Processing (CEP) stems from our adept use of cutting-edge, optimal technologies.
Responsibilities:
Apply software-engineering methods and best practices (Medallion Architecture) in Data Lake management, using tools like DBT.
Develop Data pipelines to ingest and transform data.
Manage and enhance orchestrated pipelines across company
Data Modeling: Developing data models to ensure efficient storage, retrieval, and processing of data, often involving schema design for NoSQL databases, data lakes, and data warehouses. This will also include catalogs of data.
Scalability: Ensuring that the big data architecture can scale horizontally to handle large volumes of data and high traffic loads.
Data Security: Implementing security measures to protect sensitive data, including encryption, access controls, and data masking.
Data Governance: Establishing data governance policies to ensure data quality, compliance with regulations, and data lineage.
Requirements:
5 years of experience in Python (+Java / Scala)
Experience in Building data lakes, including ingestion and transformation (DBT)
Data Warehousing & ETL Pipelines
SQL & Advanced Query Optimization
Experience in data formats (Parquet, Avro, ORC)
Experience in streaming (Spark Streaming, Flink, Kafka Streams, Beam, etc.)
Experience in NoSQL and data storage (e.g. Elastic, Redis, MongoDB, CouchBase, BigQuery, Snowflake, Databricks)
Experience in messaging (Kafka, RabbitMQ, etc.)
Experience in cloud platforms (AWS, GCP)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616874
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/03/2026
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a talented Data Engineer to join our analytics team in the Big Data Platform group.
Job Id: 25380
You will support our product and business data initiatives, expand our data warehouse, and optimize our data pipeline architecture with an AI first attitude.
The ideal candidate is experienced in leveraging AI tools as part of modern data pipeline development, enabling scalable solutions, accelerating delivery, and continuously exploring new approaches and technologies.
The right candidate is excited by the prospect of building the data architecture for the next generation of products and data initiatives.
This is a unique opportunity to join a team full of outstanding people making a big impact on us.
We work on multiple products in many domains to deliver truly innovative solutions in the Cyber Security and Big Data realm.
This role requires the ability to collaborate closely with both R&D teams and business stakeholders, to understand their needs and translate them into robust and scalable data solutions.
Key Responsibilities
Maintain and develop enterprise-grade Data Warehouse and Data Lake environments
Create data infrastructure for various R&D groups across the organization to support product development and optimization
Work with data experts to assist with technical data-related issues and support infrastructure needs
Identify, design, and implement internal process improvements: automating manual processes, optimizing data delivery, redesigning infrastructure for scalability
Build and maintain robust ETL/ELT pipelines for data ingestion, transformation, and delivery across various systems
Incorporate AI-assisted tools into data pipeline design, development, and optimization to improve efficiency, scalability, and innovation
Requirements:
B.Sc. in Engineering or a related field
3+ years of experience as a Data Engineer working on production systems
Advanced SQL knowledge and experience with relational databases
Proven experience using Python
Hands-on experience building, optimizing, and automating data pipelines, architectures, and data sets
Experience in creating and maintaining ETL/ELT processes
Strong project management and organizational skills
Strong collaboration skills with both technical (R&D) and non-technical (business) teams
Experience using AI tools as part of the data engineering workflow, with a mindset of experimentation, working at scale, and exploring new technologies
Advantage: Azure data services, Databricks, EventHub, and Spark.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597003
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/03/2026
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Required ML Data Engineer
Israel: Tel Aviv/ Hybrid (Israel)
R&D | Full Time | Job Id: 24792
Key Responsibilities
Your Impact & Responsibilities:
As a Data Engineer - AI Technologies, you will be responsible for building and operating the data foundation that enables our LLM and ML research: from ingestion and augmentation, through labeling and quality control, to efficient data delivery for training and evaluation.
You will:
Own data pipelines for LLM training and evaluation
Design, build and maintain scalable pipelines to ingest, transform and serve large-scale text, log, code and semi-structured data from multiple products and internal systems.
Drive data augmentation and synthetic data generation
Implement and operate pipelines for data augmentation (e.g., prompt-based generation, paraphrasing, negative sampling, multi-positive pairs) in close collaboration with ML Research Engineers.
Build tagging, labeling and annotation workflows
Support human-in-the-loop labeling, active learning loops and semi-automated tagging. Work with domain experts to implement tools, schemas and processes for consistent, high-quality annotations.
Ensure data quality, observability and governance
Define and monitor data quality checks (coverage, drift, anomalies, duplicates, PII), manage dataset versions, and maintain clear documentation and lineage for training and evaluation datasets.
Optimize training data flows for efficiency and cost
Design storage layouts and access patterns that reduce training time and cost (e.g., sharding, caching, streaming). Work with ML engineers to make sure the right data arrives at the right place, in the right format.
Build and maintain data infrastructure for LLM workloads
Work with cloud and platform teams to develop robust, production-grade infrastructure: data lakes / warehouses, feature stores, vector stores, and high-throughput data services used by training jobs and offline evaluation.
Collaborate closely with ML Research Engineers and security experts
Translate modeling and security requirements into concrete data tasks: dataset design, splits, sampling strategies, and evaluation data construction for specific security use.
Requirements:
3+ years of hands-on experience as a Data Engineer or ML/Data Engineer, ideally in a product or platform team.
Strong programming skills in Python and experience with at least one additional language commonly used for data / backend (e.g., SQL, Scala, or Java).
Solid experience building ETL / ELT pipelines and batch/stream processing using tools such as Spark, Beam, Flink, Kafka, Airflow, Argo, or similar.
Experience working with cloud data platforms (e.g., AWS, GCP, Azure) and modern data storage technologies (object stores, data warehouses, data lakes).
Good understanding of data modeling, schema design, partitioning strategies and performance optimization for large datasets.
Familiarity with ML / LLM workflows: train/validation/test splits, dataset versioning, and the basics of model training and evaluation (you dont need to be the primary model researcher, but you understand what the models need from the data).
Strong software engineering practices: version control, code review, testing, CI/CD, and documentation.

Ability to work independently and in collaboration with ML engineers, researchers and security experts, and to translate high-level requirements into concrete data engineering tasks. 
Nice to Have 
Experience supporting LLM or NLP workloads, including dataset construction for pre-training / fine-tuning, or retrieval-augmented generation (RAG) pipelines. 
Familiarity with ML tooling such as experiment tracking (e.g., Weights & Biases, MLflow) and ML-focused data tooling (feature stores, vector databases). 
Background in security / cyber domains (logs, alerts, incidents, SOC workflows) or other high-volume, high-variance data environments. 
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597480
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
we are seeking a Senior Data Infra Engineer. You will be responsible for designing and building all data, ML pipelines, data tools, and cloud infrastructure required to transform massive, fragmented data into a format that supports processes and standards. Your work directly empowers business stakeholders to gain comprehensive visibility, automate key processes, and drive strategic impact across the company.

Responsibilities

Design and Build Data Infrastructure: Design, plan, and build all aspects of the platform's data, ML pipelines, and supporting infrastructure.
Optimize Cloud Data Lake: Build and optimize an AWS-based Data Lake using cloud architecture best practices for partitioning, metadata management, and security to support enterprise-scale operations.
Lead Project Delivery: Lead end-to-end data projects from initial infrastructure design through to production monitoring and optimization.
Solve Integration Challenges: Implement optimal ETL/ELT patterns and query techniques to solve challenging data integration problems sourced from structured and unstructured data.
Requirements:
Experience: 5+ years of hands-on experience designing and maintaining big data pipelines in on-premises or hybrid cloud SaaS environments.
Programming & Databases: Proficiency in one or more programming languages (Python, Scala, Java, or Go) and expertise in both SQL and NoSQL databases.
Engineering Practice: Proven experience with software engineering best practices, including testing, code reviews, design documentation, and CI/CD.
AWS Experience: Experience developing data pipelines and maintaining data lakes, specifically on AWS.
Streaming & Orchestration: Familiarity with Kafka and workflow orchestration tools like Airflow.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8601803
סגור
שירות זה פתוח ללקוחות VIP בלבד