דרושים » דאטה » ארגון רפואי במרכז הארץ מגייס data Engineer

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 18 שעות
SQLink
דרושים בSQLink
סוג משרה: משרה מלאה
data Engineer עבור ארגון רפואי במרכז הארץ
התפקיד כולל: פיתוח ותחזוקה של תהליכי דאטה באמצעות Apache Nifi, Apache Spark ו-Apache Flink, עבודה צמודה עם צוותי data Science, BI ומערכות מידע בארגון ועוד.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בעבודה עם Apache Spark / Apache NiFi / Apache Flink
- ניסיון בפיתוח ב- Python לעיבוד נתונים ובניית data Flows
- ניסיון ב-SQL
- ניסיון בארכיטקטורת נתונים ותשתיות Big Data המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8139735
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 17 שעות
G-NESS
דרושים בG-NESS
מיקום המשרה: בני ברק
סוג משרה: משרה מלאה ועבודה היברידית
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8135791
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Calanit by One
דרושים בCalanit by One
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
המומחים של כלנית מגייסים למחלקת הדאטה בחברה ציבורית הגדולה בארץ   data Engineer מנוסה שיצטרף לצוות מוביל בתכנון, פיתוח וניהול של תהליכי עיבוד נתונים מתקדמים.

התפקיד כולל:

מתן פתרונות לבעיות ברמת מורכבות גבוהה במסד הנתונים
בדיקת איכות הנתונים ותהליכי ה- ETL (pipelines)
הבנת מודלים אנליטיים מורכבים
ניהול והרצת שאילתות מורכבות ואופטימיזציה שלהן
פתרון בעיות טכניות מורכבות בתשתיות ומאגרי נתונים
פיתוח ותחזוקה של תהליכי ETL באמצעות Apache NiFi ו-Apache Spark
דרישות:
ניסיון של 4 שנים ומעלה כ- data Engineer
ניסיון משמעותי בעבודה עם Apache Spark, NiFi, ו-Flink
ניסיון משמעותי בפיתוח בעזרת שפת Python לעיבוד נתונים ובניית data Flows
הבנה מעמיקה בארכיטקטורת נתונים ובתשתיות Big Data
שליטה מלאה ב-SQL, כולל כתיבת שאילתות מורכבות ואופטימיזציה
ניסיון בעבודה עם ElasticSearch: ניהול אינדקסים, אופטימיזציה וכתיבת שאילתות
ניסיון בעבודה עם MongoDB וכתיבת Aggregation Pipelines
ידע בעבודה עם Cloudera CDP ושירותי Kafka
ניסיון בעבודה עם מודולי AI ושילובם בפתרונות דאטה
הכרות עם פיתוח מיקרו-שירותים ו-OpenShift
ניסיון עם כלי ניהול תצורה בפיתוח מערכות מידע ודיגיטל

דרישות השכלה:
תואר אקדמי בהנדסה / מדעי המחשב או תואר אקדמי אחר או הנדסאי תכנה + קורסים בניהול מוצר (30 שעות לפחות) או בוגר יחידה טכנולוגית בצה"ל (ממר"ם, 8200, תקשוב, וכו') עם ניסיון רלוונטי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8133081
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
Log-On Software
דרושים בLog-On Software
מיקום המשרה: בני ברק
סוג משרה: מספר סוגים
לצוות חדש שהולך להוביל את כל פרויקטי ה-AI בארגון מחפשים data Engineer
פיתוח ותחזוקה של תשתיות דאטה, תהליכי Streaming ו- ETL בסביבת Big Data, עבודה עם Apache NiFi, Flink ו-Spark.
פיתוח ממשקי API, עיבוד וטיוב נתונים ב- Python, אינטגרציה עם מערכות מידע, עבודה על בסיסי נתונים רלציוניים ולא רלציוניים (ElasticSearch, MongoDB, SQL), שימוש ב-Kafka ובסביבות Cloudera CDP, ושותפות בהקמת תשתית לפתרונות AI ארגוניים.
הזדמנות לעבוד בצוות איכותי, בטכנולוגיות מתקדמות, בפרויקט עתיר משמעות עם אופק טכנולוגי.

מיקום: בני ברק | היברידיות: יומיים מהבית
דרישות:
דרישות חובה:
לפחות 3 שנות ניסיון בפיתוח כ- data Engineer
ניסיון והתמחות בטכנולוגיות Streaming (לפחות אחד מהבאים: Apache NiFi / Flink / Spark)
השכלה רלוונטית בתחום המחשבים או מערכות מידע (תואר / הנדסאי / קורסים / בוגרי יחידה טכנולוגית)
ניסיון משמעותי בפיתוח ב- Python
הבנה בארכיטקטורת Big Data, כולל פיתוח תהליכי עיבוד נתונים ואינטגרציה

יתרון:
ניסיון עם ElasticSearch כולל כתיבת שאילתות, ניהול אינדקסים ואופטימיזציה
ניסיון בעבודה עם MongoDB כולל Aggregation Pipelines
שליטה בכתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
היכרות עם פלטפורמת Cloudera CDP ושירותי Kafka
פיתוח ממשקי API ופתרונות מבוססי Microservices, כולל עבודה עם OpenShift
היכרות עם כלי BI : SSAS ו-DataStage
ניסיון בשילוב מודולי AI בפתרונות דאטה ויכולת הבנה של תשתיות מבוססות AI המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8136832
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
SQLink
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון רפואי גדול במרכז הארץ מגייס data Engineer
התפקיד כולל: פיתוח אנליטיקה מתקדמת והצגת תובנות מנתונים, פיתוח של מודלי Machine Learning ו- NLP, פיתוח תהליכי Big Data בסביבת Hadoop מעל Spark ו- Kafka, עבודה עם מבנה נתונים כגון JSON ו-Parquet, בסיס נתונים גרפי ועוד.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח Python מתקדם
- שנתיים ניסיון בעבודה עם HDFS, Hive, Spark, Kafka
- ניסיון בעבודה מול בסיסי נתונים לא רלציוניים כגון: Elastic, Neo4J המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8141500
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 13 שעות
SQLink
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון פיננסי במרכז הארץ מגייס מפתח/ת Python
התפקיד כולל: עבודה עם תהליכי data מקצה לקצה, פיתוח ב- Python בסביבת data Lake, כולל תהליכי שינוע נתונים בעולמות רלציוניים, עבודה עם PySpark, תחקור נתונים ב-SQL, ביצוע בדיקות Unit ו-Integration, התנהלות בסביבת CI/CD מתקדמת ועוד.
דרישות:
- שנתיים ניסיון ב- Python
- שנתיים ניסיון בסביבת Big Data עם דגש על Spark ו-Hive
- 3 שנות ניסיון עם כלי data של Microsoft כגון: SSIS, SQL server
- ניסיון בכתיבת שאילתות SQL מורכבות
- ניסיון בתהליכי ETL ו-ELT, כולל עבודה עם DWH ו- data Lake המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8139756
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
יונילינק
דרושים ביונילינק
מיקום המשרה: מספר מקומות
סוג משרה: מספר סוגים
ליונילינק דרושים מהנדסי נתונים שישתלבו שישתלבו ביחידת ה- AI& data

במסגרת התפקיד
1. תכנון וביצוע אופטימיזציה של תהליכי עיבוד נתונים
2. פיתוח ותחזוקה של תשתיות נתונים מורכבות בענן וב Premise On
3. בניית מערכות לבקרת איכות נתונים
4. תכנון וביצוע שדרוגים ושיפורים בתשתיות הנתונים
5. פתרון בעיות מורכבות במסדי הנתונים
6. תמיכה בצוותי האנליטיקה והמדע נתונים
7. תיעוד תהליכים ותחזוקת הידע הטכני
דרישות:
- ניסיון בפיתוח ותחזוקת תשתיות נתונים בענן וב (3S/MongoDB /SQL (Premise On
- ניסיון באופטימיזציה של שאילתות מורכבות
- ניסיון מוכח בבניית data Pipelines ותהליכי ETL
- ניסיון בעבודה עם מסדי נתונים רלציוניים ו-NoSQL
- ידע וניסיון בפיתוח בPython
- הבנה מעמיקה בארכיטקטורת data Big ומערכות מבוזרות
- ניסיון בעבודה עם כלי Engineering data כגון Airflow,Spark Apache
- היכרות עם פלטפורמות ענן (בדגש על GCP/ AWS (ושירותי נתונים בענן
- ניסיון בעבודה עם Lakehouse /Warehouses data
- היכרות עם כלי ניטור ובקרת איכות נתונים
- הבנה במודלים של AI/M המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8133966
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Senior Data Engineer to join our dynamic data team. In this role, you will design, build, and maintain robust data systems and infrastructure that support data collection, processing, and analysis. Your expertise will be crucial in developing scalable data pipelines, ensuring data quality, and collaborating with cross-functional teams to deliver actionable insights.

Key Responsibilities:

Design, develop, and maintain scalable ETL processes for data transformation and integration.
Build and manage data pipelines to support analytics and operational needs.
Ensure data accuracy, integrity, and consistency across various sources and systems.
Collaborate with data scientists and analysts to support AI model deployment and data-driven decision-making.
Optimize data storage solutions, including data lakehouses and databases, to enhance performance and scalability..
Monitor and troubleshoot data workflows to maintain system reliability.
Stay updated with emerging technologies and best practices in data engineering.
Requirements:
4+ years of experience in data engineering or a related role within a production environment.
Proficiency in Python and SQL
Experience with both relational (e.g., PostgreSQL) and NoSQL databases (e.g., MongoDB, Elasticsearch).
Familiarity with big data AWS tools and frameworks such as Glue, EMR, Kinesis etc.
Experience with containerization tools like Docker and Kubernetes.
Strong understanding of data warehousing concepts and data modeling.
Excellent problem-solving skills and attention to detail.
Strong communication skills, with the ability to work collaboratively in a team environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8158855
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
In this role, you will work closely with data scientists, analysts, and other cross-functional teams to understand their data needs and requirements. You will also be responsible for ensuring that data is easily accessible and can be used to support data-driven decision making.

Location: Ramat Gan, Hybrid Model

What will you do?

Design, build, and maintain data pipelines to extract, transform, and load data from various sources, including databases, APIs, and flat files
Enhance our data warehouse system to dynamically support multiple analytics use cases
Reimplement and productize scientific computational methods
Implement data governance policies and procedures to ensure data quality, security, and privacy
Collaborate with data scientists and other cross-functional teams to understand their data needs and requirements
Develop and maintain documentation for data pipelines, processes, and systems
Requirements:
Bachelor's or Master's degree in a related field (e.g. computer science, data science, engineering, computational biology)
At least 5 years of experience with programming languages, specifically Python
Must have at least 3+ years of experience as a Data Engineer, ideally with experience in multiple data ecosystems
Proficiency in SQL and experience with database technologies (e.g. MySQL, PostgreSQL, Oracle)
Familiarity with data storage technologies (e.g. HDFS, NoSQL databases)
Experience with ETL tools (e.g. Apache Beam, Apache Spark)
Experience with orchestration tools (e.g. Apache Airflow, Dagster)
Experience with data warehousing technologies (ideally BigQuery)
Experience working with large and complex data sets
Experience working in a cloud environment
Strong problem-solving and communication skills
Familiarity with biotech or healthcare data - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8158670
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
לארגון גדול ומוביל דרוש/ה Data Engineer לצוות מפתחי Big Data
לתפקיד מעניין ומגוון, הובלה ופיתוח מקצה לקצה של תהליכי Data Pipeline
ו-Big Data Solutionת ביצוע Design ויישום פתרונות.
עבודה עם אנשי Data Scinence וData Architect.
עבודה בPthon, Spark, Infromatica.
וטכנולוגיות מתקדמות נוספותת בעלת יכולות גבוהות להתמודדות עם אתגרים חדשים ומשתנים, מוטיבציה ללימוד עצמי, Team Player ויכולות התנהלות מול ממשקים שונים בארגון.
דרישות:
מינימום של 2 שנות ניסיון מעשי בפיתוח תהליכי Data Pipeline בקוד Phton - חובה.
מינימום של 2 שנות ניסיון מעשי עם SPARK ועבודה על Big Data Cluster - חובה.
מינימום של 2 שנות ניסיון בעבודה עם Hadoop - חובה.
מינימום של 2 שנות ניסיון בכתיבת SQL ברמה גבוה - חובה.
מינימום של 2 שנות ניסיון בעבודה עם Databases שונים כגון:MS SQL, Teeradata, Hive, Oracle - חובה.
ניסיון בפיתוח תהליכי ETL/Data Pilelines בכלים כגון: SSIS, Informatica - יתרון משמעותי.
רקע בBI - יתרון משמעותי. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8131912
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
חברה חסויה
Location: Ra'anana
Job Type: Full Time
We are looking for a hands-on data Architect to design, build, and optimize a cutting-edge data Lakehouse solution from the ground up. This role requires deep technical expertise in Big Data architectures, data modeling, ETL /ELT pipelines, cloud & on-prem solutions, and Real-Time analytics. As part of a fast-paced startup, youll be directly involved in coding, implementing, and scaling the platform not just designing, but building alongside the team. Youll take ownership of data strategies, governance, and architecture to enable high-performance analytics, AI, and business intelligence
Key Responsibilities Hands-On Architecture & Development: Build and deploy a scalable, open-source data Lakehouse integrating structured, semi-structured, and unstructured data.
* Design Real-Time and batch data processing pipelines using open-source frameworks (Apache Spark, Flink, Trino, Iceberg, Delta Lake, etc.).
* Develop cost-effective, high-performance data Storage strategies (columnar formats: Parquet, ORC).
* Implement best practices for data security, governance, access control, and compliance (GDPR, CCPA, etc.).
* Ensure seamless data integration across cloud and on-prem environments. data Engineering & ETL Pipelines:
* Develop high-performance ETL /ELT pipelines to ingest data from diverse sources (APIs, databases, IoT, logs).
* Optimize query performance using indexing, caching, materialized views, and distributed computing
* Implement metadata-driven, schema evolution-friendly data ingestion strategies.
* Ensure data quality, lineage, and observability across the entire pipeline. Collaboration & Execution: Work hands-on with data Engineers, BI Analysts, and ML Engineers to build an integrated platform.
* Define data cataloging and self-service analytics capabilities for internal users.
* Drive technical decision-making while balancing speed and scalability.
* Stay ahead of emerging trends in data architecture, ensuring best practices are implemented.
Requirements:
8+ years of hands-on experience in data Architecture, Big Data, or Cloud data Engineering. Expertise in open-source data Lakehouse technologies (Apache Iceberg, Delta Lake, Hudi, Presto/Trino, DuckDB, etc.).
* Deep hands-on experience with distributed computing frameworks (Apache Spark, Flink, Kafka, etc.).
* Strong coding skills in SQL, Python, and data modeling techniques
* Experience in designing and deploying scalable ETL /ELT pipelines (Apache Airflow, Dagster).
* Proven track record working with cloud platforms (AWS, GCP, Azure) and hybrid on-prem architectures.
* Strong knowledge of BI tools, analytical querying, and text search (Elasticsearch, OpenSearch). Proactive, execution-driven mindsetable to build, iterate, and scale quickly.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8156179
סגור
שירות זה פתוח ללקוחות VIP בלבד