דרושים » דאטה » data Engineer לחברה גדולה בצפון!

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
אנחנו מחפשים data Engineer מנוסה שיצטרף לתחום פלטפורמות דאטה לעבודה עם טכנולוגיות מתקדמות.
התפקיד כולל אחריות על תהליכי קליטה, עיבוד וניתוח נתונים, וכן פיתוח יישומים מבוססי דאטה על גבי פלטפורמת Splunk (כמו דשבורדים, אנליזות והתראות).
דרישות:
-ניסיון מוכח כ- data Engineer תהליכי ETL, עולמות data Pipelines ואינטגרציה בין מקורות מגוונים.
-ידע וניסיון בעבודה עם מערכות לינוקס.
-שליטה בשפות scripting כגון Python וShell.
-הכרות עם מימוש יישומים מבוססי דאטה דשבורדים, דוחות, אנליזות או מערכות ניטור.
-ניסיון בעבודה עם Splunk  יתרון משמעותי.
-ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) יתרון.
-תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8411908
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בגב מערכות
סוג משרה: משרה מלאה
לארגון מוביל באזור הקריות דרוש.ה מפתח.ת Splunk מנוסה להשתלבות בפרויקט אסטרטגי וחדשני הקמת data Lake מתקדם מבוסס Splunk.
זו הזדמנות להשתלב בצוות מקצועי ודינאמי, ולהוביל פיתוחים מורכבים שיאפשרו ניתוחים, ויזואליזציות והתראות בזמן אמת על בסיס מגוון רחב של מקורות מידע.
הזדמנות אמיתית להיות חלק מהקמה של מערכת קריטית לארגון, לעבוד בטכנולוגיות מתקדמות ולהשפיע על עולמות הניתוח והבינה הארגונית בצוות צעיר, מקצועי ודינאמי.
התפקיד כולל התקנה, קונפיגורציה ותחזוקה של סביבות Splunk, כולל אופטימיזציה לביצועים ו-scalability, פיתוח תהליכי ETL והזרמת מידע אל תוך Splunk תוך הקפדה על איכות ודיוק הנתונים, ניהול הרשאות משתמשים, Roles וגישה למידע לפי מדיניות הארגון ו-best practices, פיתוח דשבורדים, ויזואליזציות, שאילתות חיפוש, דוחות, אנליזות מורכבות והתראות, התממשקות למערכות חיצוניות באמצעות API וכלי Splunk.
דרישות:
ניסיון מוכח בפיתוח ויישום פתרונות על גבי Splunk
ידע בתהליכי ETL והזרמת מידע למערכת
ניסיון בניהול הרשאות, משתמשים וגישות
שליטה ב- Python / Shell scripting
תעודות הסמכה של Splunk יתרון משמעותי
היכרות עם JavaScript, ELK וכלים נוספים מעולמות data Analytics יתרון
תואר ראשון רלוונטי יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8297347
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה גדולה ויציבה באזור הצפון מגייסת data Engineer
התפקיד כולל: פיתוח והטמעה של תהליכי data Pipeline והזרמת מידע בין מערכות שונות, יישום לוגיקות עסקיות בפלטפורמת Splunk, התממשקות למערכות נוספות ועוד.
דרישות:
- שנתיים ניסיון כ- data engineer
- ידע וניסיון בעבודה עם מערכות Linux
- שליטה בשפות Scripting כגון: Python וShell
- הכרות עם מימוש יישומים מבוססי דאטה
- ניסיון בעבודה עם Splunk יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8399038
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
לחברת הייטק גלובלית בהרצליה בתחום המדיקל דרוש/ה data Engineer להצטרפות לצוות פיתוח מערכות AI/ML פורצות דרך בתחום הרפואי.
אם יש לך תשוקה לדאטה, טכנולוגיה ורפואה זו ההזדמנות שלך להשפיע באמת על עולם הבריאות.

מה בתפקיד:
תכנון, בנייה ותחזוקה של תהליכי דאטה וארכיטקטורות תומכות AI/ML
איסוף, עיבוד וארגון דאטה רפואי ממקורות שונים (CT, וידאו, נתונים קליניים)
הבטחת איכות, עקיבות וציות לתקנים רגולטוריים (FDA, GDPR, HIPAA)
שיתוף פעולה עם צוותי אלגוריתמים, קליניקה ומוצר
תמיכה באימוני מודלים וולידציה של נתונים
דרישות:
דרישות:
ניסיון של לפחות שנתיים כ- data Engineer (יתרון ב-AI/ML) - חובה
תואר ראשון במדעי המחשב / הנדסה ביו-רפואית / דאטה - חובה
שליטה ב- Python וכלים לעיבוד דאטה
הבנה בפרטיות ואבטחת מידע (HIPAA/GDPR)
יכולת עבודה בצוות רב-תחומי
יתרון משמעותי: ניסיון עם דאטה רפואי או מוצרים רפואיים מבוססי AI/ML. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8378808
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברת הייטק בתחום המדיקל בחיפה מגייסת data Engineer
להצטרף לצוות Point of Care ו-Handheld Ultrasound Algorithm באתר החברה בחיפה.
התפקיד כולל פיתוח, עיצוב ותחזוקה של פתרונות ניהול נתונים חדשניים, המותאמים לעולמות ה-AI המתפתחים בתחום האולטרסאונד הרפואי.

תחומי אחריות:
תמיכה ואופטימיזציה של תהליכי דאטה ואוטומציה
הובלת יוזמות דאטה חוצות ארגון, בשיתוף פעולה עם צוותי אלגוריתמים, קליניקה, ולידציה ומוצר
תרגום צרכים קליניים ומוצרים לארכיטקטורת דאטה
הכנת וניתוח נתונים לפיתוח AI ולהגשות רגולטוריות
הגדרה, פיתוח ותחזוקה של פתרונות מסדי נתונים
דרישות:
דרישות:
ניסיון בתחום של 1-2 שנים לפחות - חובה
תואר ראשון בהנדסה ביו-רפואית / מדעי המחשב / הנדסת חשמל / data Science או תחום דומה - חובה
ניסיון מעשי בפיתוח דאטה בשפת Python וניהול ועיבוד נתונים - חובה
ניסיון עם פורמטים כמו JSON, CSV, Parquet, DICOM - חובה

יתרון:
ניסיון בכתיבת בדיקות unit, component, integration ו-end-to-end
היכרות עם SQL, MongoDB ואופטימיזציה של שאילתות - יתרון
ידע ב-Docker, תהליכי CI/CD וכלים לתשתיות כקוד (AWS CloudFormation, terraform, CDK)
ניסיון עם ספריות מבוססות Dataframe (Pandas, Polars, PySpark) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8365488
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
דרושים בTesnet
מיקום המשרה: נתניה וחיפה
סוג משרה: משרה מלאה ועבודה היברידית
תנאים נוספים:קרן השתלמות
לחברה בינלאומית וחדשנית דרוש/ה בודק/ת תוכנה,
התפקיד כולל אחריות לבדיקת יישומי תוכנה באופן ידני כדי לזהות באגים, פגמים או בעיות לפני שחרור המוצר.
ההתמקדות העיקרית שלך תהיה להבטיח שהתוכנה עומדת בתקני האיכות הנדרשים ובציפיות המשתמש.
זוהי הזדמנות להצטרף לצוות המדהים שלנו!
דרישות:
- דרוש/ה ניסיון של חצי שנה-שנה בבדיקות תוכנה למערכות אירגוניות גדולות מבוססות WEB
- ניסיון ובקיאות עם שאילתות של SQL - חובה
- בקיאות במתודולוגיות, אסטרטגיות וטכניקות לבדיקת תוכנה - חובה
- יכולת לזהות ולתעד במדויק באגים בתוכנה וניסיון מסודר בכתיבת תסריטי בדיקות - חובה
- ניסיון עבודה עם כלי בדיקות - חובה
- אנגלית מעולה בדיבור, קריאה וכתיבה - חובה
- תשומת לב לפרטים ויכולות פתרון בעיות מורכבות
- יחסי אנוש מעולים ויכולת עבודה עצמאית ובצוות
- מוטיבציה ורעב להצלחה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8153002
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
04/11/2025
מיקום המשרה: קרית ביאליק
סוג משרה: משרה מלאה
תיאור התפקיד: * הצטרפות לצוות הדאטה ועבודה עם טכנולוגיות מתקדמות בתחום data Platforms ו-Splunk.
דרישות:
תיאור התפקיד:
* הצטרפות לצוות הדאטה ועבודה עם טכנולוגיות מתקדמות בתחום data Platforms ו-Splunk.
* פיתוח והטמעה של data Pipelines והזרמת נתונים בין מערכות מגוונות.
* בנייה של יישומים מבוססי דאטה על פלטפורמת Splunk דשבורדים, ויזואליזציות, אנליזות והתראות.
* תחזוקה וניהול סביבת העבודה בלינוקס התקנות, שדרוגים וקונפיגורציות.
* התממשקות למערכות נוספות וצריכת מידע באמצעות APIs. דרישות התפקיד:
* ניסיון מוכח כ- data Engineer תהליכי ETL, אינטגרציה ו-Pipelines.
* ידע וניסיון בעבודה עם Linux.
* שליטה ב- Python וב-Shell scripting.
* היכרות עם פיתוח יישומים מבוססי דאטה (דוחות, דשבורדים, אנליטיקה).
* ניסיון ב-Splunk יתרון משמעותי.
* ניסיון עם טכנולוגיות נוספות בתחום data Analytics (כגון ELK, Grafana, Power BI!) יתרון.
* תואר ראשון במערכות מידע / מדעי המחשב יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8399910
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Yokne`am
Job Type: Full Time
Were looking for an experienced Data Engineer to join our Networking Cluster Solutions (NCS) group and help shape the data backbone behind our advanced R&D telemetry and performance analytics ecosystem.

In this role, youll design, build, and maintain scalable, high-performance data pipelines that handle massive volumes of real-time telemetry data from hardware, communication modules, firmware, and large-scale AI and HPC clusters.
Youll work in a cutting-edge environment that combines software, hardware, and data infrastructure driving the next generation of our cluster performance and monitoring technologies.

The NCS group builds and operates some of our Israels most advanced AI and HPC clusters, optimizing networking and compute performance at scale.

What youll be doing:

Define and execute the groups data technical roadmap, aligning with R&D, hardware, and DevOps teams.

Design and maintain flexible ETL/ELT frameworks for ingesting, transforming, and classifying telemetry and performance data.

Build and optimize streaming pipelines using Apache Spark, Kafka, and Databricks, ensuring high throughput, reliability, and adaptability to evolving data schemas.

Implement and maintain observability and data quality standards, including schema validation, lineage tracking, and metadata management.

Develop monitoring and alerting for pipeline health using Prometheus, Grafana, or Datadog.

Support self-service analytics for engineers and researchers via Databricks notebooks, APIs, and curated datasets.

Promote best practices in data modeling, code quality, security, and operational excellence across the organization.

Deliver reliable insights for cluster performance analysis, telemetry visibility, and end-to-end test coverage.
Requirements:
What we need to see:

B.Sc. or M.Sc. in Computer Science, Computer Engineering, or a related field.

5+ years of hands-on experience in data engineering or backend development.

Strong practical experience with Apache Spark (PySpark or Scala) and Databricks.

Expertise with Apache Kafka, including stream ingestion, schema registry, and event processing.

Proficiency in Python and SQL for data transformation, automation, and pipeline logic.

Familiarity with ETL orchestration tools (Airflow, Prefect, or Dagster).

Experience with schema evolution, data versioning, and validation frameworks (Delta Lake, Iceberg, or Great Expectations).

Solid understanding of cloud environments (AWS preferred; GCP or Azure also relevant).

Knowledge of streaming and telemetry data architectures in large-scale, distributed systems.

Ways to stand out from the crowd:

Exposure to hardware, firmware, or embedded telemetry environments.

Experience with real-time analytics frameworks (Spark Structured Streaming, Flink, Kafka Streams).

Experience with data cataloging or governance tools (DataHub, Collibra, or Alation).

Familiarity with CI/CD for data pipelines and infrastructure-as-code (Terraform, GitHub Actions).

Experience designing performance metrics data systems (latency, throughput, resource utilization) that support high-volume, high-frequency telemetry at scale.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8407984
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/10/2025
חברה חסויה
Location: Yokne`am
Job Type: Full Time
We are looking for a Senior Data Engineer to join the manufacturing data Engineering team and help us craft data collection solutions, quality control methodologies and monitors, support data enlargement scale. As a Data Engineer, you will play a significant role in bridging the gap between machine learning and software engineering. Your primary responsibility will be to develop, deploy, and maintain the infrastructure, data pipelines and workflows required for the end-to-end solution collecting the data till loading to data warehouse. If you are genuinely passionate about data engineering platforms, methodologies and possesses excellent problem-solving, we'd love to hear from you!

What youll be doing:
Collaborate with multi-functional teams, including full stack engineers, data scientists, data engineers, and DevOps, to craft, implement robust reliable data pipelines, infrastructure and workflows.
develop and support data models, schemas, and database structures that provide blazing-fast analytics performance. Constantly optimize data workflows to ensure flawless real-time and batch data processing.
Implement data quality checks and monitoring mechanisms to ensure data integrity and accuracy at every stage. detect and resolve bottlenecks swiftly to maintain a highly available and reliable data ecosystem.
Control, monitor and optimize worldwide production servers.
Build and maintain scalable data pipelines, ensuring efficient data storage, retrieval, and transformation.
Stay ahead of the curve in data engineering technologies and trends. Introduce new tools, techniques, and standard methodologies to improve our data infrastructure, empowering data scientists and analysts alike.
Feed a culture of learning and knowledge-sharing within the team. Guide and mentor junior data engineers, applying your expertise to uplift the entire department.
Requirements:
What we need to see:
Bachelors or masters degree in computer science, Engineering, or a related field.
5+ years of relevant experience.
Demonstrated track record as a hands-on Data Engineer, driving the successful delivery of sophisticated data projects. Your experience speaks volumes.
Experience with cloud-based data platforms like AWS, Azure, or GCP. You harness the power of the cloud to unlock data's full potential.
Strong programming skills in languages such as Python or Scala, with experience in building scalable and efficient systems.
Experience with containerization technologies like Docker and orchestration tools like Kubernetes.
Solid knowledge in Linux environment.

Ways to stand out from the crowd:
Attention to detail is unwavering. You take pride in delivering data of the highest quality, turning it into insights that power critical business decisions.
Experience working and data engineering frameworks such as Kafka, Cloudera, Spark, Airflow or Hadoop.
Growing in a multifaceted environment, able to balance multiple priorities admirably without compromising on quality or precision.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8369936
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
26/10/2025
חברה חסויה
Location: Haifa
Job Type: Full Time and Hybrid work
We are looking for a Data Team Lead.
Requirements:
1. Technical Expertise
Cloud Data Platforms: Expertise in Google Cloud Platform (GCP)
services, especially in data-related services like BigQuery, Cloud SQL,
Dataproc, Pub/Sub, and Dataflow.
Data Engineering: Strong knowledge of data pipelines, ETL/ELT
processes, and data integration using GCP tools.
Database Management: Experience with both relational and
non-relational databases, including MySQL, PostgreSQL, and NoSQL
solutions like Firestore or Bigtable.
Programming Skills: Proficiency in Python, SQL, and possibly other
languages like Java or Scala, with a focus on data manipulation and
processing.
APIs and Integrations: Experience working with Google APIs and
third-party APIs for data extraction and integration.
Machine Learning: Familiarity with Google Cloud AI tools, such as
Vertex AI, and how to integrate machine learning workflows into the data
architecture.
Data Governance: Knowledge of data security, privacy, governance, and
regulatory requirements (GDPR, HIPAA, etc.).
2. Leadership and Management
Team Management: Ability to lead a team of data engineers, analysts,
and architects, providing guidance, mentorship, and performance
management.
Project Management: Strong skills in managing data projects, ensuring
timely delivery while meeting client requirements.
Collaboration: Experience working cross-functionally with stakeholders
such as solution architects, developers, and business teams to translate
business needs into data solutions.
Resource Allocation: Efficiently managing cloud resources to optimize
cost and performance.
3. Client-Facing Skills
Consulting: Experience in providing consulting services to clients,
including understanding their data needs, providing solutions, and
guiding them through the data modernization process.
Pre-sales Support: Supporting sales teams in scoping out client
projects, preparing presentations, and explaining technical aspects of
data solutions during pre-sales.
Client Relationship Management: Building and maintaining strong
relationships with clients to ensure satisfaction and long-term
partnership.
4. Certifications and Education
● Google Cloud Certifications:
● Professional Data Engineer (preferred)
● Professional Cloud Architect (preferred)
● Other Certifications: Optional certifications in data engineering or
machine learning from organizations like Cloudera, AWS, or Microsoft
Azure can be advantageous.
● Educational Background: Bachelors or Masters degree in Computer
Science, Data Science, Engineering, or a related field.
5. Soft Skills
● Problem-Solving: Ability to troubleshoot data-related issues and
implement scalable solutions.
● Adaptability: Ability to keep up with the rapidly changing cloud and data
landscape.
● Communication: Excellent verbal and written communication skills to
explain complex data systems to non-technical stakeholders.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8386297
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
29/10/2025
חברה חסויה
Location: Yokne`am
Job Type: Full Time
We are looking for a Senior Data Engineer to join the manufacturing data Engineering team and help us craft data collection solutions, quality control methodologies and monitors, support data enlargement scale. As a Data Engineer, you will play a significant role in bridging the gap between machine learning and software engineering. Your primary responsibility will be to develop, deploy, and maintain the infrastructure, data pipelines and workflows required for the end-to-end solution collecting the data till loading to data warehouse. If you are genuinely passionate about data engineering platforms, methodologies and possesses excellent problem-solving, we'd love to hear from you!

What youll be doing:

Collaborate with multi-functional teams, including full stack engineers, data scientists, data engineers, and DevOps, to craft, implement robust reliable data pipelines, infrastructure and workflows.
develop and support data models, schemas, and database structures that provide blazing-fast analytics performance. Constantly optimize data workflows to ensure flawless real-time and batch data processing.
Implement data quality checks and monitoring mechanisms to ensure data integrity and accuracy at every stage. detect and resolve bottlenecks swiftly to maintain a highly available and reliable data ecosystem.
Control, monitor and optimize worldwide production servers.
Build and maintain scalable data pipelines, ensuring efficient data storage, retrieval, and transformation.
Stay ahead of the curve in data engineering technologies and trends. Introduce new tools, techniques, and standard methodologies to improve our data infrastructure, empowering data scientists and analysts alike.
Feed a culture of learning and knowledge-sharing within the team. Guide and mentor junior data engineers, applying your expertise to uplift the entire department.
Requirements:
What we need to see:
Bachelors or masters degree in computer science, Engineering, or a related field.
5+ years of relevant experience.
Demonstrated track record as a hands-on Data Engineer, driving the successful delivery of sophisticated data projects. Your experience speaks volumes.
Experience with cloud-based data platforms like AWS, Azure, or GCP. You harness the power of the cloud to unlock data's full potential.
Strong programming skills in languages such as Python or Scala, with experience in building scalable and efficient systems.
Experience with containerization technologies like Docker and orchestration tools like Kubernetes.
Solid knowledge in Linux environment.

Ways to stand out from the crowd:
Attention to detail is unwavering. You take pride in delivering data of the highest quality, turning it into insights that power critical business decisions.
Experience working and data engineering frameworks such as Kafka, Cloudera, Spark, Airflow or Hadoop.
Growing in a multifaceted environment, able to balance multiple priorities admirably without compromising on quality or precision.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8391932
סגור
שירות זה פתוח ללקוחות VIP בלבד