רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 6 שעות
מיקום המשרה: רחובות
סוג משרה: משרה מלאה
תכנון, פיתוח ותחזוקה של תהליכי ETL /ELT בהיקפים גדולים עבור נתוני חיישנים, וידאו ותמונות
פיתוח ואופטימיזציה של תהליכי עיבוד נתונים עבור מידע מובנה ולא-מובנה
תחזוקה ושדרוג של מסדי נתונים, data Lakes ומערכות אחסון
הבטחת איכות, אמינות וביצועי הנתונים לאורך כלל צנרת הדאטה
עבודה צמודה עם צוותי אלגוריתמאים, בינה מלאכותית, תוכנה והנדסת מערכת
תמיכה בתהליכי דאטה סיינס ולמידת מכונה כולל הכנת דאטה וחילוץ פיצ'רים
הובלת הכנסת טכנולוגיות חדשות, כלי דאטה וסטנדרטים מתקדמים
איתור ופתרון תקלות בסביבות עיבוד ואחסון
לקיחת Ownership מלאה על מערכות הדאטה והובלת שיפורים
דרישות:
תואר ראשון/שני במדעי המחשב, הנדסת מערכות מידע, הנדסת חשמל או תחום רלוונטי
ניסיון של 3+ שנים כ data Engineer בסביבות עתירות דאטה
ניסיון משמעותי בפיתוח תהליכי ETL
שליטה ב Python
ניסיון מעשי ב Apache Airflow או כלי Orchestration מקבילים
ניסיון עם מסדי נתונים SQL ו NoSQL
היכרות עם מסגרות עיבוד דאטה ושיטות עבודה יעילות
ניסיון בעבודה בסביבות Linux ותחזוקת שרתים
ניסיון בתמיכה ב data Science / Machine Learning - יתרון
חשיבה מערכתית, יכולות פתרון בעיות ויכולת עבודה עצמאית בצוות רבתחומי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8483720
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים באיילת אלבז
Job Type: Full Time
לחברה יזמית מובילה בתחום האנרגיה,
דרוש/ה EMS data Analyst.
משרה מלאה במרכז הארץ.


Job Description -
Analyze operational and market data to identify performance gaps, inefficiencies, and optimization opportunities across the portfolio.
Investigate root causes of deviations in production, availability, and revenue, and translate insights into clear, actionable recommendations.
Own end-to-end reporting, dashboards, and automated data pipelines across EMS, SCADA, and external data sources.
Support and optimize EMS decision-making workflows to improve site efficiency, stability, and energy output.
Execute and monitor intraday EMS optimization strategies to maximize energy revenues.
Collaborate with engineering, operations, and commercial teams to turn analytics into measurable performance improvements.
Requirements:
Bachelors degree in Engineering, data Science, or a related quantitative field.
2-3 years of experience as a data Analyst or BI Analyst.
Strong Python and SQL skills ( SQL server preferred).
Experience with BI tools such as Power BI or Tableau.
Familiarity with APIs, automation, and data pipelines.
Strong analytical mindset, attention to detail, and sense of ownership.
Excellent communication skills and ability to work cross-functionally.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8500816
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 8 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתל אביב שגייסה 50 מיליון דולר דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה בצוות data מוביל בחברה, עבודה מורכבת בעיקר ב- Python
בשילוב Spark עבודה ב-Airflow, שימוש בכלים מתקדמים וכן דיווח ישיר ל-Head of data
של החברה
דרישות:
תואר ראשון טכנולוגי - חובה
5-6 שנות ניסיון בפיתוח דאטה
רקע בחברות Start up
ניסיון מעשי ב- Python - חובה
רקע ב-Spark ו-Airflow - חובה
ניסיון בעבודה מול גורמים גלובליים
רמה אישית מעולה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8508865
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 8 שעות
דרושים בNishapro
Location: More than one
Job Type: Full Time and Hybrid work
For a fast-growing company in the renewable energy sector, a data Architect is required to lead the organization's data infrastructure.
What youll do:

Design and own a modern cloud-based data platform (Azure or equivalent).
Connect everything from SCADA/EMS/BMS to market APIs, ERP (Priority), and finance systems.
Define scalable models, ensure data quality security, and deliver trusted datasets.
Empower teams with analytics and Power BI dashboards.
Lay the groundwork for AI/ML: predictive maintenance, Storage optimization, forecasting.
Shape the long-term data strategy and grow the team.
Requirements:
What were looking for:

5+ years in data architecture/engineering.
Hands-on with cloud platforms, SQL Python.
Strong ETL /ELT large-scale dataset experience (time-series/IoT a plus).
Bonus: energy/industrial data, Priority ERP, energy trading.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8413026
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 9 שעות
Location: Tel Aviv-Yafo
Hiring a data Platform Engineer to join a leading company based in Tel Aviv for the growing data and technology team 

What Youll Do:
Design, build, and maintain robust ETL /ELT pipelines that ingest data from diverse systems ( ERP, eCom platforms, APIs, files, etc.) 
Develop and optimize data lakes and data warehouse environments (Azure Synapse, Snowflake, or similar) 
Collaborate with data analysts and business teams to deliver high-quality datasets and modeling support 
Implement and automate data quality checks, validation routines, and cleansing procedures 
Monitor and troubleshoot pipeline performance, data delays, or failures 
Contribute to the standardization of schema, ation, and pipeline patterns
Requirements:
5+ years of experience in data engineering or data platform development 
Proficiency with SQL, PLSQL, and working with structured and semi-structured data (CSV, Parquet, JSON, APIs) 
Experience building and maintaining pipelines using ETL tools or frameworks (e.g., ADF, SSIS, dbt, Airflow) 
Familiarity with cloud data warehouse platforms such as Azure Synapse, Snowflake, Redshift, or BigQuery 
Strong communication skills and the ability to work cross-functionally 
Python or scripting knowledge - bonus
Experience in Azure or AWS, and familiarity with streaming tools - bonus
Background in retail or omni-channel data environments  - bonus
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8486668
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 9 שעות
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
התפקיד כולל אחריות על תהליכי קליטה, עיבוד וניתוח נתונים, וכן פיתוח יישומים מבוססי דאטה על גבי פלטפורמת Splunk (כמו דשבורדים, אנליזות והתראות).
דרישות:
-ניסיון מוכח כ- data Engineer תהליכי ETL, עולמות data Pipelines ואינטגרציה בין מקורות מגוונים.
-ידע וניסיון בעבודה עם מערכות לינוקס.
-שליטה בשפות scripting כגון Python וShell.
-הכרות עם מימוש יישומים מבוססי דאטה דשבורדים, דוחות, אנליזות או מערכות ניטור.
-ניסיון בעבודה עם Splunk  יתרון משמעותי.
-ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) יתרון.
-תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8411908
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 9 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון טכנולוגי באזור המרכז מגייס data Engineer
התפקיד כולל: פיתוח, הקמה ותחזוקה של תשתיות דאטה מתקדמות בסביבת ענן, בדגש על עבודה עם Databricks, אחריות על בניית תהליכי data Pipelines מקצה לקצה, עיבוד כמויות דאטה גדולות (Batch ו-Streaming), שיפור ביצועים ואיכות נתונים ושיתוף פעולה צמוד עם צוותי BI, אנליסטים ו- data Scientists ועוד.
דרישות:
- שלוש שנות ניסיון data Engineering
- ניסיון מעשי בעבודה עם Databricks
- שליטה ב-SQL ברמה גבוהה
- ניסיון בפיתוח תהליכי ETL / ELT
- עבודה בסביבת ענן AWS / Azure / GCP המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8516275
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 9 שעות
דרושים במלם תים
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM.
דרישות:
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8261624
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 10 שעות
Location: Beit She'An
Job Type: Full Time
DRS RADA is a global pioneer of RADAR systems for active military protection, counter-drone applications, critical infrastructure protection, and border surveillance.

manufacturing performance.
Collect, process, and report on key performance indicators (KPIs); conduct ongoing monitoring of production processes.
Provide recommendations for process optimization, cost savings, and quality improvement.
Build reports, presentations, and analytical models to support decision-making.
Collaborate with various departments: engineering, operations, procurement, logistics, and quality.
Requirements:
Requirements:
Relevant academic degree (e.g., Industrial Engineering and Management, Economics, Statistics, Mathematics, Computer Science ).
High-level proficiency in Excel, as well as experience with Python and Power BI - Mandatory
Previous experience in a manufacturing company- Mandatory:
Prior experience in analytics/control/production planning control ( PPC )/Industrial Engineering - an advantage.
Experience with BI and ERP systems ( SAP / Oracle )- Advantage
Understanding of production processes and familiarity with industrial environments - significant advantage.
Analytical skills, systems thinking, quantitative approach, attention to detail.
Ability to work independently and in a team, manage multiple tasks, and meet tight deadlines.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8494164
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
לבניית פתרונות דאטה מתקדמים מקצה לקצה
אנחנו מחפשים data Engineer עם תשוקה לבניית מערכות נתונים חכמות, סקיילביליות ומבוססות ענן, להצטרפות לצוות דאטה שעובד עם טכנולוגיות מתקדמות ופרויקטים משמעותיים בארגון.
התפקיד מתאים למועמדים עם רקע בData Engineering מודרני, Lakehouse, BI מתקדם או Microsoft Fabric - עם אפשרות להתמחות והעמקה בהתאם לניסיון.
מה תעשו בתפקיד:
תכנון, הקמה ותחזוקה של data Pipelines מקצה לקצה
שינוע נתונים ממקורות מגוונים (APIs, קבצים, DBs, Streaming)
פיתוח וטיוב תהליכי ETL / ELT
עבודה עם SQL וPython לפיתוח תהליכים וניתוח נתונים
בניית פתרונות דאטה בסביבות Lakehouse / data Platform
עבודה צמודה עם גורמים עסקיים, BI וAnalytics
השתלבות בפרויקטים חדשים (Greenfield) לצד תחזוקת מערכות קיימות
דרישות:
דרישות חובה:
לפחות 3 שנות ניסיון כData Engineer / BI Developer
שליטה גבוהה בSQL
ניסיון מעשי בPython (כולל עבודה עם Pandas / Notebooks)
ניסיון בפיתוח תהליכי ETL / ELT
היכרות עם עבודה בסביבת ענן
עבודה עם Source Control (Git / Azure DevOps )
חשיבה מערכתית, יכולת עבודה עצמאית ובצוות

תחומי התמחות - יתרון משמעותי (אחד או יותר):
המשרה פתוחה למועמדים עם ניסיון באחד או יותר מהאזורים הבאים:
data Engineering & Lakehouse
Apache Spark / PySpark
Databricks
ארכיטקטורות Lakehouse
Pipelines Incremental / Streaming
Microsoft data Stack
Microsoft Fabric
Power BI (DAX, Power Query, Semantic Models)
Power Automate
Azure Synapse / EventHub
Cloud & Modern data
AWS / GCP
Snowflake
dbt
פרויקטי Greenfield
AI / Copilot / data Prep

למה להצטרף?
עבודה עם טכנולוגיות מתקדמות וModern data Stack
גמישות והתאמה לתחום החוזקה שלך
פרויקטים משמעותיים עם השפעה אמיתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8511403
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 11 שעות
דרושים בפרוסיד
מיקום המשרה: מספר מקומות
תיאור התפקיד:
הובלה, ניהול והנחיה של צוות מפתחי תוכנה ודאטה, תוך טיפוח מצוינות מקצועית וצמיחה אישית
שילוב Hands-on בפיתוח, Code Reviews וקבלת החלטות ארכיטקטוניות
תכנון, פיתוח ותחזוקה של שירותי תשתית נתונים סקיילביליים, אמינים ובטוחים
הובלת פרויקטים טכנולוגיים מורכבים מקצה לקצה
עבודה שוטפת עם Product Owners, ארכיטקטים וגורמים עסקיים להגדרת Roadmap טכנולוגי
קידום תרבות של חדשנות, שיפור מתמיד ואימוץ טכנולוגיות חדשות
אחריות על זמינות, ביצועים ו-Observability של מערכות הנתונים
זיהוי ופתרון תקלות מערכתיות מורכבות
ניהול תהליכי פיתוח, שגרות צוות, פגישות אישיות והערכות ביצועים
דרישות:
דרישות:
ניסיון של לפחות שנתיים בהובלה וניהול צוותי פיתוח תוכנה -חובה
בפיתוח מערכות נתונים מבוזרות בקנה מידה גדול ( data Engineering)- חובה
ניסיון בעיצוב ארכיטקטורת נתונים ועבודה עם בסיסי נתונים SQL ו-NoSQL- חובה
ניסיון מוכח בהטמעת פתרונות Observability - Metrics, Logging, Distributed Tracing- חובה
היכרות עם data Governance: איכות נתונים, Lineage, אבטחה ועמידה ברגולציה- חובה
ניסיון Hands-on עם DBT / Apache Spark / Kafka- חובה
ניסיון בעבודה עם CI/CD וכלי Infrastructure as Code (IaC)- חובה
היכרות עם Machine Learning Workflows ו-MLOps- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8506845
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 12 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
חברה פיננסית באזור מרכז מגייסת ראש/ת צוות Digital Application data
התפקיד כולל: הובלה, הנחיה וניהול של צוות מפתחי תוכנה, תכנון, פיתוח ותחזוקה של שירותי תשתית סקיילביליים עם דגש על ביצועים, אמינות, אבטחה ועוד.
דרישות:
- 3 שנות ניסיון בפיתוח מערכות נתונים מבוזרות בקנה מידה גדול
- שנתיים ניסיון ניהולי בהובלת צוותי פיתוח תוכנה
- שליטה בעיצוב ארכיטקטורת נתונים ובטכנולוגיות backend
- ניסיון בעבודה עם בסיסי נתונים מסוג SQL ו-NoSQL המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8507072
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
תנאים נוספים:קרן השתלמות, ביטוח מנהלים
מחפש/ת את הצעד הראשון בעולם הData?
זו ההזדמנות שלך להשתלב בתפקיד משמעותי בתחום הצומח והמבוקש ביותר בעולם ההייטק!
מודל היברידי
דרישות:
יכולות תכנות ב- Python - חובה
היכרות עם SQL - חובה
בסיס חזק באלגוריתמיקה בדגש על ML
גישה אנליטית, יכולת למידה עצמית גבוהה וחשיבה לוגית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8455649
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים בTechTalent
מחפשים data Scientist להצטרף לצוות הדאטה לתפקיד עם השפעה אמיתית על מוצרי ליבה
כולל שיפור פתרונות קיימים, מחקר, ניסויים ופיתוח יכולות חדשות מבוססות Machine Learning.
אחריות על: שיפור, תחזוקה והרחבה של מוצרי ML קיימים, תוך עמידה בסטנדרטים גבוהים של ביצועים ויציבות
פיתוח Pipelines ומוצרי ML ב- Python בצורה נקייה, יעילה וסקיילבילית
עבודה צמודה עם צוותי מוצר וגורמים עסקיים להתאמת פתרונות טכנולוגיים לצרכים עסקיים
תרומה למחקר יישומי, ניסויים ופיתוח מתמשך של המוצרים
מעקב אחר חידושים בעולם ה-ML ושיתוף ידע בתוך הצוות
דרישות:
לפחות 3 שנות ניסיון בתפקידי דאטה ( data Science / Analytics / data Engineering)
שליטה ב- Python וספריות ML נפוצות (Pandas, NumPy, Scikit-learn)
חשיבה אנליטית חזקה ויכולת פתרון בעיות מורכבות
ניסיון בתהליכי דאטה מקצה לקצה - מחקירה ועד פרודקשן ומוניטורינג
תואר ראשון במדעי המחשב / הנדסה / סטטיסטיקה או תחום רלוונטי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8510036
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 12 שעות
דרושים ביוביטק סולושנס
Job Type: Full Time and Hybrid work
UBTECH is hiring data Tech Lead in Netanya.

We are seeking a highly skilled and experienced Azure data Expert to join our team.
In this role, you will be responsible for designing, implementing, and managing advanced data solutions using Microsoft Azure's cloud platform.
Requirements:
- Deep expertise in Azure data services.
- Proven ability to deliver data -driven solutions that enable business insights, improve operations, and drive innovation.

This position is open to both genders.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8500828
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Data/Backend Engineer with strong hands-on experience in Python-based ETL pipelines and cloud-native development on AWS.
You will work directly with the customers technical leadership, participating in architecture discussions, solution design, and ongoing implementation for a long-term project.
Core Responsibilities:
Develop and maintain Python ETL pipelines, data ingestion flows, and processing jobs.
Build backend components and microservices deployed on AWS Kubernetes (EKS).
Integrate and optimize data models, APIs, and batch/real-time processes.
Collaborate with technical stakeholders to understand requirements and translate them into scalable solutions.
Ensure reliability, observability, and performance of pipelines and services.
Work in a hybrid environment, coordinating closely with onsite teams and customer technical representatives.
Requirements:
Required Skills & Experience:
3-5+ years of hands-on backend or data engineering experience.
Strong proficiency in Python, specifically for ETL/data pipelines.
Experience with AWS services (Lambda, S3, EC2, IAM, VPC, etc.).
Hands-on work with Kubernetes (preferably AWS EKS).
Understanding of CI/CD processes and Git-based workflows.
Ability to work independently with customer teams and present technical solutions clearly.
Nice to Have:
Experience with Neo4j or other graph databases.
Experience with Frontend (React) development.
Knowledge of streaming platforms, data modeling, or distributed systems.
Experience working in consulting, retainer, or hourly engagement models.
Personal Qualities:
Strong communication skills, especially in customer-facing environments.
Self-driven, responsible, and comfortable handling end-to-end technical tasks.
Team player with the ability to work onsite when needed.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8521670
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking a Mid to Senior Data Engineering Manager to join our Cloud Identity & Perimeter, a critical component of CrowdStrike's security infrastructure. Our team develops and maintains complex data pipelines that process billions of records daily, analyzing identity-related security patterns, effective permissions, internet exposure, and attack paths. We're at the forefront of securing enterprise identities and delivering actionable security insights at scale.

What You'll Do:

Lead and mentor a team of data engineers building high-performance data processing pipelines.

Define technical strategy and architecture for complex data transformations using Apache Spark.

Oversee development of real-time data streaming solutions using Kafka and scalable ETL processes.

Drive cross-functional collaboration with product, security research, and engineering teams to deliver high-impact security features.

Establish best practices for data modeling, query optimization, and storage patterns for large-scale distributed systems.

Manage team performance, including hiring, career development, and performance reviews.

Balance technical execution with strategic planning and resource allocation.

Champion operational excellence through code reviews, system monitoring, and continuous improvement initiatives.
Requirements:
What You'll Need:

5+ years of experience in data engineering with 2+ years in a technical leadership or management role.

Strong technical background in Go and/or Java with hands-on experience in big data technologies.

Proven experience managing and scaling engineering teams.

Deep expertise with distributed databases (Cassandra, Elasticsearch) and production-grade data pipeline architecture.

Track record of delivering complex data infrastructure projects on time.

Excellent communication skills - ability to translate technical concepts to non-technical stakeholders.

Strong leadership abilities including mentoring, conflict resolution, and team building.

BS/MS in Computer Science or related field, or equivalent experience.

Experience with cloud platforms (AWS, GCP, Azure).


Bonus Points:

Experience with identity and access management concepts or security analytics platforms.

Knowledge of security analytics and threat detection.

Contributions to open-source projects or technical community leadership.

Background in cybersecurity or security analytics.

Experience managing distributed or remote teams.

Prior experience at a high-growth technology company.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8520053
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Petah Tikva
Job Type: Full Time
We are seeking a Data Architect to lead the design of end-to-end, enterprise data architectures that enable analytics, AI, and data-driven transformation across customer environments.
In this role, you will act as a trusted advisor, defining the architectural vision, target-state designs, and roadmaps for IBM data solutions. You will work closely with customers, sales manager, and presale engineers to translate business needs into scalable, secure, and future-ready data platforms across hybrid and multi-cloud environments.
Responsibilities:
Define data architecture vision, target-state, and roadmaps for customer environments
Design enterprise-scale architectures for data warehouses, data lakes, lakehouse, and streaming platforms
Architect data platforms to support analytics, AI, and generative AI use cases
Act as a trusted advisor to customers on data modernization, governance, and AI readiness
Ensure architectures align with security, governance, and regulatory requirements
Guide implementation teams to ensure adherence to architectural standards
Collaborate with Consulting, Sales, and Delivery teams on solution design and proposals
Contribute to IBM reference architectures, standards, and reusable patterns
Requirements:
Bachelor's Degree
Preferred education
Master's Degree
Required technical and professional expertise
Proven experience as a Data Architect in enterprise environments
Strong knowledge of modern data architecture patterns and data modeling
Experience with hybrid and multi-cloud architectures (OCP, GCP, AWS, Azure)
Understanding of data governance, security, and compliance
Ability to design data platforms supporting AI and analytics workloads
Strong communication and stakeholder management skills
Preferred technical and professional experience
Experience with any of CassandraDB, Watsonx.data, Watsonx.data Integration, Watsonx.data Intelligence
Familiarity with OpenShift-based data platforms
Knowledge of data mesh, data fabric, and generative AI architectures
Experience in large-scale data modernization or transformation programs
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519806
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
מה יומכם יכלול-
פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
הכרות עם DBT ותהליכי פיתוח מודרניים (CICD וכו). המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519330
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Merkaz
Job Type: Full Time
our company's data & AI division is expanding, and were looking for a skilled and motivated BI / data Engineer to join our growing team. This role offers the opportunity to work on innovative data projects, collaborate with cross-functional teams, and help shape data -driven strategies across industries. Responsibilities:
* Develop and maintain ETL processes in Azure with diverse data sources
* Design, manage, and optimize cloud-based data environments
* Build and optimize scalable data Warehouses
* Write complex SQL queries and perform performance tuning
* Work with data Lakes, parallel job execution, and cloud Big Data architectures
* Develop cloud-based AI solutions, including Generative AI models
* Perform data modeling and analytics using Power BI
Requirements:
* 3+ years of experience in BI / data Engineering, with strong database orientation
* Advanced SQL skills (MERGE, dynamic SQL, loops, performance optimization)
* Experience working with JSON and non-tabular data sources
* Experience with cloud platforms (Azure or AWS)
* Ability to work independently with strong self-learning skills
* Experience with azure databricks - significant advantage
* Experience with Python - significant advantage
* Experience with Generative AI models - significant advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519090
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Merkaz
Job Type: Full Time
our company Professional Services is seeking for an experienced and strategic Head of data / data Manager to lead and build the companys end-to-end organizational data domain. This role includes establishing and developing a new AI-enabled data platform, full responsibility for advanced data & BI architecture, leading strategic projects, and working closely with senior management. This is a senior leadership position reporting directly to the VP of Technology. Key Responsibilities
* Lead the design, setup, and development of an enterprise data Warehouse and organizational data platform
* Own the full architecture, methodology, and implementation of Snowflake and Tableau environments
* Manage and professionally lead the data team, including mentoring and employee development
* Define and implement data methodologies, standards, and best practices
* Lead cross-organizational strategic data projects in collaboration with senior executives, IT, and business units
* Manage external vendors and consulting companies
* Lead the AI domain within data, including implementation of advanced AI-enabled data infrastructures
* Act as a strategic partner to senior management, providing data -driven insights and leadership
Requirements:
MUST HAVE Requirements
* Proven experience working with Snowflake and Tableau, including architecture-level knowledge and BI implementation
* Proven experience in building or upgrading data Warehouses and enterprise data platforms
* Managerial experience leading teams and providing professional mentorship
* Strong background in data Engineering, BI, and Analytics
* Experience or significant knowledge in AI infrastructures in data environments - strong advantage
* Experience working with senior management and executive-level stakeholders
* Strong leadership, influence, and cross-functional collaboration skills
* Strategic mindset combined with hands-on technical capabilities
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519046
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Merkaz
Job Type: Full Time
our company's data & AI division is expanding, and were looking for a skilled and motivated BI / data Engineer to join our growing team. This role offers the opportunity to work on innovative data projects, collaborate with cross-functional teams, and help shape data -driven strategies across industries. Responsibilities:
* Develop and maintain ETL processes in Azure with diverse data sources
* Design, manage, and optimize cloud-based data environments
* Build and optimize scalable data Warehouses
* Write complex SQL queries and perform performance tuning
* Work with data Lakes, parallel job execution, and cloud Big Data architectures
* Develop cloud-based AI solutions, including Generative AI models
* Perform data modeling and analytics using Power BI
Requirements:
* 3+ years of experience in BI / data Engineering, with strong database orientation
* Advanced SQL skills (MERGE, dynamic SQL, loops, performance optimization)
* Experience working with JSON and non-tabular data sources
* Experience with cloud platforms (Azure or AWS)
* Ability to work independently with strong self-learning skills
* Experience with Microsoft Fabric - significant advantage
* Experience with Python - significant advantage
* Experience with Generative AI models - significant advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519038
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Merkaz
Job Type: Full Time
abra professional services is seeking for an senior data engineer. We are seeking a Senior Data Engineer to lead the technical development of our Data Fabric within a military program. This role involves technical leadership in building contextual data pipelines, working with big data lakehouse architectures, and driving data pipeline automation.
Requirements:
MUST HAVE Requirements: 5+ years of hands-on experience as a Big Data Engineer
* Proven ability to design and deploy Big Data & AI solutions using frameworks and tools such as:
* Apache NiFi
* Kafka
* Spark
* Graph DB
* NoSQL databases Strong coding proficiency in Python and Bash
* Experience building large-scale data pipelines for data processing, transformation, and analytics
* Ability to define and manage metadata schemas
* Experience developing data workflows (e.g., metadata generation, auto-extraction, validation, format conversion)
* Experience developing tools for data observability and compliance analytics
* Ability to analyze and report on complex datasets and results
* Experience working with big data lakehouse architectures
* Ability to explore, enhance, and manage data fusion from multiple data sources
* Experience developing analytics tools, algorithms, and programs
* Technical leadership of data structure design for contextual pipelines
* Collaboration experience with Data Scientists and Architects
* Strong ability to work independently, learn new technologies, and apply innovative solutions
* Excellent interpersonal skills and ability to work as part of a team MSc in Computer Science or Data Science Advantages:
* Experience with managing metadata and taxonomy concepts alongside big data objects
* Experience working with public cloud Big Data & AI services
* Familiarity with machine learning concepts
* Strong technical skills
* Independent, hands-on developer
* Curious, open-minded, fast learner, and a strong team player
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8503268
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Ra'anana
Job Type: Full Time
We seek a skilled Senior Infra Backend Engineer to join our R&D office in Tel Aviv, working in a hybrid and flexible model.
Youll collaborate with a top-tier R&D team and take your professional growth to the next level. Our backend infra teams work mainly with Python and Go, but we welcome talented backend engineers from any language background.

Example Projects

Researching and running POCs of new technologies to select the optimal solution for system requirements.

Migrating massive amounts of user-level data into Iceberg, while keeping scale and cost efficiency in mind.

Designing and implementing a robust pipeline capable of ingesting billions of real-time events daily (hundreds of thousands per second).

Exploring and choosing database and streaming technologies to support a rapidly growing clientele base.

Leading the design and development of a new streaming ETL product with low memory footprint and efficient processing.


Key Responsibilities

Design and build scalable pipelines processing billions of events daily.

Dive deep into infra technologies and optimize them at scale.

Lead major efforts from idea initiation → design → implementation.

Tackle complex challenges in scalable architecture within our AWS environment.

Integrate and leverage top industry technologies such as Kafka, Iceberg, DynamoDB, Postgres, EMR, Kubernetes, Druid, Snowflake, and more.
Requirements:
5+ years of hands-on experience in backend development.

Extensive experience building scalable, high-performance systems.

Experience with AWS, Kubernetes, and large-scale environments is a plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8518662
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Job Type: Full Time and Hybrid work
A fast-growing fintech AI start-up company, focused on eliminating fraud and chargebacks in online commerce, is looking for an experienced Senior Data Engineer.
In this Roll, you will build large-scale, cutting-edge data solutions for fraud prevention, with the potential to grow into a technical leadership role.
The company is located in Modi'in, central Israel. Hybrid work model.
Responsibilities
Build and maintain scalable data pipelines and ETL processes.
Design complex data models and optimize data architecture.
Collaborate with teams to deliver high-quality, compliant solutions.
Troubleshoot production issues and implement best practices.
Recommend new technologies to enhance the data infrastructure.
Requirements:
Must Haves:
5+ years in data engineering with strong Python & software engineering skills
Extensive experience with cloud platforms (AWS, GCP, Azure) and cloud-native architectures
Deep knowledge of relational (PostgreSQL) and NoSQL databases
Experience designing and implementing data warehouses and data lakes
Strong understanding of data modeling techniques
Expertise in data manipulation libraries (e.g., Pandas) and big data frameworks
Experience with data validation tools (Pydantic, Great Expectations)
Proficiency in writing and maintaining unit and integration tests (e.g., Pytest)
Nice to Haves / Advantage:
Apache Iceberg, Apache Spark, or modern data stack tools (DBT, DuckDB, Dagster, Airflow, Prefect)
Backend system design: RESTful APIs, microservices, event-driven systems, RabbitMQ, Kafka
Containerization & IaC: Docker, Kubernetes, Terraform
Stream processing: Kafka, Flink
Knowledge of compliance (GDPR, CCPA)
Mentoring or leading small teams
Excellent communication and ability to explain technical concepts clearly
Relevant cloud or data certifications.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8518234
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Rishon Letsiyon
Job Type: Full Time
Were looking for an experienced Data Engineer to join our DEX Platform and help drive the next stage of our growth. In this role, youll design, build, and scale data infrastructure and advanced processing pipelines that power real-time insights and intelligent automation across our platform.
As a senior data engineer, youll own the full service lifecycle-from architecture and development to deployment, monitoring, and scaling-while ensuring data quality, reliability, and compliance. Youll work closely with backend, AI, and data teams to deliver robust, production-ready systems that support our AI-first strategy and our mission to make the workplace run itself.
Requirements:
5+ years of backend/data engineering experience
Proficiency with Java (Vert.x, Spring or similar) - a must
Hands-on experience with Kafka and streaming frameworks like Kafka Streams, Flink, Spark, or Beam - a must
Solid understanding of microservices architecture and cloud platforms (Azure/AWS/GCP)
Familiarity with AI-first development tools (GitHub Copilot, Cursor) - an advantage
Experience working in production-aware, observability-driven environments - monitoring troubleshooting, and optimizing
Knowledge of Postgres, Redis, MySQL or similar, Clickhouse
Experience in Node.js (NestJS/Express) - a big advantage
Strong foundation in object-oriented design, design patterns, and clean code practices
Comfortable designing, deploying, and maintaining backend services and data flows
Passion for learning, experimenting with new tech, and building reliable systems at scale
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8517958
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Haifa
Job Type: Full Time
we are looking for a Data Engineer.
This is a full-time, on-site role for a Data Engineer at WideOps Ltd., located in Haifa.
The Data Engineer will design, build, and maintain scalable data pipelines, implement robust Extract, Transform, Load (ETL) processes, and develop efficient data models to support business intelligence and data analytics needs.
The role also involves building and improving data warehousing solutions and collaborating with cross-functional teams to ensure data integrity and optimize workflows.
Requirements:
3+ years of experience as a Data Engineer
Strong hands-on experience with Google Cloud Platform
Advanced SQL (BigQuery performance, partitioning, clustering)
Strong Python (data pipelines, APIs, batch & streaming jobs)
Experience building batch and streaming pipelines
BigQuery
Dataflow / Apache Beam
Pub/Sub
Cloud Storage
Data modeling for analytics and ML use cases
Production troubleshooting, optimization, and cost awareness
ML & GenAI"
Experience supporting ML pipelines (training, inference, feature prep)
Hands-on with at least one of:
Vertex AI
Feature stores
Model inference pipelines
Experience working with LLM-based systems, including:
Embeddings generation
Vector databases / similarity search
RAG-style pipelines
Ability to prepare, version, and serve data for GenAI / ML workloads
Platform & Engineering:
Experience with Airflow / Cloud Composer or equivalent orchestration
CI/CD pipelines for data & ML workloads
Infrastructure-as-code familiarity (Terraform preferred)
Understanding of IAM, data security, and access controls on GCP
Nice to Have:
Experience with FinOps / cost optimization
Experience with real-time ML or low-latency inference
Experience with monitoring & observability for data/ML pipelines
Google Cloud certifications (Data Engineer / Architect)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8516690
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Jerusalem
Job Type: Full Time and Temporary
We are seeking a skilled and motivated Data Engineer to join our dynamic team. The ideal candidate will have extensive experience in building and optimizing data pipelines, handling large datasets, and working within cloud-based and on-premise environments.
You will be responsible for designing and implementing efficient, scalable solutions to manage, process, and analyze high volumes of data, ensuring the reliability and performance of our data infrastructure.
What will your job look like:
Design, build, and maintain scalable data pipelines to process large datasets efficiently
Develop and implement data models and architectures that support both real-time and batch data processing
Ensure data integrity, security, and accuracy across all systems
Collaborate with data scientists, analysts, and other engineers to ensure data availability and quality
Optimize data retrieval and storage processes to handle large volumes of data seamlessly
Work with structured, semi-structured, and unstructured data, integrating various data sources
Troubleshoot and resolve data issues, ensuring continuous operation of the data infrastructure
Maintain and enhance ETL processes, ensuring scalability and performance in handling large datasets
Stay up-to-date with industry best practices and emerging technologies related to big data engineering
Requirements:
Bachelors degree in Computer Science, Engineering, or a related field
At least 4 years experience in data engineering, with a focus on large-scale data processing and big data technologies
Strong proficiency in Python
Experience with data pipeline and workflow management tools
Hands-on experience with large-scale data processing frameworks like Apache Spark, Hadoop, or similar
Familiarity with data modeling, ETL processes, and data warehousing concepts like Table formats. Apache Iceberg, or similar
Good knowledge of relational databases (e.g., PostgreSQL, MySQL) and NoSQL databases (e.g., Cassandra, MongoDB)
Experience with AWS-based data lakes, including working with Amazon S3 for storage, querying data using Amazon Athena, and managing datasets stored in Parquet format
Significant ownership ability
Nice to have:
Knowledge of machine learning frameworks and integrating data pipelines for model training and deployment
Experience with version control systems (e.g., Git), CI/CD pipelines, and automation tools
Experience with containerization (Docker, Kubernetes)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8516430
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Jerusalem
Job Type: Full Time
We are looking for a Data Engineer to join our Object Detection group and play a key role in managing and enabling data workflows that power our computer vision algorithms. Our team generates and processes large volumes of diverse data from multiple sources, and we need someone who can bridge the gap between raw data and algorithmic innovation.
Working alongside algorithm developers and researchers, you'll be responsible for building robust data pipelines, ensuring data quality, and making complex datasets accessible and actionable for our detection models.
This role requires both strong coding abilities and a deep understanding of data - you'll need to think like an engineer while understanding the unique needs of a research and development-focused algorithmic group.
What will your job look like:
Work on large-scale systems handling diverse data from multiple sources
Build and maintain robust data pipelines that enable algorithmic development
Evaluate various optional technologies and take part in decision-making
Own key features and services within the data infrastructure
Ensure data quality and accessibility for detection models and research needs
Work onsite in Jerusalem at least 3 days a week
Requirements:
BSc. in Computer Science or equivalent - must
3+ years of software development experience
Strong skills in Python and data-related libraries
Solid understanding of data structures and workflows
Experience with databases (SQL/NoSQL)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8515988
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a talented Data Engineer to join our Data team and spread our power. The Data team develops and maintains the infrastructure for internal data and product analytics. We are looking for data enthusiasts, independent, logical thinkers with a can-do approach and a passion for problem-solving. We run a SaaS-based stack using BigQuery, Snowflake and dbt.
WHAT YOU'LL DO
Design, build, and maintain data pipelines, datasets and catalogs for fast-growing products and business groups.
Develop self-service data analytics solutions and infrastructure.
Support ad hoc needs and requests of internal stakeholders.
Collaborate with analysts, engineers, and internal customers from Product, Finance, Revenue, and Marketing.
Requirements:
Bachelors or Masters degree in a relevant technical field, or equivalent hands-on experience in software development or DevOps.
3+ years of experience working as a Data Engineer, including end-to-end designing, orchestrating, and building cloud-based data pipelines (e.g., Airflow, Prefect, Dagster).
3+ years of experience with dimensional data modeling and data warehouse implementation, specifically MPP databases like BigQuery, Snowflake, and Redshift.
Strong knowledge of Python and Python-based data analysis tools such as Jupyter Notebooks and pandas.
Strong SQL writing skills. Ability to write highly performant queries.
Strong track record of executing projects independently in dynamic environments.
Fast understanding of data and business needs and ability to translate them into data models.
Team player with excellent communication skills.
Containerization (Docker): Essential for reproducible environments.
Knowledge of software engineering best practices: CI/CD concepts, code reviews, and unit testing.
ADVANTAGE
Production-level experience with dbt, including project design, transformation, testing, and documentation.
Infrastructure-as-Code (Terraform): Managing cloud resources (S3 buckets, IAM roles) via code.
CI/CD pipelines (GitHub Actions/Jenkins): Automating the testing and deployment of data models.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8515929
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו