רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
כל מה שרציתם לדעת על מבחני המיון ולא העזתם לשאול
זומנתם למבחני מיון ואין לכם מושג לקראת מה אתם ה...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים בOne DatAI
Location: Petah Tikva
Job Type: Full Time
Were a looking for a  data Engineer who loves building scalable data pipelines and working with cutting-edge technologies.

:What youll do
Build and own end-to-end data pipelines
Ingest data from multiple sources (APIs, files, databases)
Develop and optimize pipelines with Spark
Write clean, efficient  Python  & SQL code
Requirements:
:What were looking for
3+ years of experience as a data Engineer
Strong experience with Databricks (must)
Solid knowledge of  Python, Spark & SQL
Familiarity with modern lakehouse architectures
Experience with streaming / incremental pipelines
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8614048
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים במלונות אסטרל
מיקום המשרה: בני ברק
סוג משרה: משרה מלאה
אנו מחפשים BI Developer שהוא גם Data Analyst עם חשיבה אנליטית חזקה, לתפקיד משולב הכולל פיתוח פתרונות BI לצד ניתוח נתונים והפקת תובנות עסקיות.

מדובר בתפקיד עצמאי לחלוטין, שאינו חלק מצוות BI. נדרש מישהו שמסוגל להוביל את התחום לבד, לקבל החלטות מקצועיות ולעבוד ללא מסגרת של צוות או חניכה.
דרישות:
ניסיון של לפחות שנתיים בפיתוח בQlik (Qlik Sense / Qlik Cloud)
חשיבה אנליטית והבנה עסקית
אפיון צרכים עסקיים, פיתוח דשבורדים אנליטיים, מודלים תפעוליים
עבודה עם ETL, טרנספורמציות נתונים וData Modeling
בניית ותחזוקת תהליכי טעינה (QVD / Scripts)
עבודה מול בסיסי נתונים ומקורות מידע שונים ורבים
בניית תהליכי דאטה אוטומטיים (Data Pipelines, Scheduling, Integrations)
עבודה עם APIs וחיבורים בין מערכות
שיפור ביצועים ואופטימיזציה של מודלים ודשבורדים
יכולת להדריך ולהטמיע שימוש במערכות BI בקרב משתמשי קצה
ניתוח נתונים והפקת תובנות עסקיות לשיפור ביצועים
הצגת נתונים ועבודה מול דרגים בכירים
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8627271
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 3 שעות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
פיתוח מקצה לקצה של מערכות מתקדמות מבוססות ML DL ו AI, החל משלבי האפיון ועד להעלאה לסביבת ייצור. העבודה תתבצע עם מודלים מתקדמים, תשתיות דאטה וארכיטקטורות סקיילביליות בסביבות ענן.

תחומי אחריות עיקריים:

- פיתוח והטמעת מודלים מבוססי ML DL ו AI.
- ניתוח נתונים מורכבים והסקת מסקנות עסקיות קריטיות
- יישום מודלים מתקדמים כגון Boosting, Random Forest, GLM, Regression, Clustering, PCA
- פיתוח והטמעת שירותים סביב LLMs, Data pipelines, APIs ותשתיות ליבה

מסגרת המשרה:

- משרה מלאה
- ימי ראשון- חמישי
- גמישות אפשרית בשעות (לא קיימת עבודה מרחוק)
- ישיבה במשרדי החברה - געש, הגעה עצמאית
- עבודה בצוות
- עבודה בכפיפות למנהלת מחלקה.
דרישות:
השכלה:
- תואר ראשון רלוונטי.

ניסיון מקצועי (חובה):

- 2+ שנות ניסיון בפיתוח פתרונות AI
- ניסיון עם LLM, כולל עבודה מול OpenAI וAzure OpenAI
- ניסיון בפיתוח Backend וAPI
- ניסיון בעבודה בסביבות ענן
- ניסיון ב-RAG וVector Databases

כישורים טכניים (חובה):
- יכולת אנליטית גבוהה וחשיבה יצירתית לפתרון בעיות עסקיות
- הבנה מעמיקה בעולמות ML, Deep Learning, AI, דאטה וSQL
- פיתוח ב-Python ושימוש בספריות Numpy, Pandas, Scikit-Learn, PyTorch
- ניהול prompting מתקדם: safety filters, guardrails, versioning וארכיטקטורה מותאמת לניסויים
- עבודה מול ספקי מודלים שונים, Caching, Fallbacks ואופטימיזציית עלות מול ביצועים
- ראייה תצפיתית (observability): לוגים, מטריקות, ודשבורדים
- ידע באבטחה: Authorization and Authentication
- ניסיון עם MCP, בניית Tools ועבודה עם מודלים מולטימודליים
- אנגלית ברמה גבוהה - חובה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8606014
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים בOne DatAI
מיקום המשרה: שוהם
בתפקיד זה תהיה לך הזדמנות להוביל את פיתוח מוצרי הדאטה של הארגון - החל מניתוח הצורך העסקי, דרך פיתוח תהליכי עיבוד דאטה בסביבת Databricks,  ועד יצירת שכבות נתונים ופתרונות  BI  שמונגשים לביזנס בPowerBI
תחומי אחריות:
פיתוח מקצה לקצה של  data Products  ופתרונות דאטה עבור יחידות עסקיות שונות
הבנה ותרגום של צרכים עסקיים לתהליכי דאטה ישימים - כולל אפיון לוגיקות עסקיות, מודלים אנליטיים, תמיכה שוטפת ועובדה מול גורמים שונים בחברה
פיתוח תהליכי עיבוד נתונים ( ETL /ELT) בסביבת Databricks / PySpark על בסיס מקורות דאטה קיימים
יצירת שכבות נתונים אנליטיות ו?semantic layers עבור  BI  ומערכות תפעוליות
עבודה צמודה עם   data Engineering לשדרוג תהליכים קיימים והתאמתם לצרכים עסקיים
פיתוח דוחות ודשבורדים ב? Power BI
אחריות על איכות, דיוק, זמינות ותיעוד תהליכי הדאטה והמוצרים
זיהוי הזדמנויות לייעול ואוטומציה של תהליכים עסקיים באמצעות דאטה
הובלת ביקורות ושיפורים במוצרי הדאטה לאורך מחזור חייהם
דרישות:
דרישות תפקיד

2-4 שנות ניסיון בפיתוח פתרונות דאטה   BI / data Product / data Analyst
ניסיון מעשי ב?SQL  ברמה גבוהה - חובה
ניסיון מעשי ב? Python   אוPySpark   - חובה
הבנה טובה בפיתוח מודלים ו?semantic layers ל?Power BI  - חובה
ניסיון בעבודה מול משתמשים עסקיים ואפיון צרכים -  חובה
ניסיון מוכח ב  Databricks  -  יתרון משמעותי
ניסיון בעבודה עם Microsoft Azure - - יתרון משמעותי
הבנה עסקית במוצרי צריכה FMCG - יתרון
אנגלית ברמה גבוהה - קריאה, כתיבה ודיבור המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628715
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים בOne DatAI
Location: Ramat Gan and Petah Tikva
Job Type: Full Time and Hybrid work
What youll do:
Lead design and delivery of enterprise data platforms
Own end-to-end pipelines from ingestion to serving
Architect scalable lakehouse solutions on Databricks
Drive best practices across Spark, Python, and SQL
Lead and mentor data engineers across projects
Work closely with stakeholders to define solutions
Optimize performance, cost, and reliability of pipelines
Implement data governance, quality, and monitoring
Requirements:
What were looking for:
5+ years of experience as a data Engineer
Proven experience leading large data projects
Strong hands-on experience with Databricks (must)
Deep knowledge of Spark, Python, and SQL
Experience designing lakehouse architectures
Strong understanding of batch and streaming pipelines
Experience with data modeling and large-scale data processing
Ability to translate business needs into technical solutions
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8614034
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה להצטרף לצוות הדאטה שלנו ולהיות שותף מרכזי בהקמה, פיתוח ותפעול של פלטפורמת Data & AI ארגונית מתקדמת בסביבת Azure.

במסגרת התפקיד:
תכנון, פיתוח ותפעול Lakehouse ארגוני על גבי Azure Databricks
בניית Data Pipelines מודרניים מקצה לקצה על בסיס Delta Lake במודל Bronze / Silver / Gold
פיתוח תהליכי Data Ingestion חכמים ממערכות ליבה, APIs וEvent Streams, כולל Incremental Loading וCDC
עבודה עם Unity Catalog לניהול Data Governance, הרשאות, Lineage ושיתוף נתונים מאובטח בין צוותים
שימוש יומיומי ביכולות מתקדמות של Databricks:
Workflows & Jobs
Autoloader
Delta Live Tables
Structured Streaming
עבודה שוטפת וצמודה עם Data Scientists ותמיכה בML Workflows
הטמעה וניהול של MLflow:
ניהול ניסויים
Model Tracking
Versioning וReproducibility
בניית סטנדרטים ארגוניים לData Quality, Monitoring וObservability
אופטימיזציה של ביצועים ועלויות בסביבת Azure (Cluster Sizing, Caching, Partitioning)
תמיכה בהקמת AI / Data Platform ארגונית התומכת בAgents, Machine Learning ומוצרי דאטה
דרישות:
מה אנחנו מחפשים?
ניסיון של 3-5 שנים בתפקיד Data Engineer בסביבת Cloud
ניסיון מעשי משמעותי עם Azure Databricks
שליטה גבוהה ב Python,SQL, Spark / PySpark
ניסיון בעבודה עם: Delta Lake, Unity Catalog, Databricks Workflows / Jobs
ניסיון בבניית Data Pipelines בסביבת Production, ניסיון בעבודה משותפת עם Data Scientists וML Pipelines
היכרות עם MLflow לניהול מודלים וניסויים
הבנה טובה של Data Modeling בסביבת Lakehouse
ניסיון בעבודה עם Git וCI/CD לתהליכי דאטה
יכולת עבודה בצוות רבתחומי, חשיבה מוצרית וראייה מערכתית על דאטה

אנחנו ממוקמים ברמת גן,
מתחם הבורסה, בסמוך לרכבת סבידור מרכז ולרכבת הקלה

* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8570851
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 19 שעות
דרושים בפרוסיד
אנחנו ב-Proceed מחפשים ארכיטקט/ית data AI לתפקיד בכיר ומשמעותי, עם אחריות על עיצוב והובלת פתרונות דאטה ו-AI עבור לקוחות אנטרפרייז מהמובילים במשק.
התפקיד מתאים למי שמביא/ה עומק טכנולוגי אמיתי, חשיבה עסקית ויכולת להוביל פתרונות מורכבים מקצה לקצה.

במסגרת התפקיד:

הובלת ארכיטקטורת data AI מבוססת AWS
תכנון והקמה של פלטפורמות דאטה מודרניות בענן
הובלת פרויקטי AI ו-GenAI משלב ה-Design ועד יישום בפועל
בנייה והובלה של data Pipelines ותהליכי ETL /ELT
עבודה עם מחסני נתונים מודרניים בענן
תרגום צרכים עסקיים לפתרונות טכנולוגיים
הצגת פתרונות ללקוחות, מנהלים ו-Stakeholders
עבודה מול לקוחות אנטרפרייז וארגונים גדולים ומורכבים
דרישות:
דרישות מרכזיות:
ניסיון משמעותי כארכיטקט/ית data / AI / Cloud או data Engineer בכיר/ה- חובה
מומחיות Hands-on בסביבת AWS- חובה
ניסיון מעשי בהקמת פרויקטי data - חובה
ניסיון בתכנון data Platforms וארכיטקטורות דאטה מודרניות- חובה
ניסיון עם data Pipelines, ETL /ELT ומחסני נתונים בענן- חובה
שליטה טובה ב-SQL ו- Python - חובה
יכולת הצגת נושאים טכנולוגיים וחשיבה עסקית- יתרון משמעותי
יכולת עבודה מול לקוחות אנטרפרייז / ארגונים גדולים- יתרון

מי אנחנו מחפשים?
איש מקצוע בכיר/ה עם שילוב של עומק טכנולוגי, ראייה ארכיטקטונית ויכולת עסקית. מישהו/י שיודע/ת לקחת צורך מורכב, לבנות סביבו פתרון נכון ולהוביל אותו מול לקוחות גדולים, ממשקים מרובים וסביבה טכנולוגית מתקדמת. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8637952
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 21 שעות
דרושים בהמרכז הרפואי תל אביב (איכילוב)
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
אגף מערכות מידע מגייס data Engineer עם רקע חזק בעולמות ה- BI, להצטרפות לצוות דאטה מרכזי העוסק בהקמה והובלה של פלטפורמת נתונים מודרנית.
התפקיד כולל עבודה על דאטה קליני ותפעולי בהיקפים גדולים, תוך שילוב בין עולמות DWH קלאסיים לבין ארכיטקטורות data Lake / Lakehouse מתקדמות.

במסגרת התפקיד:
תכנון והקמה של data Pipelines מקצה לקצה עבור דאטה רפואי ותפעולי
פיתוח מודלים אנליטיים ( data Modeling) לתמיכה בקבלת החלטות קליניות ועסקיות
עבודה עם data Lake / Lakehouse לניהול נתונים בהיקפים גדולים
אינטגרציה של מקורות מידע מגוונים (מערכות רפואיות, מערכות תפעוליות, APIs)
שיפור data Quality, ניטור תהליכים והתמודדות עם data Gaps (חוסרים, עיכובים, טעויות)
עבודה צמודה עם אנליסטים, חוקרים, צוותי BI וגורמים קליניים
הובלת Best Practices בתחום ניהול נתונים בארגון
דרישות:
דרישות חובה
ניסיון של 3+ שנים כ- BI Developer או data Engineer
שליטה גבוהה ב-SQL וניסיון מוכח ב- data Modeling (Star Schema / Snowflake)
ניסיון בפיתוח תהליכי ETL /ELT מורכבים
ניסיון בעבודה עם Python (או שפה דומה)
הבנה מעמיקה של DWH קלאסי
ניסיון בעבודה עם סביבת Microsoft ( SQL server / Power BI )

יתרון משמעותי
ניסיון עם כלים מודרניים כגון: dbt Apache Airflow Airbyte Trino
ניסיון בעבודה עם Object Storage (כגון Amazon S3) ו- data Lake
היכרות עם Apache Iceberg
ניסיון בארכיטקטורת data Lakehouse
ניסיון בעבודה עם דאטה רפואי / קליני (EMR / EHR)
היכרות עם תקני מידע רפואיים (HL7 / FHIR)
ניסיון בעבודה בסביבות ענן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8632501
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים בגב מערכות
מיקום המשרה: גן שורק
סוג משרה: משרה מלאה
תנאים נוספים:קרן השתלמות
מיקום: גן שורק

אחריות על מסדי נתונים בתחום "מניה חכמה", כולל פיתוח בקרות, ניטור שלמות מידע ויצירת שירותים. התפקיד כולל אפיון, פיתוח ותמיכה מקצועית מול מפתחים וצרכני מידע, לצד עבודה עם תהליכים עסקיים ומערכות יישומים מורכבות.
דרישות:
ניסיון של לפחות 5 שנים בתחום - חובה
ניסיון משמעותי בסביבת Oracle - חובה
שליטה גבוהה ב-PL/SQL, פרוצדורות ושירותים - חובה
ניסיון בניטור מערכות ובקרות ביצועים - חובה
ניסיון בעבודה עם Linux - חובה
ניסיון בעבודה מול צוותי פיתוח ולקוחות - חובה
הבנה מערכתית בעולמות מסדי נתונים - חובה
היכרות עם AWS - יתרון

דרישות השכלה:
תואר ראשון במדעי המחשב / הנדסת מחשבים / תחום STEM
או תואר אחר בשילוב קורסים מתקדמים במערכות מידע בהתאם לדרישות
או הנדסאי/ת מחשבים / רקע טכנולוגי צבאי רלוונטי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8637236
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne DatAI
Location: Lod
?? Were Hiring: data Infrastructure Expert / DBA

We are looking for an experienced DBA / data Infrastructure Expert to join a dynamic and professional team.
This role involves working with advanced data systems, cloud environments, and leading end-to-end projects.

?? Responsibilities
        Manage and optimize databases, including cloud-based environments
        Design, implement, and maintain database architectures
        Handle access control, performance tuning, and ongoing maintenance
        Support projects, troubleshoot issues, and provide architectural/infrastructure consulting
        Research and implement new technologies in the data ecosystem, with a focus on AWS
Requirements:
? Requirements
        At least 3 years of experience working in Linux based systems - A must
        Hands-on experience with at least one of the following: PostgreSQL / MySQL / MongoDB / Kafka - A Must
        Experience with data streaming technologies (e.g., Kafka) - advantage
        Experience working in AWS enviroment - advantage
        Availability for on-call / off-hours support when needed (excluding weekends/holidays) - Must

?? Soft Skills
        Strong self-learning ability
        Excellent interpersonal and service skills
        Availability outside standard working hours
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8635335
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בMertens – Malam Team
מיקום המשרה: ירושלים
חברת Mertens Malam Team מגייסת DBA תשתיתי.ת SQL server לארגון ציבורי בירושלים

התפקיד כולל:
ניהול מקצה לקצה של סביבת בסיסי הנתונים, כולל הקמה, תחזוקה, תפעול ותמיכה שוטפת במערכות SQL server בסביבת Production

עבודה עם SQL server, SQL server Internals, Execution Plans, Performance Tuning, Always On, High Availability, Disaster Recovery
דרישות:
ניסיון של 4 שנים כ- DBA תשתיתי.ת בסביבת MS SQL server - חובה
ניסיון מעשי ב- SQL server Internals כולל Execution Plans, Locking/Blocking, Memory Management, I/O - חובה
ניסיון מוכח ב-Performance Tuning ואופטימיזציה של שאילתות וניתוח ביצועים - חובה
ניסיון ביישום פתרונות High Availability ו-Disaster Recovery כולל Always On, אסטרטגיות גיבוי, Point-in-Time Recovery - חובה

ניסיון בהקמה, תחזוקה ותפעול בסיסי נתונים בסביבת Production ועבודה מול צוותי פיתוח - חובה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8591522
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
ארגון ממשלתי באזור המרכז מגייס אנליסט/ית נתונים
התפקיד כולל: עבודה עם עיבוד והסבת קבצי CAD ו-GIS למאגרי תשתיות לאומיות, פיתוח סקריפטים ב- Python להסבות נתונים חצי אוטומטיות ואוטומטיות, ביצוע בקרות איכות, ניתוח וקליטת מידע ממקורות מגוונים לבסיסי נתונים ועבודה בצוות רב-תחומי לשיפור תהליכי עבודה ועוד.
דרישות:
- שנתיים ניסיון כאנליסט/ית נתונים
- ניסיון בעבודה עם מערכות GIS כגגון: ArcGIS, ArcPro, QGIS
- ניסיון בעבודה עם בסיסי נתונים SQL / NoSQL
- ניסיון בפיתוח Python בסביבת GIS
- יכולת ניתוח נתונים והבנה של מפרטי מיפוי וקליטת נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8624729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים במלם תים
מיקום המשרה: מודיעין מכבים רעות
ארגון מוביל בתחום הבריאות מחפש מפתח/ת BI מנוסה להשתלבות בצוות דאטה מקצועי, לעבודה עם טכנולוגיות מתקדמות והשפעה ישירה על תהליכי קבלת החלטות בארגון
אם יש לך תשוקה לדאטה, יכולת פיתוח תהליכים מורכבים ורצון להשפיע על עתיד הרפואה בישראל מקומך איתנו!

מה בתפקיד?
פיתוח תהליכי ETL /ELT מורכבים מקצה לקצה בסביבת DWH מודרנית, תוך עבודה בארכיטקטורת Medallion (Bronze, Silver, Gold).
התפקיד כולל אפיון צרכים עסקיים מול גורמים שונים בארגון ותרגומם לפתרונות BI ודאטה, בניית מודלים אנליטיים ושכבות נתונים, ופיתוח דשבורדים מתקדמים.
בנוסף, עבודה הכוללת תחקור נתונים מעמיק (Deep Dive), אופטימיזציה של תהליכים קיימים ופיתוח פתרונות חדשים, תוך מעבר מניתוח תיאורי לניתוח סיבתי וחיזוי מגמות.
דרישות:
- ניסיון של 4+ שנים בפיתוח BI, כולל עבודה בסביבות DWH
- שליטה גבוהה מאוד ב-SQL כולל שאילתות מורכבות, פרוצדורות
- ניסיון בפיתוח תהליכי ETL /ELT (Batch ו-Streaming) עם כלים כגון dbt / Informatica / Python וכתיבת APIs
- הבנה מעמיקה ב- data Modelling וארכיטקטורת DWH, כולל עבודה עם Snowflake ו/או Microsoft Fabric
- ניסיון בפיתוח דשבורדים (Power BI / Business Objects) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8608514
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
לגוף ממשלתי בירושלים דרוש/ה מהנדס/ת תשתיות נתונים לניהול ותחזוקה של מסדי נתונים ארגוניים ותהליכי נתונים מורכבים.

תיאור התפקיד:
- ניהול ואחריות כוללת על תשתיות מסדי נתונים ( ( DBA ) )
- פתרון תקלות מורכבות ושיפור ביצועים
- הרצה ואופטימיזציה של שאילתות מורכבות
- בדיקות איכות נתונים ותקינות זרימת המידע
- עבודה עם תהליכי נתונים ו?pipelines
- הקמה, תחזוקה ושדרוג של שרתי SQL server
- תכנון ויישום גיבויים, אבטחת מידע וניהול הרשאות
- תרגום דרישות עסקיות לפתרונות טכנולוגיים
- עבודה בצוות והובלה מקצועית בתחום
דרישות:
דרישות חובה:
- 4 שנות ניסיון משמעותי בניהול תשתיות מסדי נתונים ב?MSSQL
- ניסיון מוכח בפתרון תקלות, ניתוח ביצועים ואופטימיזציה
- ניסיון בתכנון ויישום אבטחת בסיסי נתונים ואסטרטגיות גיבוי
- ניסיון בעבודה עם Always On
- ניסיון בהתקנה ושדרוג שרתי SQL
- יכולת עבודה בצוות ותקשורת בין?אישית טובה

יתרון:
- ניסיון במסדי נתונים לא רלציוניים
- ניסיון בעבודה עם Graph DB
- ידע בפייתון ו/או C #
- סיווג ביטחוני בתוקף - רמה 3

השכלה - תנאי סף (אחד מהבאים):
- תואר ראשון בהנדסה / מדעי המחשב
- הנדסאי/ת תוכנה
- תואר אחר + קורסים מתקדמים בתחום הנתונים (200 שעות לפחות, מתוכן 100 בהנדסת נתונים)
- קורסים בתחום מערכות מידע בהיקף של 300 שעות (מתוכן 100 בהנדסת נתונים) + שנת ניסיון נוספת
- בוגר/ת יחידה טכנולוגית בצהל (ממרם / 8200 / תקשוב / מקבילות או בראם) - בכפוף לאישור המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621223
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
27/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Temporary
As an Analytics Engineer within the Delivery & Operations organization, you will operate at the intersection of data engineering and analytics, with a strong focus on data quality, reliability, and scalability.

This role combines hands-on ownership of data pipelines and data transformations with the ability to effectively interface with customer-facing teams (Customer Success, and Delivery) when needed-helping ensure that data outputs are accurate, clear, and aligned with real-world use cases.

Responsibilities:
Build and maintain data models, pipelines, and ETL processes to support analytics, reporting, and machine learning.
Own data quality and validation, including monitoring, auditing datasets, and identifying anomalies.
Support customer-facing teams by providing reliable data, clarifying definitions, and investigating data issues.
Collaborate cross-functionally and work with existing codebases to debug, improve, and maintain data workflows.
Ensure high-quality data across the lifecycle to support reliable ML pipelines.
Requirements:
Requirements:
3+ years of experience in Python development (production-level data logic, not just scripting).
2+ years of experience with data validation / data quality practices.
Experience with data pipelines / ETL processes.
Proficiency in Pandas (or similar libraries).
Strong SQL and database knowledge.
Experience working with existing production codebases (debugging, refactoring).
Ability to communicate clearly with non-technical stakeholders when needed.
Strong analytical thinking and problem-solving skills.
High attention to detail and commitment to data accuracy.

Advantages:
Familiarity with data modeling best practices.
Experience supporting customer-facing data use cases or deliverables.
Background in DataOps / data reliability practices.
Exposure to machine learning pipelines.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8626264
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Experienced Data Engineer? Excellent team player?
Come join a great team to overcome meaningful cyber challenges!
Our Data Solutions Group is looking for an exceptional Python developer with Data Engineering experience.
Requirements:
Excellent team player
Excellent Python developer
BSc Computer Science or similar
2+ years of experience with big data frameworks such as Spark or Hadoop
2+ years of experience in managing ETLs in AirFlow or similar, multi-source data flows and processing of large data sets.
3+ years of experience with SQL
Attention to details, high responsibility and open minded
Ability to take initiative with a self-motivated attitude and reliability
Critical thinker and problem-solving skills
Advantages
Proven capabilities in data analysis and data-driven conclusions
Experience with the ElasticSearch suite
Java development experience
Experience with Linux environment
Background in the cyber domain
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8625963
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
27/04/2026
Location: Beit Haemek and Nahariyya
Job Type: Full Time
Methodology Development: Develop new data analysis methods and technologies in line with the department roadmap. This includes performing statistical design and evaluation of experiments, multivariate data analysis, and harnessing predictive modeling approaches.
Continuous Improvement: Monitor model performance and make iterative improvements based on feedback and new data.
Innovation: Explore novel AI/ML approaches to enhance cell culture media development processes.
Project Leadership: Propose, execute and lead ML- and data -based work packages within defined projects in related technology areas.
IT data Infrastructure
Reporting: Evaluate, analyze and present project results
Expert Engagement: Actively participate in internal and external expert groups and/or networks
data Pipeline Maintenance: Design, build, TEST and maintan robust data processing pipelines.
Requirements:
Masters degree in Science, Engineering or Computer/ data Science; minimum Bachelor's degree in a relevant field.
Basic understanding of SQL and database concepts.
Experience in industry with a proven track record
Very good written and verbal English communication skills.
Ability to work self-driven and with a high level of self-motivation.
Strong analytical and conceptual thinking skills to solve complex problems.
Interest in cloud data platforms and data engineering.
Confident handling of MS Office.
3+ years of work experience (or 7+ years of work experience with a Bachelor's degree).
Solid working knowledge of Python is required, with familiarity in libraries such as Pandas, scikit-learn and other Python ML libraries.
Experienced in statistical analysis and relevant programming languages and software tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8623211
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
21/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
We're seeking a Mid to Senior Data Engineer to join our Cloud Identity & Perimeter, a critical component of our security infrastructure. Our team develops and maintains complex data pipelines that process billions of records daily, analyzing identity-related security patterns, effective permissions, internet exposure, and attack paths. We're at the forefront of securing enterprise identities and delivering actionable security insights at scale.

What You'll Do:

Design and implement high-performance, distributed data processing pipelines handling petabytes of security data.

Architect complex data transformations using Apache Spark for large-scale batch and stream processing.

Be part of shaping new products while collaborating with product teams, customers, and sales.

Build and optimize real-time data streaming solutions using Kafka for identity analytics.

Develop and maintain scalable ETL processes that handle billions of daily events.

Create efficient data models for complex security analytics queries.

Collaborate with cross-functional teams to deliver high-impact security features.

Optimize query performance and data storage patterns for large-scale distributed systems.

Participate in system design discussions and architectural decisions.

This position is based in our Tel Aviv, Israel office and requires strong leadership presence and ability to work closely with cross-functional teams.
Requirements:
What You'll Need:

5+ years of experience in data engineering or similar roles.

Strong programming skills in Go and/or Java.

Extensive experience with big data technologies (Apache Spark, Kafka).

Proven track record working with distributed databases (Cassandra, Elasticsearch).

Experience building and maintaining production-grade data pipelines.

Strong understanding of data modeling and optimization techniques.

Excellent problem-solving skills and attention to detail.

BS/MS in Computer Science or related field, or equivalent experience.


Bonus Points:

Experience with identity and access management concepts.

Knowledge of security analytics and threat detection.

Contributions to open-source projects.

Experience with cloud platforms (AWS, GCP, Azure).

Background in cybersecurity or security analytics.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8619467
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
21/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
We are searching for a Senior Data Engineer to join our growing team in Tel Aviv and serve as a cornerstone of data evolution. We need an experienced, high-impact engineer ready to elevate our infrastructure from "functional" to "world-class."

As a pivotal member of the team, you wont just build pipelines; you will architect the future of our data ecosystem. Were looking for someone who obsesses over query latency, high-performance analytics, and cost-efficiency - someone who views data integrity as non-negotiable and thrives on turning complex event streams into elegant, scalable models.

Responsibilities
Lead the end-to-end data strategy, evolving our event-driven architecture to ensure seamless, low-latency data flow across the organization.
Design and implement robust, scalable data models that serve as the "single source of truth" for the entire organization.
Act as our internal Snowflake expert - optimizing performance and cost through best practices in clustering, materialized views, and warehouse management.
Build and maintain sophisticated ELT/ETL pipelines that transform raw event data into actionable insights, with a heavy focus on reliability and observability.
Proactively identify infrastructure bottlenecks and re-engineer processes to handle increasing scale without breaking a sweat.
Partner closely with Product and Engineering teams to translate business needs into technical reality, while mentoring analysts and peers on high-quality SQL and architectural standards.
Requirements:
5+ years of experience in Data Engineering, ideally within high-scale or high-growth environments.
5+ years of hands-on coding experience in Python or Node.js.
Deep experience with modern data warehouses and relational databases (e.g., Snowflake, BigQuery, PostgreSQL, or MySQL).
Deep expertise in Snowflake (internals, optimization, and credit management) is a significant advantage.
A masters grasp of data modeling principles and a passion for creating clean, documented, and reusable data structures.
A proactive team player who thrives in time-sensitive, high-volume environments and can communicate complex technical concepts clearly.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8619443
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a talented Data Engineer to join our Data team and spread the power of our company. The Data team develops and maintains the infrastructure for internal data and product analytics. We are looking for data enthusiasts, independent, logical thinkers with a can-do approach and a passion for problem-solving. We run a SaaS-based stack using BigQuery, Snowflake and dbt.
WHAT YOU'LL DO
Design, build, and maintain data pipelines, datasets and catalogs for fast-growing products and business groups.
Develop self-service data analytics solutions and infrastructure.
Support ad hoc needs and requests of internal stakeholders.
Collaborate with analysts, engineers, and internal customers from Product, Finance, Revenue, and Marketing.
Requirements:
Bachelors or Masters degree in a relevant technical field, or equivalent hands-on experience in software development or DevOps.
3+ years of experience working as a Data Engineer, including end-to-end designing, orchestrating, and building cloud-based data pipelines (e.g., Airflow, Prefect, Dagster).
3+ years of experience with dimensional data modeling and data warehouse implementation, specifically MPP databases like BigQuery, Snowflake, and Redshift.
Strong knowledge of Python and Python-based data analysis tools such as Jupyter Notebooks and pandas.
Strong SQL writing skills. Ability to write highly performant queries.
Strong track record of executing projects independently in dynamic environments.
Fast understanding of data and business needs and ability to translate them into data models.
Team player with excellent communication skills.
Containerization (Docker): Essential for reproducible environments.
Knowledge of software engineering best practices: CI/CD concepts, code reviews, and unit testing.
ADVANTAGE
Production-level experience with dbt, including project design, transformation, testing, and documentation.
Infrastructure-as-Code (Terraform): Managing cloud resources (S3 buckets, IAM roles) via code.
CI/CD pipelines (GitHub Actions/Jenkins): Automating the testing and deployment of data models.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618820
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a hands-on Technical Project Manager and spread the power of our company. As part of the CTO operations team, you will focuses on improving deployment pipelines and internal tools by digging into logs, finding recurring issues, and reducing manual work. The role combines technical problem-solving with practical execution and coordination.
WHAT YOULL DO
Youll work with engineers and domain leads to help teams improve how they build and operate systems.
Help build and maintain the Unified Maturity Table, defining the technical parameters (workflows, support packages, other metrics) and their KPIs that conclude a domains readiness and maturity.
Partner with the team to refine internal AI agents by measuring the performance of their answers against human expert interventions.
Use cluster analysis (AI) of support ticket descriptions to identify recurring patterns, then design and implement automated workflows to streamline resolution.
Take part in driving the departments "operating system" by facilitating design meetings, managing cross-domain syncs, and ensuring the documentation and support packages required for daily execution are current and actionable.
Define and implement different thresholds by analyzing support ticket complexity, resolution times, and domain-specific friction.
Transition static maturity reports into live, dynamic dashboards with trend lines.
Lead design meetings to establish cross-functional standards for domain maturity and system health alerts.
Requirements:
3-6 years of hands-on experience as a Software Engineer, Data Engineer, SRE, or Solutions Engineer.
Proficiency in querying and analyzing large datasets (SQL, Python, or similar) to diagnose system bottlenecks and deployment failures.
A proven track record of taking manual, "friction-heavy" processes and building automated, scalable engineering solutions.
Experience with prompt engineering, RAG concepts, and auditing AI model outputs for accuracy and reliability.
Ability to translate complex technical friction into a prioritized roadmap for stakeholders and senior leadership and lead the project to the finish line.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618781
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Petah Tikva
Job Type: Full Time
We are looking for a highly skilled Data Engineer . to build and maintain robust, scalable data pipelines and data marts acting as the connective tissue for intelligence insights generation that serves executive stakeholders , internal our company customers and 3rd party
The Fintech AI & Data group is looking for a staff Data Engineer to work closely with analysts, data scientists, and software developers and strengthen Fintech by building data capabilities and AI transformation.
Responsibilities
Gather data needs from internal customers like product and analysts, and translate those requirements into a working database and analytic software.
Design, build, and maintain scalable, reliable batch and real time data pipelines, data marts and warehouse supporting executive dashboards, operational analytics, and internal customer use cases
Ensure high data quality, observability, reliability, and governance across all data assets
Optimize data models for performance, cost-efficiency, and scalability
Develop data-centric software using leading-edge big data technologies.
Build data capabilities that enable automated agentic insights and decision intelligence
Develop reusable data services and APIs that power AI-driven workflows
Evolve our data architecture into an AI-native data layer designed to power LLMs, AI agents, and intelligent applications
Collaborate with analytics, product, and AI teams to translate business needs into scalable data solutions
Influence the software architecture and working procedures for building data and analytics
Work bBe the go-to person for anything and everything regarding understanding the data - exploration, pipelines, analytics, etc. and work both independently and as part of a team
How youll succeed
Have an impact on satisfying customers and reducing financial fraud
Help build the team by hiring the best talent
Contribute toexperiments and research on how to enhance our capabilities
Learn new technologies and methodologies
Collaborate with other data engineers, analysts, data scientists and developers
Be proactive with a self-starter attitude
Be a good listener, while also having strong opinions on what is right
Be fun to be around.
Requirements:
Bachelors degree in Information Systems, Computer Science or similar
Extensive experience dealing directly with internal customers regarding their data needs
Excellent knowledge of SQL in a large-scale data warehouse or data lakehouse environment such as Spark, Databricks, Presto/Athena/Trino
Experience in designing, building and maintaining highly scalable, robust & fault-tolerant complex data processing pipelines from the ground up (ETL, DB schemas)
Experience with stream processing or near real-time data ingestion
Experience working in cloud environment, preferably AWS (EC2, S3 EMR elastic map)
Excellent knowledge of database / dimensional modeling / data integration tools
Experience writing scripts with languages like Python, and shell scripts in a Linux environment
Can-do attitude, hands-on approach, passionate about data
Preferred :
Some knowledge of Data Science/Machine Learning
Knowledge/Experience with Scala, Java
Knowledge of data visualization tools like Tableau or Qlik Sense
Some knowledge of graph databases
Some experience in Fintech industry, Cyber Security
Working with AI tools and leveraging AI into product development.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618770
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Data Engineer Position
I-Next Data Center, the AI Center is a pioneering data and research hub leading various initiatives to enhance medical diagnosis, prevention and treatment. Our projects encompass diverse areas, including decision-support applications for clinicians, predictive models, image processing, NLP and more.
We are seeking a highly motivated full-time data engineer who is enthusiastic about working with extensive clinical big data sources. The ideal candidate will be dedicated to creating and enhancing data processes to support our dynamic team.
Responsibilities
Conduct data extraction, validation and profiling to maximize the value of data
Design, implement, monitor and maintain data pipelines & ETLs for multiple data sources
Collaborate with researchers, experts and data scientists to comprehend data requirements as well as product design and deliver high-quality outcomes
Manage data development process, including methodology, QA and maintenance.
Requirements:
Please apply if you are/have:
Enthusiastic about big data, love challenging medical projects, and want to make a direct impact on the healthcare ecosystem
Bachelor's degree in industrial or information systems engineering, or equivalent. If you don't have a degree, but your eyes shine when writing code - please also apply
Over 6 years of hands-on experience as a data engineer
Over 4 years of hands-on experience in Python scripting
Proficiency in working with a variety of data formats and databases (including cloud environments, SQL, and NoSQL databases, Parquet, Json format)
Experience with GIT work configuration, Environments and development method
Experience with AWS platform and cloud pipelines design
Prior experience in working with real world clinical data - a major advantage
Strong team player with the ability to take initiative and work autonomously, along with excellent communication skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618258
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required MDClone Engineer 
I-Next Data Center, the AI Center is a pioneering data and research hub leading various initiatives to enhance medical diagnosis, prevention and treatment. Our projects encompass diverse areas, including decision-support applications for clinicians, predictive models, image processing, NLP and more.
We are looking for a highly motivated full-time team member who is eager to work with clinical data. This individual will assist and guide clinicians and researchers in using a clinical data platform. In the future, they will also help improve data processes to enhance the platform further.
Responsibilities
Provide data-related services, support and guide clinicians ensuring their needs are met effectively
Collaborate closely with team members, fostering a cooperative and productive work environment.
Continuously learn and develop new skills independently to stay up to date in the data platform field.
Participate in team discussions and projects to enhance overall team performance and share knowledge.
Proactively identify opportunities for improvement and contribute to data platform development initiatives tailored to the healthcare member's sector.
Requirements:
Please apply if you are/have:
Enthusiastic about big data, love challenging medical projects, and want to make a direct impact on the healthcare ecosystem
Bachelor's degree in industrial or information systems engineering, or equivalent. If you don't have a degree, but your eyes shine when writing code - please also apply
Experience with SQL - major advantage
Strong proficiency in Python- major advantage
Background in Data Science - a plus
A strong team player who can also take initiative and work independently, with excellent communication skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8618252
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
we are a data driven company, the data Engineering team is the bridge between raw data and impactful business insights. You will lead a team of talented engineers to architect, build, and maintain the data infrastructure of our company. Your mission is to ensure our data is reliable, secure, and ready for everything from standard BI reporting to cutting-edge Generative AI applications. Youll act as a key partner to our business teams, translating high-level needs into technical reality and driving a massive impact on our bottom line. In addition youll spend time mentoring your team as well as tackling high-level architecture decisions, pushing technical strategy and contributing to the codebase.
What am I going to do?:

* Lead a team that designs and scales Real-Time data pipelines processing millions of events hourly.
* Utilize cutting-edge technologies to build scalable and high performant data infrastructure.
* Influence and drive architecture and data strategy decisions.
* Work closely with other stakeholders such as data Developers, Analysts, data Science and R&D.
* Hands-on development of data infrastructure tools (~50% of the time).
* Lead and mentor the team talent.
* Finops and governance of data infrastructure domains.
Equal opportunities:
At our company, we prioritize diversity. We celebrate difference and embed it into every aspect of our workplace and product, as well as our community. we are proud and committed to providing equal opportunity employment to all individuals regardless of race, color, religion, sex, sexual orientation, citizenship, national origin, disability, Veteran status, or any other characteristic protected by law. In addition, we will provide accommodation to individuals with disabilities or a special need.
Requirements:
* 5+ years of hands-on experience in data engineering, with at least 2 years in a team leadership role.
* Strong programming skills in Python.
* Experience with relevant technologies such as BigQuery, Airflow/Prefect, DBT, Kafka, Athena, BI Tools.
* Proven track record of design and implementation of highly scalable distributed data pipelines.
* Deep understanding of data modeling, ETL and Real-Time analytics.
* Great 360 collaboration with excellent communication skills.
* MSc./BSc. in Computer Sciences from a top university. At our company, were not about checklists. If you dont meet 100% of the requirements for this role but still feel passionate about the position and think you have the right skills and qualifications to excel at it, we want to hear from you.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569534
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
דרוש/ה מפתח.ת דאטה ו BI
רקע על פעילות היחידה:
הזדמנות להשתלב בעולם מרתק של דאטה קליני ולקחת חלק בפרויקטים משמעותיים המשפיעים ישירות על תהליכי קבלת ההחלטות והעשייה הרפואית בארגון רפואי מוביל.
היחידה נמצאת בעיצומה של טרנספורמציה טכנולוגית רחבת היקף, הכוללת בחירה, הטמעה והכשרה של כלים מודרניים בסביבת ענן, וזו הזדמנות לקחת חלק מרכזי בתהליך, ולהשפיע על עתיד הדאטה בארגון.
תיאור התפקיד:
הובלת פרויקטי דאטה מקצה לקצה - משלב האפיון והניתוח, דרך הפיתוח והיישום ועד לעלייה לאוויר
ניתוח מערכות ואפיון פתרונות דאטה מורכבים מול לקוחות עסקיים וגורמים קליניים
פיתוח תהליכי ETL ומודלי DWH
פיתוח Backend ו-Frontend בעולמות ה-BI והדאטה
עבודה בסביבות Microsoft ובענן (AWS)
השתלבות בצוות פיתוח של אנשי/נשות BI ו-Data Engineers
התפקיד מתאים לאיש/אשת BI מנוסה, בעל/ת יכולת הובלה ועצמאות מקצועית, המסוגל/ת לקחת אחריות מלאה על משימות ופרויקטים ולהוות גורם מקצועי מוביל בצוות.
היקף משרה:
משרה מלאה, א'-ה'.
דרישות:
לפחות 5 שנות ניסיון בפיתוח BI (כולל פיתוח בכלי ETL)
לפחות 3 שנות ניסיון משמעותי בניתוח מערכות ואפיון פתרונות דאטה
ניסיון במידול DWH והובלת פרויקטי דאטה מקצה לקצה (Backend ו-Frontend)
ניסיון בעבודה עם כלי Microsoft : Power BI, SSIS, SSRS - חובה
ניסיון בעבודה בסביבות פיתוח מודרניות ובענן - יתרון משמעותי
יכולת עבודה עצמאית, הובלה מקצועית וראייה מערכתית רחבה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616899
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
In your role as a Data Engineer , you'll be actively engaged in the most fascinating and demanding projects for our clients. Handling high-scale operations, heavy traffic, stringent SLAs, and massive data volumes is just the starting point. Our leadership in the realms of Big Data, Streaming Data, and Complex Event Processing (CEP) stems from our adept use of cutting-edge, optimal technologies.
Responsibilities:
Apply software-engineering methods and best practices (Medallion Architecture) in Data Lake management, using tools like DBT.
Develop Data pipelines to ingest and transform data.
Manage and enhance orchestrated pipelines across company
Data Modeling: Developing data models to ensure efficient storage, retrieval, and processing of data, often involving schema design for NoSQL databases, data lakes, and data warehouses. This will also include catalogs of data.
Scalability: Ensuring that the big data architecture can scale horizontally to handle large volumes of data and high traffic loads.
Data Security: Implementing security measures to protect sensitive data, including encryption, access controls, and data masking.
Data Governance: Establishing data governance policies to ensure data quality, compliance with regulations, and data lineage.
Requirements:
5 years of experience in Python (+Java / Scala)
Experience in Building data lakes, including ingestion and transformation (DBT)
Data Warehousing & ETL Pipelines
SQL & Advanced Query Optimization
Experience in data formats (Parquet, Avro, ORC)
Experience in streaming (Spark Streaming, Flink, Kafka Streams, Beam, etc.)
Experience in NoSQL and data storage (e.g. Elastic, Redis, MongoDB, CouchBase, BigQuery, Snowflake, Databricks)
Experience in messaging (Kafka, RabbitMQ, etc.)
Experience in cloud platforms (AWS, GCP)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616874
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Operate and debug object store-backed data lake infrastructure, enabling schema-on-read access, high-throughput ingestion, advanced searching strategies, and performance tuning for large-scale workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616791
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
19/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking a Mid to Senior Data Engineer to join our Cloud Identity & Perimeter, a critical component of CrowdStrike's security infrastructure. Our team develops and maintains complex data pipelines that process billions of records daily, analyzing identity-related security patterns, effective permissions, internet exposure, and attack paths. We're at the forefront of securing enterprise identities and delivering actionable security insights at scale.

What You'll Do:

Design and implement high-performance, distributed data processing pipelines handling petabytes of security data.

Architect complex data transformations using Apache Spark for large-scale batch and stream processing.

Be part of shaping new products while collaborating with product teams, customers, and sales.

Build and optimize real-time data streaming solutions using Kafka for identity analytics.

Develop and maintain scalable ETL processes that handle billions of daily events.

Create efficient data models for complex security analytics queries.

Collaborate with cross-functional teams to deliver high-impact security features.

Optimize query performance and data storage patterns for large-scale distributed systems.

Participate in system design discussions and architectural decisions.
Requirements:
What You'll Need:

5+ years of experience in data engineering or similar roles.

Strong programming skills in Go and/or Java.

Extensive experience with big data technologies (Apache Spark, Kafka).

Proven track record working with distributed databases (Cassandra, Elasticsearch).

Experience building and maintaining production-grade data pipelines.

Strong understanding of data modeling and optimization techniques.

Excellent problem-solving skills and attention to detail.

BS/MS in Computer Science or related field, or equivalent experience.


Bonus Points:

Experience with identity and access management concepts.

Knowledge of security analytics and threat detection.

Contributions to open-source projects.

Experience with cloud platforms (AWS, GCP, Azure).

Background in cybersecurity or security analytics.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616036
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו