רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time and Hybrid work
We're hiring a data Engineer
Were looking for a data Engineer with solid experience building and maintaining large-scale data pipelines in the cloud.
Youll be joining a collaborative R D team working on cutting-edge SaaS products, with full ownership over data workflows, architecture and performance.
Requirements:
What were looking for:
2-3 years of experience in data engineering roles
Hands-on experience with Azure cloud services, especially data Factory, data Lake, and Databricks
Solid knowledge of Databricks, including Spark-based processing, notebook orchestration, and ML pipeline integration
Proficient in Python and SQL for data manipulation and automation
Experience with orchestration tools like Airflow
Familiarity with Docker, CI/CD, and working in cross-functional development teams
Youll work closely with data scientists, engineers and product teams to build data -driven features
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8302213
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
לחברה גדולה ויציבה בתל אביב דרוש/ה מפתח/ת תוכנה עם התמחות ב-TABLEAU לעבודה מאתגרת ומשמעותית בסביבת פיתוח מתקדמת.

תיאור התפקיד:
פיתוח מערכות מידע ואפליקציות Web
פיתוח ובניית דשבורדים ותצוגות גרפיות ב-TABLEAU
כתיבת קוד Hands on
עבודה בצד לקוח ו/או צד שרת
ליווי מקצועי ועבודה כחלק מצוות פיתוח
העלאת פיתוחים לסביבות בדיקות וייצור (Deployment)
דרישות:
דרישות חובה:

לפחות שנה ניסיון בפיתוח תוכנה

ניסיון של שנה בפיתוח תצוגות גרפיות ב-TABLEAU
קורס TABLEAU
היכרות עם תהליכי Deployment
ניסיון בטכנולוגיות Web (יתרון ל-.NET)

יתרון:
ניסיון בכתיבת דוחות במערכת Business Objects המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8505826
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בדטה קיוב בע''מ
סוג משרה: משרה מלאה
לצוות דאטה ותשתיות מרכזי בארגון גדול ומוביל, דרוש/ה ראש צוות פיתוח עם ניסיון טכנולוגי עמוק ויכולות ניהול והובלה.
זהו תפקיד Hands-on המשלב ניהול צוות מפתחים לצד פיתוח, קבלת החלטות ארכיטקטוניות והובלת פתרונות דאטה בקנה מידה גדול.
מה כולל התפקיד?
הובלה, חניכה וניהול מקצועי ואישי של צוות מפתחי תוכנה
עבודה Hands-on בפיתוח, Code Reviews וקבלת החלטות ארכיטקטוניות
תכנון, פיתוח ותחזוקה של תשתיות דאטה ומערכות מבוזרות בקנה מידה גדול
עבודה עם מערכות backend, בסיסי נתונים SQL / NoSQL
שיתוף פעולה שוטף עם Product Owners, ארכיטקטים ובעלי עניין
דרישות:
ניסיון של שנתיים לפחות בניהול והובלת צוותי פיתוח
ניסיון של 3 שנים ומעלה בפיתוח מערכות data מבוזרות / data Engineering
ניסיון בעבודה עם SQL וNoSQL
ניסיון עם טכנולוגיות עיבוד נתונים כגון Spark / Kafka / DBT
ניסיון בעבודה עם CI/CD וInfrastructure as Code
יכולת עבודה Hands-on וראייה מערכתית רחבה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8505768
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת SU רווחית ומצליחה המפתחת מערכת מצילת חיים לשעת חירום דרוש/ה Senior Software data Engineer
דרישות:
7+ שנות ניסיון כמהנדס/ת תוכנה עם מומחיות בהנדסת נתונים (ניסיון בפיתוח Scala או JAVA ).
תואר ראשון בהנדסת תוכנה, מדעי המחשב, מדעי המחשב, סטטיסטיקה, אינפורמטיקה, מערכות מידע או תחום כמותי אחר.
ניסיון בבנייה ואופטימיזציה של צינורות נתונים, ארכיטקטורות ומערכי נתונים של Big Data
ניסיון עם כלי Big Data ועיבוד זרמים (Kinesis, Kafka, Spark, Spark-Streaming, Storm וכו').
ניסיון עם שירותי ענן של AWS (EKS, EMR, RDS, Redshift).
ידע טוב ב-SQL וניסיון בעבודה עם מסדי נתונים יחסיים של SQL ו-NoSQL, כולל MySQL ו-DynamoDB.
ניסיון בביצוע ניתוח גורם שורש על נתונים ותהליכים פנימיים וחיצוניים כדי לענות על שאלות עסקיות ספציפיות ולזהות הזדמנויות לשיפור.
כישורי אנליטיקה חזקים הקשורים לעבודה עם מערכי נתונים לא מובנים וחצי מובנים.
בניית תהליכים התומכים בטרנספורמציה של נתונים, מבני נתונים, מטא- דאטה, תלות וניהול עומסי עבודה.
היסטוריה מוצלחת של מניפולציה, עיבוד והפקת ערך ממערכי נתונים גדולים.
ניסי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8492854
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בOne DatAI
סוג משרה: משרה מלאה
יישום והטמעה של פתרונות BI אנליטיים אצל לקוחות

ניתוח תהליכים עסקיים ופיננסיים ואופטימיזציה של תהליכי אנליזה קיימים

אפיון דרישות עסקיות ותרגומן לתוצרים אנליטיים

עבודה שוטפת מול גורמים עסקיים, כספים וטכנולוגיה

עבודה בסביבת Agile ובממשקים מרובים
דרישות:
ניסיון של לפחות שנתיים כאנליסט/ית פיננסי, BI / כלכלן/ית / מפתח/ת BI

ניסיון בעבודה מול לקוחות ובחברות גדולות

חשיבה אנליטית גבוהה וראייה תהליכית

יכולת אפיון והמרת דרישות עסקיות לתוצרים אנליטיים

ניסיון בסיסי בעבודה עם SQL

שליטה מעולה ב-Excel

אנגלית ברמה גבוהה מאוד

היכרות מעמיקה עם תהליכים פיננסיים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8449315
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
Location: Tel Aviv-Yafo
Hiring a data Platform Engineer to join a leading company based in Tel Aviv for the growing data and technology team 

What Youll Do:
Design, build, and maintain robust ETL /ELT pipelines that ingest data from diverse systems ( ERP, eCom platforms, APIs, files, etc.) 
Develop and optimize data lakes and data warehouse environments (Azure Synapse, Snowflake, or similar) 
Collaborate with data analysts and business teams to deliver high-quality datasets and modeling support 
Implement and automate data quality checks, validation routines, and cleansing procedures 
Monitor and troubleshoot pipeline performance, data delays, or failures 
Contribute to the standardization of schema, ation, and pipeline patterns
Requirements:
5+ years of experience in data engineering or data platform development 
Proficiency with SQL, PLSQL, and working with structured and semi-structured data (CSV, Parquet, JSON, APIs) 
Experience building and maintaining pipelines using ETL tools or frameworks (e.g., ADF, SSIS, dbt, Airflow) 
Familiarity with cloud data warehouse platforms such as Azure Synapse, Snowflake, Redshift, or BigQuery 
Strong communication skills and the ability to work cross-functionally 
Python or scripting knowledge - bonus
Experience in Azure or AWS, and familiarity with streaming tools - bonus
Background in retail or omni-channel data environments  - bonus
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8486668
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה עוסקת בפיתוח פתרונות data ו-Analytics בקנה מידה עצום, ומפעילה מערכות זמן-אמת שמבצעות עיבוד נתונים בהיקפים גבוהים במיוחד.

החברה ממוקמת באזור השרון, משלבת מודל עבודה הירידי ומונה מעל 1000 עובדים.

מהות התפקיד: חלק מצוות שאחראי על פתרון הסגמנטציה המתקדם בתעשייה. מטפלים ב-Pipelines מורכבים, עדכוני קהלים בזמן אמת, אינטגרציות עמוקות עם שותפי מדיה מובילים ובונים יכולות Predictive Audiences מבוססות AI. סטאק טכנולוגי: Scala, Spark, AWS, Microservices, Airflow.
דרישות:
- 6 שנות ניסיון בפיתוח backend
- 3 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח ב-Spark המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8513214
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק בתחום ה- Cyber security דרוש/ה Mid/Senior data engineer.
במסגרת התפקיד: עבודה בצוות מגוון מאוד, עבודה בתור data engineer
כולל עבודה בעיקר ב- Python, שימוש בכלי data חדישים ומובילים, עבודה מרובה מול
DB שונים וכן עבודה קבועה מול צוותי פיתוח מקבילים בחברה.
דרישות:
תואר ראשון טכנולוגי - חובה
4 שנות ניסיון בתור data engineer - חובה
רקע מעולמות הפיתוח backend - יתרון אך לא חובה
ניסיון מאוד מעמיק ב- Python - חובה
רקע רלוונטי בכלי data חדישים
אנגלית מעולה
רמה אישית גבוהה מאוד המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8486634
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
מחפשים data Scientist להצטרף לצוות הדאטה לתפקיד עם השפעה אמיתית על מוצרי ליבה
כולל שיפור פתרונות קיימים, מחקר, ניסויים ופיתוח יכולות חדשות מבוססות Machine Learning.
אחריות על: שיפור, תחזוקה והרחבה של מוצרי ML קיימים, תוך עמידה בסטנדרטים גבוהים של ביצועים ויציבות
פיתוח Pipelines ומוצרי ML ב- Python בצורה נקייה, יעילה וסקיילבילית
עבודה צמודה עם צוותי מוצר וגורמים עסקיים להתאמת פתרונות טכנולוגיים לצרכים עסקיים
תרומה למחקר יישומי, ניסויים ופיתוח מתמשך של המוצרים
מעקב אחר חידושים בעולם ה-ML ושיתוף ידע בתוך הצוות
דרישות:
לפחות 3 שנות ניסיון בתפקידי דאטה ( data Science / Analytics / data Engineering)
שליטה ב- Python וספריות ML נפוצות (Pandas, NumPy, Scikit-learn)
חשיבה אנליטית חזקה ויכולת פתרון בעיות מורכבות
ניסיון בתהליכי דאטה מקצה לקצה - מחקירה ועד פרודקשן ומוניטורינג
תואר ראשון במדעי המחשב / הנדסה / סטטיסטיקה או תחום רלוונטי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8510036
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בNishapro
Location: More than one
Job Type: Full Time and Hybrid work
For a fast-growing company in the renewable energy sector, a data Architect is required to lead the organization's data infrastructure.
What youll do:

Design and own a modern cloud-based data platform (Azure or equivalent).
Connect everything from SCADA/EMS/BMS to market APIs, ERP (Priority), and finance systems.
Define scalable models, ensure data quality security, and deliver trusted datasets.
Empower teams with analytics and Power BI dashboards.
Lay the groundwork for AI/ML: predictive maintenance, Storage optimization, forecasting.
Shape the long-term data strategy and grow the team.
Requirements:
What were looking for:

5+ years in data architecture/engineering.
Hands-on with cloud platforms, SQL Python.
Strong ETL /ELT large-scale dataset experience (time-series/IoT a plus).
Bonus: energy/industrial data, Priority ERP, energy trading.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8413026
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת הייטק מעולה שצומחת דרוש/ה Senior data engineer.
כחלק מהתפקיד: כניסה לצוות data קיים, לקיחת אחריות על פיתוחים מורכבים מאוד,
דיווח ישיר ל-Head of data בחברה, שימוש ב- Python, כלי data חדישים נגיעות לעיתים
ג-Scala וכן עבודה צמודה לצוותי פיתוח המקבילים בחברה
דרישות:
תואר ראשון טכנולוגי - חובה
צמיחה מעולמות backend - יתרון מאוד משמעותי
6 + שנות ניסיון בעולמות הדאטה
רקע של 4-5 שנים ומעלה בתור data engineer
ניסיון מעמיק ומוכח ב- Python - חובה
רקע כלשהו ב-Scala - יתרון אך לא חובה
ניסיון מוכח בכלי data מתקדמים
אנגלית ברמת שיחה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8500672
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בפרוסיד
מיקום המשרה: מספר מקומות
תיאור התפקיד:
הובלה, ניהול והנחיה של צוות מפתחי תוכנה ודאטה, תוך טיפוח מצוינות מקצועית וצמיחה אישית
שילוב Hands-on בפיתוח, Code Reviews וקבלת החלטות ארכיטקטוניות
תכנון, פיתוח ותחזוקה של שירותי תשתית נתונים סקיילביליים, אמינים ובטוחים
הובלת פרויקטים טכנולוגיים מורכבים מקצה לקצה
עבודה שוטפת עם Product Owners, ארכיטקטים וגורמים עסקיים להגדרת Roadmap טכנולוגי
קידום תרבות של חדשנות, שיפור מתמיד ואימוץ טכנולוגיות חדשות
אחריות על זמינות, ביצועים ו-Observability של מערכות הנתונים
זיהוי ופתרון תקלות מערכתיות מורכבות
ניהול תהליכי פיתוח, שגרות צוות, פגישות אישיות והערכות ביצועים
דרישות:
דרישות:
ניסיון של לפחות שנתיים בהובלה וניהול צוותי פיתוח תוכנה -חובה
בפיתוח מערכות נתונים מבוזרות בקנה מידה גדול ( data Engineering)- חובה
ניסיון בעיצוב ארכיטקטורת נתונים ועבודה עם בסיסי נתונים SQL ו-NoSQL- חובה
ניסיון מוכח בהטמעת פתרונות Observability - Metrics, Logging, Distributed Tracing- חובה
היכרות עם data Governance: איכות נתונים, Lineage, אבטחה ועמידה ברגולציה- חובה
ניסיון Hands-on עם DBT / Apache Spark / Kafka- חובה
ניסיון בעבודה עם CI/CD וכלי Infrastructure as Code (IaC)- חובה
היכרות עם Machine Learning Workflows ו-MLOps- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8506845
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בNishapro
איסוף, ניתוח ועיבוד של נתונים פיננסיים והתנהגותיים לצורך הבנה, מדידה וניהול של האשראי.
פיתוח ויישום מודלים סטטיסטיים ואלגוריתמים מתקדמים לניבוי סיכון, דירוג אשראי, סיווג לקוחות וזיהוי מגמות חריגות.
ביצוע ניתוחים אנליטיים לצורך תמיכה בהחלטות עסקיות, רגולטוריות וניהול סיכונים.
עבודה עם מאגרי נתונים גדולים ( Big Data ), תוך שימוש בכלי BI, SQL ושפות תכנות רלוונטיות (כגון Python / R).
בדיקות תקופתיות לבחינת ביצועי המודלים (Model Monitoring Validation) ושיפורם בהתאם לצורך.
משרה היברידית- יום 1 מהבית
מיקום- לוד
דרישות:
תואר ראשון לפחות בסטטיסטיקה / מתמטיקה / כלכלה / מדעי המחשב / הנדסה תעשייה וניהול או תחום רלוונטי - חובה
ניסיון של שנתיים לפחות כאנליסט/ית נתונים או מפתח/ת מודלים חובה
עדיפות לניסיון בתחום הפיננסים/בנקאות.
שליטה גבוהה ב- SQL - חובה - שנתיים אחרונות לפחות
ניסיון בעבודה עם Python או SAS לצורך ניתוח סטטיסטי ופיתוח מודלים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8471406
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
חברה פיננסית באזור מרכז מגייסת ראש/ת צוות Digital Application data
התפקיד כולל: הובלה, הנחיה וניהול של צוות מפתחי תוכנה, תכנון, פיתוח ותחזוקה של שירותי תשתית סקיילביליים עם דגש על ביצועים, אמינות, אבטחה ועוד.
דרישות:
- 3 שנות ניסיון בפיתוח מערכות נתונים מבוזרות בקנה מידה גדול
- שנתיים ניסיון ניהולי בהובלת צוותי פיתוח תוכנה
- שליטה בעיצוב ארכיטקטורת נתונים ובטכנולוגיות backend
- ניסיון בעבודה עם בסיסי נתונים מסוג SQL ו-NoSQL המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8507072
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are Crafting Tomorrow's Retail Experience
We started with a simple question: How can vision AI make shopping better for everyone? Today, our team of passionate experts is transforming how people shop and how retailers operate, one store at a time.
Our goal is to solve real retail challenges by developing advanced computer vision AI that prevents loss, enables grab-and-go shopping, and turns store data into valuable insights, all while delivering clear value from day one.
With multiple global deployments, deep partnerships with leading retailers, and a product suite thats proving its impact every day, our company isnt just imagining the future of retail, were building it.
We are looking for a Data Engineer to join our Customer Performance team and help shape the foundation of our companys data platform.
You will own the data layer, evolve our BI semantic layer on a modern BI platform, and enable teams across the company to access and trust their data. Working closely with analysts and stakeholders in Operations, Product, R&D, and Customer Success, youll turn complex data into insights that drive performance and customer value.
A day in the life
Build and expand our companys analytics data stack
Design and maintain curated data models that power self-service analytics and dashboards
Develop and own the BI semantic layer on a modern BI platform
Collaborate with analysts to define core metrics, KPIs, and shared business logic
Partner with Operations, R&D, Product, and Customer Success teams to translate business questions into scalable data solutions
Ensure data quality, observability, and documentation across datasets and pipelines
Support complex investigations and ad-hoc analyses that drive customer and operational excellence.
Requirements:
6+ years of experience as a Data Engineer, Analytics Engineer, or similar hands-on data role
Strong command of SQL and proficiency in Python for data modeling and transformation
Experience with modern data tools such as dbt, BigQuery, and Airflow (or similar)
Proven ability to design clean, scalable, and analytics-ready data models
Familiarity with BI modeling and metric standardization concepts
Experience partnering with analysts and stakeholders to deliver practical data solutions
A pragmatic, problem-solving mindset and ownership of data quality and reliability
Excellent communication skills and ability to connect technical work with business impact
Nice to have
Experience implementing or managing BI tools such as Tableau, Looker, or Hex
Understanding of retail, computer vision, or hardware data environments
Exposure to time-series data, anomaly detection, or performance monitoring
Interest in shaping a growing data organization and influencing its direction.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8514427
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
מפתח/ת אינטגרציה Hands-On לצוות טכנולוגיות ודיגיטל, לפיתוח ותחזוקת ממשקי API (REST/SOAP) ותהליכי data בין מערכות ליבה, מערכות חיצוניות ו- BI, כולל עבודה עם SQL, CI/CD וסטנדרטים מעולם הבריאות.
תל אביב.
קו"ח למייל. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8513265
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Operate and debug object store-backed data lake infrastructure, enabling schema-on-read access, high-throughput ingestion, advanced searching strategies, and performance tuning for large-scale workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8512434
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Your Mission As a Senior Data Engineer, your mission is to build the scalable, reliable data foundation that empowers us to make data-driven decisions. You will serve as a bridge between complex business needs and technical implementation, translating raw data into high-value assets. You will own the entire data lifecycle-from ingestion to insight-ensuring that our analytics infrastructure scales as fast as our business.

Key Responsibilities:
Strategic Data Modeling: Translate complex business requirements into efficient, scalable data models and schemas. You will design the logic that turns raw events into actionable business intelligence.
Pipeline Architecture: Design, implement, and maintain resilient data pipelines that serve multiple business domains. You will ensure data flows reliably, securely, and with low latency across our ecosystem.
End-to-End Ownership: Own the data development lifecycle completely-from architectural design and testing to deployment, maintenance, and observability.
Cross-Functional Partnership: Partner closely with Data Analysts, Data Scientists, and Software Engineers to deliver end-to-end data solutions.
Requirements:
What You Bring:
Your Mindset:
Data as a Product: You treat data pipelines and tables with the same rigor as production APIs-reliability, versioning, and uptime matter to you.
Business Acumen: You dont just move data; you understand the business questions behind the query and design solutions that provide answers.
Builders Spirit: You work independently to balance functional needs with non-functional requirements (scale, cost, performance).
Your Experience & Qualifications:
Must Haves:
6+ years of experience as a Data Engineer, BI Developer, or similar role.
Modern Data Stack: Strong hands-on experience with DBT, Snowflake, Databricks, and orchestration tools like Airflow.
SQL & Modeling: Strong proficiency in SQL and deep understanding of data warehousing concepts (Star schema, Snowflake schema).
Data Modeling: Proven experience in data modeling and business logic design for complex domains-building models that are efficient and maintainable.
Modern Workflow: Proven experience leveraging AI assistants to accelerate data engineering tasks.
Bachelors degree in Computer Science, Industrial Engineering, Mathematics, or an equivalent analytical discipline.
Preferred / Bonus:
Cloud Data Warehouses: Experience with BigQuery or Redshift.
Coding Skills: Proficiency in Python for data processing and automation.
Big Data Tech: Familiarity with Spark, Kubernetes, Docker.
BI Integration: Experience serving data to BI tools such as Looker, Tableau, or Superset.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8511741
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Are you a talented and experienced Data Engineer? If so, we want you to be part of our dynamic Data Engineering Team, a part of the R&D, contributing to our vision and making a difference in the eCommerce landscape. Join us on this journey as we seek the best and brightest minds to drive our mission forward.

Responsibilities:
Developing, implementing and supporting robust, scalable solutions to improve business analysis capabilities.
Managing data pipelines from multiple sources, including designing, implementing, and maintaining.
Translating business priorities into data models by working with business analysts and product analysts.
Collaborate across the business with various stakeholders, such as data developers, systems analysts, data scientists and software engineers.
Owning the entire data development process, including business knowledge, methodology, quality assurance, and maintenance.
Work independently while considering all functional and non-functional aspects and provide high quality and robust infrastructures to the organization.
Requirements:
What you need:
Bachelors degree in Computer Science, Industrial engineering, Maths, or other numerate/analytical degree equivalent.
4 years of experience working as a BI Developer / Data Engineer or a similar role.
Advanced proficiency and deep understanding of SQL.
Skills in data modeling, business logic processes, as well as experience with DWH design.
An enthusiastic, fast-learning, team-player, motivated individual who loves data.

Advantage:
Experience working with DBT (big advantage).
Knowledge in BI tools such as Looker, Tableau or Superset.
Experience with Python.
Experience working with DWH, such as BigQuery/Snowflake/Redshift.
Experience working with Spark, Kubernetes, Docker.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8511686
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Engineer to join our growing team!
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
In this role, you will be responsible for:
Designing, building, and maintaining scalable data pipeline architectures
Developing ETL processes to integrate data from multiple sources
Creating and optimizing data models for efficient storage and retrieval
Implementing data quality controls and monitoring systems
Collaborating with data scientists and analysts to deliver data solutions
Building and maintaining data warehouses and data lakes
Performing in-depth data analysis and providing insights to stakeholders
Taking full ownership of data quality, documentation, and governance processes
Building and maintaining comprehensive reports and dashboards
Ensuring data security and regulatory compliance.
Requirements:
Bachelor's degree in Computer Science, Engineering, or related field
3+ years experience in data engineering
Strong proficiency in SQL and Python
Experience with ETL tools and data warehousing solutions
Knowledge of big data technologies (Hadoop, Spark, etc.)
Experience with cloud platforms (AWS, Azure, or GCP)
Understanding of data modeling and database design principles
Familiarity with data visualization tools - Tableau, Sisense
Strong problem-solving and analytical skills
Excellent communication and collaboration abilities
Experience with version control systems (Git).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8511545
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Senior Data Engineer
About us:
A pioneering health-tech startup on a mission to revolutionize weight loss and well-being. Our innovative metabolic measurement device provides users with a comprehensive understanding of their metabolism, empowering them with personalized, data-driven insights to make informed lifestyle choices.
Data is at the core of everything we do. We collect and analyze vast amounts of user data from our device and app to provide personalized recommendations, enhance our product, and drive advancements in metabolic health research. As we continue to scale, our data infrastructure is crucial to our success and our ability to empower our users.
About the Role:
As a Senior Data Engineer, youll be more than just a coder - youll be the architect of our data ecosystem. Were looking for someone who can design scalable, future-proof data pipelines and connect the dots between DevOps, backend engineers, data scientists, and analysts.
Youll lead the design, build, and optimization of our data infrastructure, from real-time ingestion to supporting machine learning operations. Every choice you make will be data-driven and cost-conscious, ensuring efficiency and impact across the company.
Beyond engineering, youll be a strategic partner and problem-solver, sometimes diving into advanced analysis or data science tasks. Your work will directly shape how we deliver innovative solutions and support our growth at scale.
Responsibilities:
Design and Build Data Pipelines: Architect, build, and maintain our end-to-end data pipeline infrastructure to ensure it is scalable, reliable, and efficient.
Optimize Data Infrastructure: Manage and improve the performance and cost-effectiveness of our data systems, with a specific focus on optimizing pipelines and usage within our Snowflake data warehouse. This includes implementing FinOps best practices to monitor, analyze, and control our data-related cloud costs.
Enable Machine Learning Operations (MLOps): Develop the foundational infrastructure to streamline the deployment, management, and monitoring of our machine learning models.
Support Data Quality: Optimize ETL processes to handle large volumes of data while ensuring data quality and integrity across all our data sources.
Collaborate and Support: Work closely with data analysts and data scientists to support complex analysis, build robust data models, and contribute to the development of data governance policies.
Requirements:
Bachelor's degree in Computer Science, Engineering, or a related field.
Experience: 5+ years of hands-on experience as a Data Engineer or in a similar role.
Data Expertise: Strong understanding of data warehousing concepts, including a deep familiarity with Snowflake.
Technical Skills:
Proficiency in Python and SQL.
Hands-on experience with workflow orchestration tools like Airflow.
Experience with real-time data streaming technologies like Kafka.
Familiarity with container orchestration using Kubernetes (K8s) and dependency management with Poetry.
Cloud Infrastructure: Proven experience with AWS cloud services (e.g., EC2, S3, RDS).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8510072
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time
our company Security is one of the main pillars of our company's long-term strategy. We are pushing the boundaries of security analysis for both binaries and code, shifting left and delivering powerful capabilities to developers and DevOps teams. We are looking for an experienced Senior Database Engineer with deep PostgreSQL expertise and strong application-side awareness to join our DevOps organization and support multiple R&D teams at scale.
As a Senior Database Engineer at our company Security you will
Own PostgreSQL performance, scalability, and reliability across large-scale security and scanning workloads
Deep dive into database performance issues, including query optimization, execution plans, indexing strategies, locking, bloat, vacuuming, and connection management
Work closely with application teams to optimize database access patterns from services and APIs
Review application code and SQL usage with a focus on correctness, performance, and scalability
Design, evolve, and optimize schemas and migrations for long-lived, high-volume datasets
Support and fine-tune PostgreSQL in both cloud-managed environments, such as RDS and self-managed deployments
Establish best practices, standards, and guidelines for PostgreSQL usage across teams
Mentor engineers and raise the overall database maturity of the organization
Act as a trusted expert for troubleshooting complex production database incidents.
Requirements:
5+ years of hands-on experience working with PostgreSQL in production high-scale environments
Proven expertise in PostgreSQL performance tuning, optimization, and internals
Excellent SQL skills, including complex and performance-critical queries
Strong understanding of how applications interact with databases, including connection pools, ORMs, transaction patterns, and failure modes
Experience working with large datasets up to a few TBs in volume and high concurrency with 5000+ connections
Familiarity with Go and/or Python at a level sufficient for code review and performance analysis - an advantage
Experience with both cloud-managed PostgreSQL and self-managed deployments
Solid understanding of schema design, migrations, and backward-compatible data evolution
Ability to work cross-team as part of a DevOps organization providing shared infrastructure and expertise
Strong communication skills with the ability to mentor, influence standards, and guide teams under pressure.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509945
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a DevOps Engineer (Data Platform Group).
Main responsibilities:
Data Architecture Direction: Provide strategic direction for our data architecture, selecting the appropriate componments for various tasks. Collaborate on requirements and make final decisions on system design and implementation.
Project Management: Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Cost Optimization: Monitor and optimize cloud costs associated with data infrastructure and processes.
Efficiency and Reliability: Design and build monitoring tools to ensure the efficiency, reliability, and performance of data processes and systems.
DevOps Integration: Implement and manage DevOps practices to streamline development and operations, focusing on infrastructure automation, continuous integration/continuous deployment (CI/CD) pipelines, containerization, orchestration, and infrastructure as code. Ensure scalable, reliable, and efficient deployment processes.
Our stack: Azure, GCP, Kubernetes, ArgoCD, Jenkins, Databricks, Snowflake, Airflow, RDBMS, Spark, Kafka, Micro-Services, bash, Python, SQL.
Requirements:
5+ Years of Experience: Demonstrated experience as a DevOps professional, with a strong focus on big data environments, or Data Engineer with strong DevOps skills.
Data Components Management: Experiences managing and designing data infrastructure, such as Snowflake, PostgreSQL, Kafka, Aerospike, and Object Store.
DevOps Expertise: Proven experience creating, establishing, and managing big data tools, including automation tasks. Extensive knowledge of DevOps concepts and tools, including Docker, Kubernetes, Terraform, ArgoCD, Linux OS, Networking, Load Balancing, Nginx, etc.
Programming Skills: Proficiency in programming languages such as Python and Object-Oriented Programming (OOP), emphasizing big data processing (like PySpark). Experience with scripting languages like Bash and Shell for automation tasks.
Cloud Platforms: Hands-on experience with major cloud providers such as Azure, Google Cloud, or AWS.
Preferred Qualifications:
Performance Optimization: Experience in optimizing performance for big data tools and pipelines - Big Advantage.
Security Expertise: Experience in identifying and addressing security vulnerabilities within the data platform - Big Advantage.
CI/CD Pipelines: Experience designing, implementing, and maintaining Continuous Integration/Continuous Deployment (CI/CD) pipelines - Advantage.
Data Pipelines: Experience in building big data pipelines - Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509784
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Senior Data Engineer.
Main responsibilities:
Provide the direction of our data architecture. Determine the right tools for the right jobs. We collaborate on the requirements and then you call the shots on what gets built.
Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Optimize and monitor the team-related cloud costs.
Design and construct monitoring tools to ensure the efficiency and reliability of data processes.
Implement CI/CD for Data Workflows
Requirements:
5+ Years of Experience in data engineering and big data at large scales. - Must
Extensive experience with modern data stack - Must:
Snowflake, Delta Lake, Iceberg, BigQuery, Redshift
Kafka, RabbitMQ, or similar for real-time data processing.
Pyspark, Databricks
Strong software development background with Python/OOP and hands-on experience in building large-scale data pipelines. - Must
Hands-on experience with Docker and Kubernetes. - Must
Expertise in ETL development, data modeling, and data warehousing best practices.
Knowledge of monitoring & observability (Datadog, Prometheus, ELK, etc)
Experience with infrastructure as code, deployment automation, and CI/CD.
Practices using tools such as Helm, ArgoCD, Terraform, GitHub Actions, and Jenkins.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509776
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking an outstanding and passionate Data Platform Engineer to join our growing R&D team.

You will work in an energetic startup environment following Agile concepts and methodologies. Joining the company at this unique and exciting stage in our growth journey creates an exceptional opportunity to take part in shaping our data infrastructure at the forefront of Fintech and AI.

What you'll do:

Design, build, and maintain scalable data pipelines and ETL processes for our financial data platform.

Develop and optimize data infrastructure to support real-time analytics and reporting.

Implement data governance, security, and privacy controls to ensure data quality and compliance.

Create and maintain documentation for data platforms and processes.

Collaborate with data scientists and analysts to deliver actionable insights to our customers.

Troubleshoot and resolve data infrastructure issues efficiently.

Monitor system performance and implement optimizations.

Stay current with emerging technologies and implement innovative solutions.
Requirements:
What you'll bring:

3+ years experience in data engineering or platform engineering roles.

Strong programming skills in Python and SQL.

Experience with orchestration platforms like Airflow/Dagster/Temporal.

Experience with MPPs like Snowflake/Redshift/Databricks.

Hands-on experience with cloud platforms (AWS) and their data services.

Understanding of data modeling, data warehousing, and data lake concepts.

Ability to optimize data infrastructure for performance and reliability.

Experience working with containerization (Docker) in Kubernetes environments.

Familiarity with CI/CD concepts.

Fluent in English, both written and verbal.

And it would be great if you have (optional):

Experience with big data processing frameworks (Apache Spark, Hadoop).

Experience with stream processing technologies (Flink, Kafka, Kinesis).

Knowledge of infrastructure as code (Terraform).

Experience building analytics platforms.

Experience building clickstream pipelines.

Familiarity with machine learning workflows and MLOps.

Experience working in a startup environment or fintech industry.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509718
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a highly skilled Senior Database Engineer to join our DBA team. In this role, youll design and optimize our large-scale database infrastructure while ensuring high availability, scalability, and performance. In your day-to-day, you will:
Design and optimize our large-scale database infrastructure to meet high availability and performance standards
Identify cost-effective areas for improvement in current databases
Collaborate with developers and software architects to model, create, and maintain robust data structures and the data layer
Lead and execute technical database-related POCs and benchmarks
Conduct regular audits of database design to ensure quality and compliance with service level agreements (SLAs)
Quickly identify and resolve critical production issues and provide on-call support as needed.
Requirements:
10+ years of hands-on production experience with MySQL, MongoDB, RDBMS, and NoSQL databases
Proven track record as a Senior Database Engineer, Technical Leader, or DBA TL with significant experience leading major database initiatives
Strong expertise in Data Solution Architecture, including high availability, scalability, backups, and disaster recovery (DR), data modeling, performance tuning, as well as conducting POCs and benchmarks
Experience with cloud platforms such as AWS and/or GCP and their data products
Fast learner with extensive infrastructure knowledge of Unix/Linux systems
Excellent interpersonal communication skills to collaborate effectively with professionals across various departments
Passion for automation, experience with tools like Ansible/Jenkins/Puppet/Chef - an advantage
Knowledge of AI technologies and their applications in database management or optimizations, including experience with AI-driven analytics or machine learning models - an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509688
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Data Engineer - ML & GenAI Platform
Job Description
As a data engineer in our data science group, youll build, use, and enhance our ML and GenAI platforms, powering data products and LLM-based services across. Youll design and operate data and MLOps infrastructure for batch inference, knowledge-base workflows, evaluation metrics, and fine-tuning pipelines. Collaborating with data scientists, product managers, and engineers, youll bring AI features into production at scale.
Extend and implement new capabilities in ML and GenAI platforms
Design and maintain scalable, reliable data architectures and pipelines for model training, LLM fine-tuning, inference, and evaluation
Develop and maintain Airflow DAGs for metrics calculation, batch inference, KB workflows, and other data science projects
Collaborate with data scientists and engineers to integrate models and GenAI features into production systems Ensure high-quality code through best practices in testing, code reviews, documentation, and CI/CD for data and ML workloads
Work with tools and platforms like Airflow, Spark, Docker, Python Serverless, Kafka, and multiple cloud environments to deliver scalable, cost-effective GenAI solutions.
Requirements:
Were looking for a technically proficient engineer with expertise in data, a passion for ML and GenAI, and the ability to identify and solve complex problems.
3+ years of experience in data engineering or building data-intensive systems
Proficient in Python and SQL with hands-on experience building data pipelines and production-grade services
Practical experience with Airflow, Spark, and Docker
Knowledge of or strong interest in data science and machine learning
Experience or strong interest in GenAI platforms and LLM-based services
Excellent communication and collaboration skills to work with cross-team stakeholders
Experience in cloud environments like AWS and/or GCP - an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8506295
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Senior Backend Developer.
What You'll Do:
Design and implement end-to-end features and services within a multi-service architecture.
Build and maintain a scalable data platform, incorporating advanced business logic and developing asynchronous, data-oriented, and scalable services.
Continuously improve and enhance the current data platform to ensure reliability, scalability, and performance.
Enhance and extend the functionality of existing systems.
Requirements:
5+ years as a Data Engineer or Backend Developer.
Proficient in Python; advanced skills are a plus.
Experience designing scalable data platforms, preferably in SaaS.
Expertise in building, optimizing, and maintaining large-scale production systems.
Hands-on with ETL/ELT pipelines, focusing on monitoring, supportability, and resource efficiency.
Strong knowledge of orchestration tools (e.g., Apache Airflow, Dagster).
Clear communication of technical processes to non-technical stakeholders.
Proven ability to design scalable, cloud-based systems in SaaS environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504305
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
It starts with you - an engineer who cares about building data pipelines and models that deliver reliable, trusted data. You value data quality, clean transformations, and making data accessible to those who need it. Youll work alongside experienced engineers to build ETL/ELT pipelines, maintain dimensional models, and implement quality checks that turn raw data into actionable intelligence.
If you want to grow your skills building data products for mission-critical AI, join mission - this role is for you.
:Responsibilities
Build and maintain ETL/ELT pipelines using platform tooling - workflows that extract from sources, apply transformations, and load into analytical stores.
Develop and maintain data models - fact/dimension tables, aggregations, and views that serve analytics and ML use cases.
Implement data quality checks - validation rules, tests, and monitoring for data freshness and accuracy.
Maintain documentation and lineage - keeping data catalogs current and helping consumers understand data sources and transformations.
Work with stakeholders to understand data requirements and implement requested data products.
Troubleshoot pipeline failures - investigating issues, fixing bugs, and improving reliability.
Write clean, tested, well-documented SQL and Python code.
Collaborate with Data Platform on tooling needs; work with Datastores on database requirements; partner with ML, Data Science, Analytics, Engineering, and Product teams on data needs.
Design retrieval-friendly data artifacts - RAG-supporting views, feature tables, and embedding pipelines - with attention to freshness and governance expectations.
Requirements:
3+ years in data engineering, analytics engineering, BI development, or software engineering with strong SQL focus.
Strong SQL skills; complex queries, window functions, CTEs, query optimization basics
Data modeling - Understanding of dimensional modeling concepts; fact/dimension tables, star schemas
Transformation frameworks - Exposure to dbt, Spark SQL, or similar; understanding of modular, testable transformations
Orchestration - Familiarity with Airflow, Dagster, or similar; understanding of DAGs, scheduling, dependencies
Data quality - Awareness of data validation approaches, testing strategies, and quality monitoring
Python - Proficiency in Python for data manipulation and scripting; pandas, basic testing
Version control - Git workflows, code review practices, documentation
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504288
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן -73 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >