רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בפרוסיד
פרוסיד מגייסת data Engineer (Modern data Stack) להובלת פרויקטי דאטה ו-AI חדשניים!

תיאור התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בענן (AWS / GCP / Azure)
בנייה וניהול End-to-End של data Pipelines איסוף, עיבוד, טרנספורמציה ואחסון נתונים
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים (dbt)
עבודה Hands-on עם DWH מודרניים בענן (Snowflake / BigQuery / Redshift)
פיתוח והטמעת פתרונות AI / GenAI / ML בסביבות ענן (Vertex AI / SageMaker), כולל Prompt Engineering
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins, GitLab CI
עבודה צמודה עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום פתרונות מקצה לקצה
הובלת PoC, בחינת טכנולוגיות חדשות ושילוב חדשנות בתהליכי דאטה
אופטימיזציה של תהליכי דאטה קיימים ושיפור ביצועים, אמינות ואיכות נתונים
דרישות:
דרישות חובה:
לפחות שנה ניסיון כ- data Engineer
ניסיון בעבודה עם פלטפורמות ענן (AWS / GCP / Azure)
ניסיון Hands-on עם מחסני נתונים מודרניים בענן (Snowflake / BigQuery / Redshift)
שליטה מלאה ב-SQL וב- Python
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt)
ניסיון בעבודה עם כלי BI (Looker / Power BI / Tableau / QuickSight) ו/או ניסיון כ- BI Developer
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI)
ניסיון Hands-on בפיתוח פתרונות AI / GenAI / ML בענן (Vertex AI / SageMaker) + ניסיון ב-Prompt Engineering
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות
אנגלית טכנית ברמה גבוהה (קריאה, כתיבה ודיבור)

יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות ( data Mesh / data Fabric)
ניסיון בכתיבת אפיונים טכניים ופונקציונליים
ניסיון עם כלי data Governance, data Catalog, data Quality Observability המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405965
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 17 שעות
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברת Startup אשר פיתחה מוצר שעוסק בהגנה על זכויות יוצרים המבוסס AI.
כמו כן, מספקת פתרונות למוסדות חינוך ולעסקים לשמירה על היושרה ומניעת העתקות.
דרישות:
3 שנות ניסיון כ- data Engineer
ניסיון עם Python - חובה
ניסיון בסביבת ענן - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8391545
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 17 שעות
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.
This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
35 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS-based data technologies.

Experience in building and maintaining advanced data pipelines from various data sources.

Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI, Tableau.
Experience with scripting/coding languages such as Python.
Ability to work independently, with attention to detail and strong initiative.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8236697
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 18 שעות
דרושים בעידור מחשבים בע"מ
תנאים נוספים:החזר הוצאות, קרן השתלמות
דרוש data engineer להשתלבות בעבודת הצוות ופרויקטים בתחום ה AI.
אחריות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה הדוק עם data Scientist.
עיצוב ופיתוח של תהליכי דאטה קריטיים, מגוונים וגדולים גם בסביבות ענן וגם ב on prem
דרישות:
ניסיון של לפחות 3 שנים כ data engineer - חובה
ניסיון של 3 שנים עם Python בדגש על עבודה עם קבצי json ועבודה מול בסיסי נתונים חובה
ניסיון מעשי של שנתיים לפחות ב AWS עם services של Athena/Glue/StepFunction/EMR/Redshift/RDS חובה
עבודה מול קבצי טקסט למטרות AI ו LLM יתרון משמעותי
ניסיון מעשי עם Spark עבור Large scale data -יתרון משמעותי
עבודה מול שירותי REST API -יתרון משמעותי
הבנות של טכניקות של אופטימיזציה ועבודה עם partitions של סוגים שונים של דאטה כמו parquet, Avro, hdfs, delta lake
ניסיון בתפיסה ועבודה עם docker, Linux, CI/CD tools, Kubernetes
הכרות עם פתרונות GenAI / prompt engineering יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405427
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 18 שעות
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת Start Up חדשנית העוסקת בתחום ה- data Infrastructure דרוש/ה data Engineer.
החברה מפתחת פלטפורמת AI לניהול וייעול תהליכי עבודה עם data.
במסגרת התפקיד הובלת תחום הData כפונקציה הראשונה בחברה, עבודה צמודה עם לקוחות בארהב לתכנון ויישום data Solutions על גבי פלטפורמת הSaaS של החברה, תרגום צרכים עסקיים לScalable data Architecture, ופיתוח POCs ואינטגרציות עם מערכות מודרניות כגון Snowflake, dbt, BigQuery וRedshift.
ממוקמים בתל-אביב ועובדים 3 ימים מהבית.
דרישות:
7 ומעלה שנות ניסיון בתחום data Engineering או data Architecture
אנגלית ברמת שפת אם
הבנה טכנית מעמיקה של פלטפורמות נתונים מודרניות (כגון: Snowflake, BigQuery, dbt, Databricks, Airflow ועוד).
ניסיון מעשי בבנייה ופריסה של data Pipelines ואינטגרציות בסביבות ענן (AWS, GCP או Azure).
שליטה מעולה ב-SQL וניסיון בעבודה עם סביבות נתונים מורכבות.
יכולת ועניין בביצוע Hands-On, כולל למידה מעמיקה של סביבת הנתונים, הבנת המשמעות העסקית שלהם ופתרון תקלות בצינורות נתונים, טרנספורמציות או שאילתות. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8398342
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 22 שעות
דרושים בGotFriends
סוג משרה: משרה מלאה
החברה מפתחת פלטפורמת אבטחה מבוססת ענן שמשלבת ניתוחים לזיהוי והערכה של איומי סייבר ושימוש בטכנולוגיות בתחומי Big Data, Machine Learning. הם מתחברים לכל סביבות הענן ומספקים הגנה מקיפה ללקוחות המפעילים עומסי עבודה בענן הציבורי עם הגנות מרובות שכבות המאבטחות את סביבת הענן.

החברה ממוקמת באזור המרכז- קו רכבת, משלבת מודל עבודה היברידי ומונה 40 עובדים.

מהות התפקיד: חלק מצוות בתוך קבוצת R D רחבה, עם ציפייה ליכולות Hands-on וגם ללקיחת אחריות טכנית בהובלת פתרונות. קוד ב- Python ו-GO חלוקה שווה.
דרישות:
- 5 שנות ניסיון כ- data Engineer
- שנתיים ניסיון בפיתוח Big Data
- ניסיון בפיתוח ב- JAVA /Scala
- ניסיון בפיתוח עם AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8393362
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 22 שעות
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת טכנולוגיה מבוססת AI ואלגוריתמיקה חכמה המאפשר לבעלי אפליקציות להגיע לקהל המשתמשים הרלוונטי ביותר עבורם על ידי חיזוי התעניינות בזמן אמת וניתוח data ב-Scale עצום.
החברה ממוקמת בתל אביב- קו רכבת, משלבת מודל עבודה היברידי ומונה 75 עובדים.
מהות התפקיד: חלק מצוות, עבודה ב-Production עם Apache Spark בקנה מידה גדול, קידוד ב- Python בסביבת (AWS), S3, EMR, Athena, Glue. נדרשת מומחיות בתכנון ותחזוקה של צינורות ETL בעזרת כלי אורסטרציה כמו Airflow או דומים.
דרישות:
- 6 שנות ניסיון כ- data Engineer/ backend
- ניסיון בפיתוח ב-Spark
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח עם AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8404741
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 22 שעות
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מאפשרת לעסקים לצמוח באמצעות טכנולוגיית פרסום מבוסס ביצועים, החורגת מגבולות החיפוש והרשתות החברתיות ומספקת תוצאות מדידות בהיקפים גדולים. פלטפורמת הפרסום המתקדמת של החברה מגיעה לכ-600 מיליון משתמשים יומיים פעילים דרך כמה מהאתרים המובילים בעולם.

החברה ממוקמת באזור המרכז- קו רכבת, משלבת מודל עבודה היברידי ומונה 2000 עובדים גלובלית, 600 מתוכם בארץ.

מהות התפקיד: חלק מצוות אלגוריתמים שנמצא במחלקת ה-Platform וכולל עיסוק ב- Machine Learning ברמה גבוהה, בעיקר Machine Learning הנדסי, משימות ה-Deployment ב-Production, בניית מערכות גדולות ומורכבות Large Scale Systems, פיתוח Machine Learning Pipelines, Machine Learning Infrastructure. קידוד ב- JAVA וב- Python באופן שווה, 50% ב- JAVA. סטאק טכנולוגי: JAVA, Python, TensorFlow, Spark, Kafka, Cassandra, HDFS, Vespa.ai, Elasticsearch, Airflow, BigQuery, Google Cloud Platform, Kubernetes, Docker, Git and Jenkins.
דרישות:
- 5 שנות ניסיון כ- data Engineer
- ניסיון כלשהו ב- Machine Learning
- ניסיון בפיתוח ב- Python המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8404656
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה גלובאלית המפתחת פלטפורמת SaaS בתחום ה-HR דרוש/ה Senior data Engineer. המערכת שלהם מיועדת לכלל העובדים ומאפשרת לנהל את תהליך ה-Life Cycle של העובד מרגע הקליטה ועד הסיום.
לחברה מעל ל-3,500 לקוחות פעילים בארץ ובחו"ל.
יושבים בתל אביב ומשלבים מודל עבודה הבירידי.
דרישות:
5+ שנות ניסיון כ- data Engineer
לפחות שנתיים ניסיון בתפקיד בכיר עם הובלה של מערכות Production
שליטה חזקה בכתיבת קוד ב- Python, Kotlin, JAVA או Scala,
ניסיון בעבודה עם Big Data המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8395768
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne data
הזדמנות להשתלב בצוות data מתקדם ולהוביל פיתוח תהליכי ETL מקצה לקצה, עבודה מול בסיסי נתונים מגוונים ותמיכה בפיתוח דוחות ודשבורדים באמצעות כלי BI מתקדמים.
דרישות:
פיתוח תהליכי ETL מקצה לקצה, בעיקר ב-SSIS
עבודה שוטפת מול בסיסי נתונים מגוונים
תמיכה ובניית דוחות ודשבורדים בPower BI / SSRS
שילוב בעבודה עם שירותים אנליטיים בענן Redshift, Aurora, QuickSight המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8265271
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne data
בנייה ואופטימיזציה של שאילתות Splunk ותהליכי Ingestion
עבודה עם Kafka, APIs לוגים ומקורות נוספים
העשרת נתונים בזמן אמת והקמת מערך התראות
שיתוף פעולה עם צוותי Dev, DevOps ומוניטורינג
דרישות:
לפחות 3 שנות ניסיון עם Splunk
ידע חזק בSPL - לוחות בקרה, מאקרו, ביצועים
ניסיון עם מערכות מבוססות אירועים (Kafka, REST APIs)
שליטה בJSON, XML ונתונים חצי-מובנים
סקריפטינג בPython או Bash
יכולת עבודה עצמאית והובלת פתרונות ברמת פרודקשן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8265056
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בLog-On Software
מיקום המשרה: מספר מקומות
מתן שירותי מידע - מענה לשאלות בנושא כריית מידע ממחסן הנתונים
יישום והטמעת מתודולוגיות עבודה ובקרה על שלמות המידע.
יישום ופיתוח דו"חות ו- ETL בכלי SSBI - Excel services, Qlik Sense,PBI.
ניתוח תהליכי BI כתמיכה לפניות בנושא תקלות.
דרישות:
ניסיון קודם של שלוש שנים לפחות כ- data ANALYST - חובה.
ידע וניסיון מוכח ב- SQL ברמה גבוהה (כולל שאילתות מורכבות, פונקציות שונות) - חובה.
ידע וניסיון מוכח ב-Excel ברמה גבוהה (VLOOKUP, נוסחאות מורכבות וכו') - חובה.
הכרות עם כלי תחקור שונים (Power BI, Qlik וכו') - חובה.
ידע וניסיון ב- Python - חובה! המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7919925
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בסיסטמטיקס
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
סיסטמטיקס מקדמת את האפקטיביות והיעילות הארגונית, על ידי שיווק טכנולוגיות מיחשוב חדשניות ויישומן בתהליכי עבודה מתקדמים.
לצוות השיווק של החברה דרוש/ה אנליסט/ית שיווקי/ת משרה המתאימה לבוגרי/ות תואר ראשון בתחומים רלוונטיים, עם ניסיון של שנה-שנתיים בניתוח נתונים ובסיסי נתונים.
תחומי אחריות:
ביצוע אנליזות מתקדמות לנתוני פעילות השיווק, ניתוח קמפיינים, מדדי KPI ואיסוף תובנות עסקיות לפעילויות השיווק.
תחזוקה, טיוב והעשרת בסיסי הנתונים של מחלקת השיווק.
זיהוי מגמות, אפיון התנהגות וצרכי לקוחות קיימים ופוטנציאליים.
בחינה וניתוח של פעילות המתחרים בשוק וטרנדים.
הפקת דוחות אינטראקטיביים ומצגות.
עבודה שוטפת בצוות שיווק דינמי ובסביבה טכנולוגית מתקדמת.
דרישות:
תואר ראשון רלוונטי.
ניסיון של שנה-שנתיים בעבודה אנליטית, ניתוח נתוני שיווק ובסיסי נתונים (SQL/Excel/ BI ).
היכרות עם מערכות CRM ומערכות Marketing Automation - יתרון.
יכולת עבודה עצמאית ובצוות, סדר וארגון, ירידה לפרטים ויכולת הצגת נתונים.
עברית ברמה גבוהה; אנגלית ברמה טובה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8354248
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne data
הזדמנות להשתלב בארגון גדול ודינמי, עם מאות משתמשים, הנמצא בתנופת עשייה ומעבר לטכנולוגיות חדשניות ומתקדמות!
הצטרף/י לצוות BI שאחראי על תפעול, פיתוח והובלת פרויקטים משמעותיים משלב האפיון ועד ליישום והטמעה מלאה של פתרונות דאטה ובינה עסקית.
במסגרת התפקיד:
אפיון דרישות עסקיות ומיפוי נתונים
הגדרת תהליכי ETL ותרשימי ERD
פיתוח ותחזוקת pipelines בסביבת data Lake
פיתוח דשבורדים ודוחות במערכות BI
מתן מענה שוטף לדרישות עסקיות, תקלות, ופרויקטים
עבודה עם טכנולוגיות מתקדמות בסביבת ענן
דרישות:
לפחות 8 שנות ניסיון בבניית ותחזוקת data Pipelines מקצה לקצה
ניסיון עם כלי SAP חובה
ניסיון עם Databricks ו-Snowflake חובה
שליטה מעמיקה ב-SQL (כולל stored procedures, Indexing, Performance Tuning)
ניסיון בפיתוח תהליכי שינוע נתונים בעולמות רלציוניים
ניסיון בכלי תשתית: SSIS, SAP -DI / SAP -DS, SQR
עבודה עם תהליכי CI/CD
ניסיון בעבודה בסביבת ענן AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8395320
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
לחברת הייטק גלובלית בהרצליה בתחום המדיקל דרוש/ה data Engineer להצטרפות לצוות פיתוח מערכות AI/ML פורצות דרך בתחום הרפואי.
אם יש לך תשוקה לדאטה, טכנולוגיה ורפואה זו ההזדמנות שלך להשפיע באמת על עולם הבריאות.

מה בתפקיד:
תכנון, בנייה ותחזוקה של תהליכי דאטה וארכיטקטורות תומכות AI/ML
איסוף, עיבוד וארגון דאטה רפואי ממקורות שונים (CT, וידאו, נתונים קליניים)
הבטחת איכות, עקיבות וציות לתקנים רגולטוריים (FDA, GDPR, HIPAA)
שיתוף פעולה עם צוותי אלגוריתמים, קליניקה ומוצר
תמיכה באימוני מודלים וולידציה של נתונים
דרישות:
דרישות:
ניסיון של לפחות שנתיים כ- data Engineer (יתרון ב-AI/ML) - חובה
תואר ראשון במדעי המחשב / הנדסה ביו-רפואית / דאטה - חובה
שליטה ב- Python וכלים לעיבוד דאטה
הבנה בפרטיות ואבטחת מידע (HIPAA/GDPR)
יכולת עבודה בצוות רב-תחומי
יתרון משמעותי: ניסיון עם דאטה רפואי או מוצרים רפואיים מבוססי AI/ML. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8378808
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
we are the leader in hybrid-cloud security posture management, using the attackers perspective to find and remediate critical attack paths across on-premises and multi-cloud networks. we are looking for a talented Senior data Engineer Join a core team of experts responsible for developing innovative cyber-attack techniques for Cloud-based environments (AWS, Azure, GCP, Kubernetes) that integrate into our fully automated attack simulation. About the Role:We are seeking an experienced Senior data Engineer to join our dynamic data team. The ideal candidate will be responsible for designing, building, and maintaining scalable data pipelines and infrastructure, ensuring the availability, reliability, and quality of our data. This role requires strong technical expertise, problem-solving skills, and the ability to collaborate across teams to deliver data -driven solutions.Key Responsibilities:
* Design, implement, and maintain robust, scalable, and high-performance data pipelines and ETL processes.
* Develop and optimize data models, schemas, and Storage solutions to support analytics and Machine Learning initiatives.
* Collaborate with software engineers and product managers to understand data requirements and deliver high-quality solutions.
* Ensure data quality, integrity, and governance across multiple sources and systems.
* Monitor and troubleshoot data workflows, resolving performance and reliability issues.
* Evaluate and implement new data technologies and frameworks to improve the data platform.
* Document processes, best practices, and data architecture.
* Mentor junior data engineers and contribute to team knowledge sharing.
Requirements:
Required Qualifications:
* Bachelors or Masters degree in Computer Science, Engineering, or a related field.
* 5+ years of experience in data engineering, ETL development, or a similar role.
* Strong proficiency in SQL and experience with relational and NoSQL databases.
* Experience with data pipeline frameworks and tools such as: Apache Spark, Airflow & Kafka. - MUST
* Familiarity with cloud platforms (AWS, GCP, or Azure) and their data services.
* Solid programming skills in Python, JAVA, or Scala.
* Strong problem-solving, analytical, and communication skills.
* Knowledge of data governance, security, and compliance standards.
* Experience with data warehousing, Big Data technologies, and data modeling best practices such as ClickHouse, SingleStore, StarRocks. Preferred Qualifications (Advantage):
* Familiarity with Machine Learning workflows and MLOps practices.
* Work with data Lakehouse architectures and technologies such as Apache Iceberg.
* Experience working with data ecosystems in Open Source/On-Premise environments. Why Join Us:
* Work with cutting-edge technologies and large-scale data systems.
* Collaborate with a talented and innovative team.
* Opportunities for professional growth and skill development.
* Make a direct impact on data -driven decision-making across the organization.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8401647
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Senior Data Engineer , youll be more than just a coder - youll be the architect of our data ecosystem. Were looking for someone who can design scalable, future-proof data pipelines and connect the dots between DevOps, backend engineers, data scientists, and analysts.

Youll lead the design, build, and optimization of our data infrastructure, from real-time ingestion to supporting machine learning operations. Every choice you make will be data-driven and cost-conscious, ensuring efficiency and impact across the company.

Beyond engineering, youll be a strategic partner and problem-solver, sometimes diving into advanced analysis or data science tasks. Your work will directly shape how we deliver innovative solutions and support our growth at scale.



Responsibilities:

Design and Build Data Pipelines: Architect, build, and maintain our end-to-end data pipeline infrastructure to ensure it is scalable, reliable, and efficient.
Optimize Data Infrastructure: Manage and improve the performance and cost-effectiveness of our data systems, with a specific focus on optimizing pipelines and usage within our Snowflake data warehouse. This includes implementing FinOps best practices to monitor, analyze, and control our data-related cloud costs.
Enable Machine Learning Operations (MLOps): Develop the foundational infrastructure to streamline the deployment, management, and monitoring of our machine learning models.
Support Data Quality: Optimize ETL processes to handle large volumes of data while ensuring data quality and integrity across all our data sources.
Collaborate and Support: Work closely with data analysts and data scientists to support complex analysis, build robust data models, and contribute to the development of data governance policies.
Requirements:
Bachelor's degree in Computer Science, Engineering, or a related field.
Experience: 5+ years of hands-on experience as a Data Engineer or in a similar role.
Data Expertise: Strong understanding of data warehousing concepts, including a deep familiarity with Snowflake.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8398063
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Shape the Future of Data - Join our mission to build the foundational pipelines and tools that power measurement, insights, and decision-making across our product, analytics, and leadership teams.
Develop the Platform Infrastructure - Build the core infrastructure that powers our data ecosystem including the Kafka events-system, DDL management with Terraform, internal data APIs on top of Databricks, and custom admin tools (e.g. Django-based interfaces).
Build Real-time Analytical Applications - Develop internal web applications to provide real-time visibility into platform behavior, operational metrics, and business KPIs integrating data engineering with user-facing insights.
Solve Meaningful Problems with the Right Tools - Tackle complex data challenges using modern technologies such as Spark, Kafka, Databricks, AWS, Airflow, and Python. Think creatively to make the hard things simple.
Own It End-to-End - Design, build, and scale our high-quality data platform by developing reliable and efficient data pipelines. Take ownership from concept to production and long-term maintenance.
Collaborate Cross-Functionally - Partner closely with backend engineers, data analysts, and data scientists to drive initiatives from both a platform and business perspective. Help translate ideas into robust data solutions.
Optimize for Analytics and Action - Design and deliver datasets in the right shape, location, and format to maximize usability and impact - whether thats through lakehouse tables, real-time streams, or analytics-optimized storage.
You will report to the Data Engineering Team Lead and help shape a culture of technical excellence, ownership, and impact.
Requirements:
5+ years of hands-on experience as a Data Engineer, building and operating production-grade data systems.
3+ years of experience with Spark, SQL, Python, and orchestration tools like Airflow (or similar).
Degree in Computer Science, Engineering, or a related quantitative field.
Proven track record in designing and implementing high-scale ETL pipelines and real-time or batch data workflows.
Deep understanding of data lakehouse and warehouse architectures, dimensional modeling, and performance optimization.
Strong analytical thinking, debugging, and problem-solving skills in complex environments.
Familiarity with infrastructure as code, CI/CD pipelines, and building data-oriented microservices or APIs.
Enthusiasm for AI-driven developer tools such as Cursor.AI or GitHub Copilot.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8397812
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a hands-on leader to take ownership of our data and analytics landsape.
This isnt a pure management role we need someone who can roll up their sleeves, dive into AWS environments, and still have the strategic view to guide a growing data team.
The ideal candidate combines strong technical expertise in data engineering and analytics with a solid understanding and genuine passion for Artificial Intelligence (AI) including how AI can enhance data-driven decision-making and operational efficiency in the financial domain.
In this position youll:
Shape the companys overall data strategy and decide how we store, move, and use data across the business.
Lead a small but growing group of engineers, analysts, and BI specialists, making sure they have the right tools and direction.
Stay close to the technology designing and reviewing data pipelines, checking performance, and being the go-to person for AWS data solutions like Redshift, Glue, Athena, S3, and others.
Work with business leaders (finance, risk, compliance) to turn their questions into clear, data-driven answers.
Identify opportunities to integrate AI/ML into data workflows and business processes.
Establish best practices for data governance, quality, and security in a financial services org.
Drive automation and efficiency through modern data and AI tools
Requirements:
A deep background in databases, BI, and analytics (7+ years).
Several years leading or directing data teams, ideally in finance or a regulated industry.
Hands-on skills in SQL, Python, ETL, and cloud data platforms not just theory.
Strong AWS knowledge you should feel at home in that ecosystem.
Strong understanding and enthusiasm for AI and ML concepts, with the ability to identify and implement practical applications within data and analytics environments.
Experience in applying AI technologies such as LLM, predictive modeling, or AI-driven automation in financial or data-intensive settings.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8393100
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
28/10/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands-on data infrastructure and platform engineer with proven leadership skills to lead and evolve our self-service data platform that powers petabyte-scale batch and streaming, near-real-time analytics, experimentation, and the feature platform. Youll guide an already excellent team of senior engineers, own reliability and cost efficiency, and be the focal point for pivotal, company-wide data initiatives- feature platform, lakehouse, and streaming.
Own the lakehouse backbone: Mature Iceberg at high scalepartitioning, compaction, retention, metadataand extend our IcebergManager in-house product to automate the lakehouse management in a self serve fashion.
Unify online/offline for features: Drive Flink adoption and patterns that keep features consistent and low-latency for experimentation and production.
Make self-serve real: Build golden paths, templates, and guardrails so product/analytics/DS engineers can move fast safely.
Run multi-tenant compute efficiently: EMR on EKS powered by Karpenter on Spot instances; right-size Trino/Spark/Druid for performance and cost.
Cross-cloud interoperability: BigQuery + BigLake/Iceberg interop where it makes sense (analytics, experimentation, partnership).
What you'll be doing
Leading a senior Data Platform team: setting clear objectives, unblocking execution, and raising the engineering bar.
Owning SLOs, on-call, incident response, and postmortems for core data services.
Designing and operating EMR on EKS capacity profiles, autoscaling policies, and multi-tenant isolation.
Tuning Trino (memory/spill, CBO, catalogs), Spark/Structured Streaming jobs, and Druid ingestion/compaction for sub-second analytics.
Extending Flink patterns for the feature platform (state backends, checkpointing, watermarks, backfills).
Driving FinOps work: CUR-based attribution, S3 Inventory-driven retention/compaction, Reservations/Savings Plans strategy, OpenCost visibility.
Partnering with product engineering, analytics, and data science & ML engineers on roadmap, schema evolution, and data product SLAs.
Leveling up observability (Prometheus/VictoriaMetrics/Grafana), data quality checks, and platform self-service tooling.
Requirements:
2+ years leading engineers (team lead or manager) building/operating large-scale data platforms; 5+ years total in Data Infrastructure/DataOps roles.
Proven ownership of cloud-native data platforms on AWS: S3, EMR (preferably EMR on EKS), IAM, Glue/Data Catalog, Athena.
Production experience with Apache Iceberg (schema evolution, compaction, retention, metadata ops) and columnar formats (Parquet/Avro).
Hands-on depth in at least two of: Trino/Presto, Apache Spark/Structured Streaming, Apache Druid, Apache Flink.
Strong conceptual understanding of Kubernetes (EKS), including autoscaling, isolation, quotas, and observability
Strong SQL skills and extensive experience with performance tuning, with solid proficiency in Python/Java.
Solid understanding of Kafka concepts, hands-on experience is a plus
Experience running on-call for data platforms and driving measurable SLO-based improvements.
You might also have
Experience building feature platforms (feature definitions, materialization, serving, and online/offline consistency).
Airflow (or similar) at scale; Argo experience is a plus.
Familiarity with BigQuery (and ideally BigLake/Iceberg interop) and operational DBs like Aurora MySQL.
Experience with Clickhouse / Snowflake / Databricks / Starrocks.
FinOps background (cost attribution/showback, Spot strategies).
Data quality, lineage, and cataloging practices in large orgs.
IaC (Terraform/CloudFormation).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390166
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
28/10/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
we are a fast-growing digital health SaaS company thats on a mission to transform the way physicians interact with patient data. Thousands of clinicians across the United States already use our companys AI-powered solution that transforms complex and fragmented patient data into concise patient portraits" and actionable clinical insights at the point of care. With our company , physicians experience less burnout, reduce missed diagnoses, and can devote more time giving better care to their patients.
our company has been named one of the Top 100 AI companies globally by CB Insights and made the list of the Top 50 Digital Health startups. We are already working with industry-leading value-based organizations including Privia Health and Agilon.
we are looking for a talented and experienced Data Engineer to join our data group.
The team is responsible for processing and transforming data from multiple external sources while building and maintaining an internal serving platform. Our key challenges include operating at scale, integrating with diverse external interfaces, and ensuring the data is served in a consistent and reliable manner.
Responsibilities
Designing and implementing our companys data platform
Transforming, modeling, and serving all our companys medical data.
Utilize data best practices, to improve the product and allow data-driven decision-making.
Collaborate closely with cross-functional teams to understand business requirements and translate them into data-driven solutions.
Stay updated with the latest research and advancements in the data field.
Requirements:
5+ years of experience in software development, with at least 3 years as a data engineer.
Proven track record designing and implementing scalable ETL/ELT data pipelines.
Strong SQL skills.
Experience with relational and analytical data platforms (e.g., PostgreSQL, Snowflake, data lakes).
Strong coding skills (preferably in Python), with prior software engineering experience (e.g., API development) a plus.
Experience with cloud environments, AWS preferable.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390133
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Data Engineer who takes full ownership, works independently, and delivers results with speed and precision.
You are a fast learner who quickly adapts to new tools and concepts, communicates clearly across teams, and documents your work effectively. You pay attention to details, stay organized, and are committed to getting things done with continuous improvement.
Responsibilities
Design, implement, and maintain robust data pipelines to process and manage large-scale datasets, including auto-tagging for expanding training and validation data.
Develop intelligent search and filtering techniques and utilities to query relevant data and expedite data discovery.
Identify impactful driving scenarios across large datasets, enrich them into diverse, high-quality datasets for development usage.
Leverage NN models to support automatic labelling processes and data mining.
Create or customize data annotations tools, integrating automated quality assurance and auto-tagging algorithms to make data pipelines more efficient.
Design and manage processes for synthetic data generation.
Data processes documentation and communicates progress to stakeholders.
Requirements:
B.Sc. in Computer Science, Electrical Engineering, or related field. (M.Sc. is an advantage)
3+ years of experience in a data engineer/backend/tools dev role, preferably in AI or automotive environments.
Proficiency in Python and data tools (e.g., Pandas, NumPy).
Strong algorithmic thinking and data handling skills.
Familiarity with CV/ML pipelines is a strong plus.
Proficiency in building data queries from scratch.
Hands-on experience with large-scale data (video, sensors, logs, etc) and data visualisation tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390077
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are a fast-growing start-up with a groundbreaking approach to unsupervised learning and signature-based data representation that is set to disrupt the next generation of vehicles and mobility.
At our company, you will face never-ending intellectual challenges as we redefine AI for scalable autonomous platforms and products, with the goal to forever change driving and make the roads a safer place for all. You will work with bright and talented people, in an environment where professional and personal development are a top priority.
we are backed by top investors and key players in the automotive industry such as Temasek, Toyota, BMW, Continental, Vinfast and Knorr-Bremse, with headquarters at the heart of Tel Aviv.
Responsibilities
The Data engineer is responsible for the definition of the data ecosystem used by the object detection team our company .
Overseeing the companys data pipeline system and processes including organizing, storing, labeling, and analyzing the data received, to ensure timely delivery of high-quality data required for the development projects of the company.
Establish and implement an effective process for data management, and build a strong team of data annotation specialists.
Data team management: group management, monitoring data tasks, monitoring of the work pace and improving processes to ensure efficient processes
Working closely with R&D and product management teams, algorithms, functional testing specialists, and data tagging professionals to ensure successful kickoff and execution of required projects including manpower planning, the correct definition of requirements, training materials preparation, and progress follow-up.
Provide Data for training deep learning networks.
Collect and analyze data for the effectiveness of the projects, using scripts, python queries, and building dashboards
Test new annotation tools and improve existing ones, validate the quality of the annotated data.
Requirements:
BSc in EE or Computer Science, Industrial Engineer (or similar field) (MSc advantage)
Know-how in processes and organizational techniques
Experience in heading up exceptionally large-scale business process operations.
Familiar with Data transfer methodologies design and operation
Strong project management skills: experience in working with cross-organizational teams- R&D, IT, Product, and project managers to achieve various project goals in an effective and timed manner.
Ability to handle multiple competing priorities in a fast-paced environment
Experience in big data, database techniques, tagging, and labeling advantage.
Experience as a first-line manager (advantage)
Experience in Computer Vision products advantage
Experience in data architecture, especially from the automotive industry big advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390075
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are a global marketing tech company, recognized as a Leader by Forrester and a Challenger by Gartner. We work with some of the world's most exciting brands, such as Sephora, Staples, and Entain, who love our thought-provoking combination of art and science. With a strong product, a proven business, and the DNA of a vibrant, fast-growing startup, we're on the cusp of our next growth spurt. It's the perfect time to join our team of ~500 thinkers and doers across NYC, LDN, TLV, and other locations, where 2 of every 3 managers were promoted from within. Growing your career with us is basically guaranteed.

Responsibilities
We are a team of technophiles who hate latency. As a member of our team, you will need to:
Develop and maintain systems that can process complex requests within a few milliseconds.
Tackle advanced engineering challenges in multiple languages and environments.
Own every product that the team manages, from ideation and planning, all the way to production and monitoring.
Teach and learn. We love to inspire and be inspired and make sure that each team member has their place to grow and excel.
Work both autonomously and collaboratively with the team and other teams.
Requirements:
Requirements:
At least 5 years of experience in backend development/data engineering.
Experience working with SQL and NoSQL databases.
Experience with cloud development.
Working with high scale.
Ability to work in a multi-language environment.

Advantages:
B.Sc. in computer science or equivalent.
Hands-on experience with one or more of the following technologies: NodeJS, .NET Core, Kubernetes, Docker, Airflow, Data Flow and Terraform.
Hands-on experience with multiple services on Google Cloud Platform and/or Firebase.
Proven experience of hardcore performance optimization (tens of milliseconds).
TDD Experience.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8386265
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Customer Data Engineer, you will be a part of a strong energetic, and fast-growing global team. You will be an integral part of clients' onboarding and ongoing data requests and projects. You will be working closely with internal PM and CSM teams as well as interacting directly with clients data teams across different business verticals. Your core responsibilities will involve playing an active role in collaborating with internal teams to construct tailored data transformations and manipulations while working with top-notch technology (Cloud tech etc.) The ideal candidate is an SQL whiz with a strong work ethic, robust analytical and technical capabilities, and highly effective time management skills. We are looking for a master multi-tasker who thrives in challenging, fast-paced environments, with agility and ease.
The Customer Data Engineer is a position that brings with it an excellent opportunity to learn and grow within a rapidly expanding company on the cutting edge of Martech.

Responsibilities:
Develop and support a wide range of data transformations and migrations.
Construct custom ETL processes: Design and implementation of data pipelines and data marts, access versatile data sources, and apply data quality measures.
Investigate data mismatches and apply solutions.
Work side by side and support the Customer Success teams in order to meet customer business needs. 
Interact with clients to understand business needs and collaborate on project scopes, planning, and execution.
Requirements:
Requirements:
Graduate with a degree in Industrial Engineering and Management or a similar major.
Experience with databases and SQL - a Must.
Outstanding technical and analytical skills.
Highly motivated with an exceptional work ethic.
High attention to detail with an ability to work on multiple projects simultaneously.
Strong interpersonal and communication skills.
Quick, self-learning capabilities and creativity in problem-solving.

Preferred:
Familiarity with Python.
Familiarity with Airflow, ETL tools, Snowflake and MSSQL.
Hands-on with VCS (Git).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8386255
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Engineer to join our growing team!
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
"our company's data management vision is the future of the market."- Forbes
we are the data platform company for the AI era. We are building the enterprise software infrastructure to capture, catalog, refine, enrich, and protect massive datasets and make them available for real-time data analysis and AI training and inference. Designed from the ground up to make AI simple to deploy and manage, our company takes the cost and complexity out of deploying enterprise and AI infrastructure across data center, edge, and cloud.
Our success has been built through intense innovation, a customer-first mentality and a team of fearless company ronauts who leverage their skills & experiences to make real market impact. This is an opportunity to be a key contributor at a pivotal time in our companys growth and at a pivotal point in computing history.
In this role, you will be responsible for:
Designing, building, and maintaining scalable data pipeline architectures
Developing ETL processes to integrate data from multiple sources
Creating and optimizing data models for efficient storage and retrieval
Implementing data quality controls and monitoring systems
Collaborating with data scientists and analysts to deliver data solutions
Building and maintaining data warehouses and data lakes
Performing in-depth data analysis and providing insights to stakeholders
Taking full ownership of data quality, documentation, and governance processes
Building and maintaining comprehensive reports and dashboards
Ensuring data security and regulatory compliance.
Requirements:
Bachelor's degree in Computer Science, Engineering, or related field
3+ years experience in data engineering
Strong proficiency in SQL and Python
Experience with ETL tools and data warehousing solutions
Knowledge of big data technologies (Hadoop, Spark, etc.)
Experience with cloud platforms (AWS, Azure, or GCP)
Understanding of data modeling and database design principles
Familiarity with data visualization tools - Tableau, Sisense
Strong problem-solving and analytical skills
Excellent communication and collaboration abilities
Experience with version control systems (Git).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8384334
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Senior Data Engineer to join our Platform group in the Data Infrastructure team.
Youll work hands-on to design and deliver data pipelines, distributed storage, and streaming services that keep our companys data platform performant and reliable. As a senior individual contributor you will lead complex projects within the team, raise the bar on engineering best-practices, and mentor mid-level engineers while collaborating closely with product, DevOps and analytics stakeholders.
Code & ship production-grade services, pipelines and data models that meet performance, reliability and security goals
Lead design and delivery of team-level projects from RFC through rollout and operational hand-off
Improve system observability, testing and incident response processes for the data stack
Partner with Staff Engineers and Tech Leads on architecture reviews and platform-wide standards
Mentor junior and mid-level engineers, fostering a culture of quality, ownership and continuous improvement
Stay current with evolving data-engineering tools and bring pragmatic innovations into the team.
Requirements:
5+ years of hands-on experience in backend or data engineering, including 2+ years at a senior level delivering production systems
Strong coding skills in Python, Kotlin, Java or Scala with emphasis on clean, testable, production-ready code
Proven track record designing, building and operating distributed data pipelines and storage (batch or streaming)
Deep experience with relational databases (PostgreSQL preferred) and working knowledge of at least one NoSQL or columnar/analytical store (e.g. SingleStore, ClickHouse, Redshift, BigQuery)
Solid hands-on experience with event-streaming platforms such as Apache Kafka
Familiarity with data-orchestration frameworks such as Airflow
Comfortable with modern CI/CD, observability and infrastructure-as-code practices in a cloud environment (AWS, GCP or Azure)
Ability to break down complex problems, communicate trade-offs clearly, and collaborate effectively with engineers and product partners
Bonus Skills
Experience building data governance or security/compliance-aware data platforms
Familiarity with Kubernetes, Docker, and infrastructure-as-code tools
Experience with data quality frameworks, lineage, or metadata tooling.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8383979
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Engineer on the IT production team in our TLV Office, youll play a vital role impacting billions of users, work with petabytes of data in extreme scale and make a difference, send us your resume. Or In other words, If you like: Database performance tuning, Doing it at scale, Building tools that will help you do it Using AI to make it legendary our company is the place for you.
How youll make an impact as a data engineer
Advise on the optimal database design by analyzing application behavior and business requirements
Design data flow processes
Work with AI at scale on developing high impact solutions
Proactively monitor and optimize database queries, processes, tables and resources
Initiate and lead cross-group optimization processes
Write utilities and design dashboards that will help us maintain, monitor and optimize the company production database environment and data pipeline
Develop automation tools for large cluster maintenance
Face challenges such as scale, visibility and automation
Be involved in both development and infrastructure projects.
Requirements:
Experience working as a Data Engineer/DBA
Deep understanding of performance tuning techniques for relational databases, preferably MySQL/Vertica
Good understanding of infrastructure components, storage, networking and server hardware
Experience working with scripting/programming languages like Bash, Perl or Python
Ability to programmatically build tools that will help the team with its day-to-day tasks
Self motivated, eager to learn, loves challenges
Able to work independently
Excellent English
It Would Be Great If You Also Have:
In-depth Linux system knowledge
Vertica/HBase/Cassandra/Elastic Experience
Hands-on experience with NoSQL databases
Working experience with queuing systems, preferably Kafka
Experience in web facing environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8383208
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Infra Engineer on the IT production team in our TLV Office, youll play a vital role impacting billions of users, work with petabytes of data in extreme scale and make a difference, send us your resume. Or In other words, If you like: Database performance tuning, Doing it at scale, Building tools that will help you do it Using AI to make it legendary our company is the place for you.
How Youll Make An Impact, As a Data Infra Enginee:
Advise on the optimal database design by analyzing application behavior and business requirements
Design data flow processes
Work with AI at scale on developing high impact solutions
Proactively monitor and optimize database queries, processes, tables and resources
Initiate and lead cross-group optimization processes
Write utilities and design dashboards that will help us maintain, monitor and optimize the company production database environment and data pipeline
Develop automation tools for large cluster maintenance
Face challenges such as scale, visibility and automation
Be involved in both development and infrastructure projects.
Requirements:
Experience working as a Data Engineer/DBA
Deep understanding of performance tuning techniques for relational databases, preferably MySQL/Vertica
Good understanding of infrastructure components, storage, networking and server hardware
Experience working with scripting/programming languages like Bash, Perl or Python
Ability to programmatically build tools that will help the team with its day-to-day tasks
Self motivated, eager to learn, loves challenges
Able to work independently
Excellent English
It Would Be Great If You Also Have:
In-depth Linux system knowledge
Vertica/HBase/Cassandra/Elastic Experience
Hands-on experience with NoSQL databases
Working experience with queuing systems, preferably Kafka
Experience in web facing environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8383207
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Performance Engineer on the IT production team in our TLV Office, youll play a vital role impacting billions of users, work with petabytes of data in extreme scale and make a difference, send us your resume. Or In other words, If you like: Database performance tuning, Doing it at scale, Building tools that will help you do it Using AI to make it legendary our company is the place for you.
How Youll Make An Impact, As a Data Performance Engineer:
Advise on the optimal database design by analyzing application behavior and business requirements
Design data flow processes
Work with AI at scale on developing high impact solutions
Proactively monitor and optimize database queries, processes, tables and resources
Initiate and lead cross-group optimization processes
Write utilities and design dashboards that will help us maintain, monitor and optimize the company production database environment and data pipeline
Develop automation tools for large cluster maintenance
Face challenges such as scale, visibility and automation
Be involved in both development and infrastructure projects.
Requirements:
Experience working as a Data Engineer/DBA
Deep understanding of performance tuning techniques for relational databases, preferably MySQL/Vertica
Good understanding of infrastructure components, storage, networking and server hardware
Experience working with scripting/programming languages like Bash, Perl or Python
Ability to programmatically build tools that will help the team with its day-to-day tasks
Self motivated, eager to learn, loves challenges
Able to work independently
Excellent English
It Would Be Great If You Also Have:
In-depth Linux system knowledge
Vertica/HBase/Cassandra/Elastic Experience
Hands-on experience with NoSQL databases
Working experience with queuing systems, preferably Kafka
Experience in web facing environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8383203
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן 31 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >