רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
כל מה שרציתם לדעת על מבחני המיון ולא העזתם לשאול
זומנתם למבחני מיון ואין לכם מושג לקראת מה אתם ה...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 29 דקות
דרושים באלעד מערכות
מיקום המשרה: ירושלים
אלעד מערכות מגייסת מהנדס/ת דאטה מנוסה להשתלבות בהקמת תשתית הדאטה הארגונית החדשה!
התפקיד כולל פיתוח תהליכי ETL, תחזוקה ותפעול של PipeLines קריטיים, הנגשת מידע אמין ומדויק לצרכים אנליטיים מגוונים, עבודה עם בסיסי נתונים וBI, וכן השתתפות בהטמעת פתרונות חדשניים בסביבה רגישה, מורכבת ובעלת השפעה ישירה על השירות לציבור.
משרה מלאה והברידית.
דרישות:
ניסיון של 8 שנים ומעלה בתחום הBI- חובה
ניסיון של 5 שנים ומעלה בפיתוח תהליכי ETL (Informatica או כלים מקבילים)- חובה
ניסיון של 5 שנים ומעלה בעבודה עם מערכות BI (Tableau / Power BI )- חובה
ניסיון בעבודה עם data Warehouse וSQL ברמה גבוהה מאוד- חובה
ניסיון בסביבות מרובות ממשקים עם מידע רגיש ובסקלות גבוהות- חובה
ידע וניסיון עם Python - חובה
יתרון: ניסיון עם Vertica, ניסיון עם מערכות AI, היכרות עם data Governance וData Quality המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8334003
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים במלם תים
מיקום המשרה: בני ברק
רוצה לקחת חלק בעשייה משמעותית בעולם הבריאות ולהיות חלק מצוות טכנולוגי מתקדם?
אחד הארגונים הגדולים והמובילים במשק בתחום הבריאות שממוקם בבני ברק מחפש מפתח/ת DataStage מנוסה למשרה זמנית.
עבודה היברידית - פעמיים בשבוע.
מה מחכה לך בתפקיד?
עבודה בסביבה ארגונית יציבה עם מערכות מידע מתקדמות
שילוב של עשייה מקצועית לצד תרומה לקידום שירותי הבריאות בישראל
צוות איכותי ותומך, תהליכי חפיפה מסודרים ומודל עבודה היברידי
דרישות:
דרישות:
- ניסיון של מעל 3 שנים בפיתוח BI
- ניסיון בפיתוח בכלי DataStage
- יכולת עבודה עצמאית ויחסי אנוש מעולים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8272094
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
דרושים לפרויקטים במספר אתרים בארץ מנהל /ת חשמול /קומישינינג
אחריות לחשמול לוחות בפרויקט הקמת חוות שרתים, עמידה בתקנות הבטיחות ודרישות הלקוח.
הובלה ותיאום של כלל תהליכי ההפעלה של מערכות חשמל ומערכות מכניות. תקני בטיחות ואיכות.
דרישות:
מהנדס/ת חשמל או מכשור ובקרה.
ניסיון בהקמת פרוייקטים.
ניסיון בניהול
ניסיון בבקרת איכות
ניסיון בחוות שרתים
שליטה באנגלית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8291186
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת הייטק חזקה מאוד במרכז הארץ דרוש/ה Senior Python backend Developer
בעל/ת ניסיון בטכנולוגיות data.
במסגרת התפקיד: פיתוח backend בדגש לפיתוח Python ונגיעות לפיתוח GO, עבודה
בטכנולוגיות דאטה כגון Spark Hive Kafka, עבודה שמשלבת שימוש ב-Kubernetes AWS וכן
עבודה מרובה מול בסיסי נתונים
דרישות:
תואר ראשון במדעי המחשב או הנדסת תכנה - חובה
לפחות 7 שנות ניסיון בפיתוח backend - חובה
רקע בעולמות דאטה - יתרון מאוד גדול
ניסיון מוכח של 5 שנים ב- Python - חובה
רקע בפיתוח GO - יתרון מאוד משמעותי
ניסיון ב-AWS ו-Kubernetes - חובה
ניסיון מול בסיסי נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8240126
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בקבוצת Aman
דרוש/ה מפתח/ת DS שיצטרף/תצטרף לצוות הפיתוח ויעבוד/תעבוד על בניית פתרונות תוכנה מבוססי AI עם דגש על Generative AI ומודלים מתקדמים, הן בענן והן בסביבות On-Premises.
התפקיד משלב פיתוח בפועל של מוצרים ויישומים חכמים, עבודה עם מודלים שונים (שפה, חזות, מולטימודאליים ועוד) ושיתוף פעולה עם צוותי data, ארכיטקטים, DevOps ומהנדסי נתונים בסביבה טכנולוגית מתקדמת, דינאמית ומאתגרת
תחומי אחריות
פיתוח ויישום פתרונות תוכנה מבוססי AI וML, עם דגש על Generative AI.
עבודה עם מודלים בענן (AWS, GCP) ובסביבות On-Premises.
אינטגרציה של מודלים במערכות הארגון, כולל פיתוח API ושכבות שירות.
עיבוד נתונים והכנתם לאימון והטמעת מודלים (Structured Unstructured data ).
שיתוף פעולה עם צוותי data Engineering,, DevOps ומפתחי אפליקציות.
ביצוע ניסויים, הערכת ביצועים ואופטימיזציה של מודלים.
חקירה ויישום של טכנולוגיות AI חדשות והבאתן לסביבת הפיתוח הארגונית.
דרישות:
5 שנות ניסיון ומעלה בתפקידי דאטה, מתוכן שנתיים לפחות ב- data science
ניסיון של בפיתוח תוכנה בשפות כמו Python / JAVA / Node.js, עם התמחות בData Science/AI.
ניסיון בעבודה עם ספריות ומסגרות AI/ML (TensorFlow, PyTorch, scikit-learn וכו).
הבנה עמוקה בGenerative AI ועבודה עם מודלים גדולים (LLMs, Diffusion Models וכו).
ניסיון בעבודה עם פתרונות ענן (AWS, GCP) ובOn-Premises AI Infrastructure.
ידע בעיבוד נתונים מובנים ולא מובנים (טקסט, קול, וידאו, תמונה). המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8303831
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
data Infrastructure Engineer Elad Systems | data Division
Elad Systems data Division is seeking a skilled data Engineer to join our growing team, supporting end-to-end AI-driven projects for top-tier clients across industries.
What Youll Do:
Design and build robust, scalable data pipelines for AI/ML applications
Work with modern cloud environments (AWS/Azure/GCP), leveraging tools like Airflow, Kafka, EC2 and Kubernetes
Develop Infrastructure as Code (IAC) with Terraform or equivalent
Support data lakes and DWHs (e.g., Snowflake, BigQuery, Redshift)
Ensure data quality, observability, and system reliability
Requirements:
What You Bring:
3+ years of experience in data engineering or backend development
Proficiency in Python
Hands-on experience with streaming, orchestration, and cloud-native tools
Strong problem-solving skills and an independent, delivery-focused mindset
Experience with Docker and CI/CD platform
Have a solid background working with data warehousing technologies, such as Snowflake, Databricks, Redshift, BigQuery, etc.
Advantage: Experience supporting ML pipelines or AI product development


Why Elad:
Work on diverse, high-impact AI projects in a dynamic and collaborative environment
Access to learning programs, career growth paths, and cutting-edge tech
Hybrid work model and flexible conditions
Join us and help shape the data foundations of tomorrows AI solutions.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8294550
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בקונסיסט מערכות בע"מ
מיקום המשרה: ירושלים
ארגון ממשלתי מחפש מדען נתונים לירושלים!
תיאור התפקיד: מדען/ית נתונים סקרן/ית, מקצועי/ת ומחובר/ת לחזון של עשייה ציבורית מבוססת דאטה. במסגרת התפקיד יקח חלק בפיתוח מודלים אנליטיים מתקדמים כולל ML,AI ו- GenAI, הובלת תהליכי מחקר יישומי, וסיפוק תובנות משמעותיות מתוך מאגרי מידע גדולים, רגישים ומגוונים הכול מתוך מטרה לשפר תהליכים ושירותים ולתמוך במדיניות מבוססת נתונים.
תחומי אחריות עיקריים:
פיתוח מודלים חיזויים ומחקריים (AI / ML (לבעיות מורכבות.
ביצוע ניתוחים סטטיסטיים וחקירה של דפוסים מתוך דאטה ארגוני רחב היקף.
עבודה בשיתוף פעולה עם מהנדסי דאטה ואנליסטים טובת שיפור תהליכי הפיתוח והתחזוקה השוטפים של המודלים המפותחים
הפקת תובנות והמלצות אסטרטגיות עבור יחידות שונות בארגון.
תיעוד, בדיקות, וליווי של מודלים בסביבת.Production
דרישות:
לפחות 5 שנות ניסיון כמדען נתונים בנושאים הבאים:
 שליטה ב- Python כולל pandas, scikit-learnnumpy,matplotlib
ניסיון מעשי בבניית מודלים חיזויים רגרסיה, סיווג, אשכולות, NLP,עצי החלטה וכו.
שליטה ב SQL-וניסיון עבודה עם מאגרי מידע גדולים.
יכולת הסבר והצגת ממצאים לגורמים לא טכנולוגיים בארגון.
ניסיון בשימוש במודלים מבוססי GenAI ובכלים כמו LLMs או ספריות source-open מתקדמות.
ניסיון בהטמעת מודלים בסביבת ייצור.
יתרון לעבודה בשירותים של פלטפורמת הענן של GCP /AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8328033
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אצלנו באגף ארגון ושיטות חיים ונושמים תהליכים חכמים ושיפור מתמיד.
אנחנו מגייסים בודק/ת דאטה עם עין חדה, חשיבה אנליטית ואהבה לפרטים הקטנים, כי שם מתחבאת האיכות האמיתית.
 
במסגרת התפקיד -
בדיקה, ניתוח ווידוא שהתהליכים והמערכות באגף פועלים באופן תקין.
כתיבת תרחישי ותסריטי בדיקה בהתאם למסמכי אפיון בתחום דאטה.
איתור, תיעוד ומעקב אחר תקלות ושגיאות עד לפתרונן.
עבודה צמודה עם מהנדסים, מנתחי מערכות, וצוותי פיתוח.
דרישות:
מה אנחנו מחפשים?
ניסיון של שנתיים ומעלה בבדיקות על DB ומסדי נתונים – חובה
ניסיון מעשי ב- SQL ברמה גבוהה – חובה
ניסיון בעבודה עם מסדי נתונים גדולים – חובה
ניסיון ב-Tableau – יתרון משמעותי
הבנה של תהליכים עסקיים מורכבים — יתרון
 
משרה מלאה, ימים א'-ד', 8.5 שעות ביום, יום ה' 6 שעות, יום עבודה מהבית לאחר תקופת ההכשרה
רמת גן, מתחם הבורסה צמוד לרכבת סבידור מרכז ולרכבת הקלה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8300038
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באסם
מיקום המשרה: שוהם
סוג משרה: משרה מלאה
חטיבת ה - IT של קבוצת אסם Nestle מגייסת data Engineer לצוות הדאטה
כ data Engineer תהיה לך הזדמנות לתרום לפיתוח תחום ה BI על ידי תכנון ויישום של הארכיטקטורה, data processing pipelines, מודלים ודשבורדים.
תחומי אחריות:
פיתוח מקצה לקצה של מודלים: איסוף מקורות הדאטה, פיתוח תהליכי ETL, פיתוח מודלים ודשבורדים למגוון מחלקות בחברה
אפיון, יישום ותחזוקה של ארכיטקטורת דאטה יעילה לתמיכה בתהליכים העסקיים, בהתאם לסטנדרטים של קבוצת נסטלה
שדרוג והעברת תהליכי ה ETL לכלים מודרניים
זיהוי, הגדרה ויישום של שיפורי תהליכים לשיפור באמינות ויעילות: עיצוב מחדש של תשתיות, אוטומציה של תהליכים ידניים, אופטימיזציה של העברת דאטה וכו'
עבודה מול בעלי עניין ומומחי data בקבוצת נסטלה העולמית בכדי לזהות הזדמנויות למינוף נתוני החברה ויישום פתרונות עסקיים
יישום תהליך ומערכת לניטור איכות, דיוק, וזמינות הנתונים
דרישות:
1-2 שנות ניסיון בתפקיד דומה
תואר ראשון BA/BSc. בתחום רלוונטי
ידע ברמה גבוהה ב SQL, Python חובה, ידע ב PySpark- יתרון
היכרות עם שירותי Microsoft Azure
ניסיון מוכח בעבודה עם data Factory - חובה
ניסיון בעבודה עם Databricks - יתרון
ניסיון עם כלי אוטומציה - Logic Apps ו Power Automate
ניסיון בפיתוח מודלים, ויזואליזציות ועבודה עם כלי BI - Power BI יהווה יתרון
מיומנויות תקשורת, יכולת למידה עצמאית
אנגלית ברמה גבוהה קריאה, כתיבה ודיבור המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8321055
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בפרוסיד
מיקום המשרה: לוד
השתלבות בצוות פרויקטים בתחום ה-AI, אחריות על קליטה, עיבוד ובחינה של כמויות גדולות של נתונים, בשיתוף פעולה עם data Scientists. פיתוח תהליכי דאטה קריטיים ומורכבים בסביבות ענן ובסביבות on-premise.
דרישות:
*לפחות 3 שנות ניסיון כData Engineer
*לפחות 3 שנות ניסיון בשפות תכנות מונחות עצמים (OOP)
*לפחות 3 שנות ניסיון עם Python
*ניסיון מעשי עם Spark לעבודה עם נתונים בהיקפים גדולים
*ניסיון עם Docker, Linux, Kubernetes וכלי CI/CD
*ניסיון עם כלי data Pipelines כגון Airflow או Kubeflow
*תואר ראשון במדעי המחשב / הנדסה / מתמטיקה / סטטיסטיקה
*הבנה של עקרונות Machine Learning
*ניסיון בעיצוב, פיתוח ואופטימיזציה של תהליכים להעברת ועיבוד נתונים בהיקפים גדולים
*היכרות עם פורמטים וטכניקות partitions: Parquet, Avro, HDF5, Delta Lake

יתרונות:
*לפחות שנתיים ניסיון עם AWS כולל Athena, Glue, StepFunction, EMR, Redshift, RDS
*היכרות עם פתרונות GenAI וPrompt Engineering המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8260271
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בOne data
התפקיד כולל עבודה עם טכנולוגיות מתקדמות, הובלת תהליכי דאטה מקצה לקצה, והשתלבות בצוות שמתמודד עם אתגרים בסקייל גבוה הכל בסביבת Microservices דינמית ומתפתחת.
דרישות:
6+ שנות ניסיון בבניית פייפליינים בפרודקשן
שליטה ב-Apache Spark (PySpark או Scala)
ניסיון עם Airflow / dbt / Databricks
היכרות עמוקה עם ארכיטקטורת דאטה, CI/CD וסביבות מבוזרות
גישה יוזמת, יכולת תקשורת גבוהה ועבודת צוות מול מוצר המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8292310
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בG-NESS
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
עבודה על בניית פתרונות תוכנה חכמים, פיתוח מודלים מתקדמים ויישום טכנולוגיות Generative AI בסביבות ענן (AWS, GCP) ובOn-Premises.
התפקיד משלב פיתוח תוכנה בפועל, עבודה עם מודלים שונים (שפה, למידה עמוקה ועוד), אינטגרציה עם מערכות הארגון ושיתוף פעולה עם צוותי data Engineering, DevOps ומנהלי מוצר בסביבה טכנולוגית חדשנית ודינאמית.
דרישות:
לפחות 3 שנות ניסיון
ניסיון בפיתוח תוכנה בשפות כמו Python / JAVA / Node.js
ניסיון בעבודה עם ספריות ומסגרות AI/ML (TensorFlow, PyTorch, scikit-learn)
ניסיון בעבודה עם פתרונות ענן (AWS, GCP) וAI Infrastructure On-Premises המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8299811
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים במלם תים
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM.
דרישות:
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8261624
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בקונסיסט מערכות בע"מ
מיקום המשרה: ירושלים
ארגון ממשלתי מחפש מהנדס דאטה לירושלים!
תיאור התפקיד: מהנדס/ת דאטה מנוסה להשתלב בצוות הפיתוח ובפיתוח תשתית הדאטה ארגונית החדשה.
התפקיד כולל פיתוח תהליכי,ETLתפעול שוטף של PipeLines קריטיים, והשתתפות בהנגשת מידע אמין ומדויק לצרכים אנליטיים מגוונים הכל בסביבה רגישה, מורכבת ועם השפעה ישירה על השירות לציבור.
תחומי אחריות עיקריים:
פיתוח, תחזוקה ואופטימיזציה של תהליכי ETL באמצעות Informatica. 
בניית פייפליינס יעילים להעברת, ניקוי ועיבוד נתונים בין מקורות שונים.
עבודה עם בסיס הנתונים Vertica לצורך שאילתות, אינדוקסים ואופטימיזציה.
שיתוף פעולה עם צוותי אנליזה BI,ומוצר ליצירת שכבות מידע תומכות החלטה.
הובלת תהליך הקמת וחיבור מקורות הדאטה למערכות AI רלוונטיות
תמיכה שוטפת בתשתיות מידע קיימות תוך השתתפות בהטמעת פתרונות חדשים.
הקפדה על סטנדרטים של איכות נתונים, אבטחת מידע ועמידה בדרישות רגולציה
דרישות:
ניסיון של לפחות 5 שנים בנושאים הבאים:
פיתוח תהליכי ETL בסביבת Informatica או כלי ETLמקבילים
עבודה עם מערכות Tableau / Power BI
עבודה עם מודלים נתמכי Warehouse data  
יכולת עבודה בסביבה מרובת ממשקים, עם מידע רגיש ובסקלות גבוהות. 
שליטה SQL ברמה גבוהה מאוד
ניסיון עם Vertica - יתרון
ניסיון עם מערכות AI - יתרון
היכרות עם תהליכי Governance data ו data.Quality 
ידע וניסיון עם Python  
עבודה קודמת עם Tableau בסביבת ייצור. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8328097
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.
This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
35 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS-based data technologies.

Experience in building and maintaining advanced data pipelines from various data sources.

Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI, Tableau.
Experience with scripting/coding languages such as Python.
Ability to work independently, with attention to detail and strong initiative.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8236697
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Senior Data Engineer
What You'll Do:

Shape the Future of Data - Join our mission to build the foundational pipelines and tools that power measurement, insights, and decision-making across our product, analytics, and leadership teams.
Develop the Platform Infrastructure - Build the core infrastructure that powers our data ecosystem including the Kafka events-system, DDL management with Terraform, internal data APIs on top of Databricks, and custom admin tools (e.g. Django-based interfaces).
Build Real-time Analytical Applications - Develop internal web applications to provide real-time visibility into platform behavior, operational metrics, and business KPIs integrating data engineering with user-facing insights.
Solve Meaningful Problems with the Right Tools - Tackle complex data challenges using modern technologies such as Spark, Kafka, Databricks, AWS, Airflow, and Python. Think creatively to make the hard things simple.
Own It End-to-End - Design, build, and scale our high-quality data platform by developing reliable and efficient data pipelines. Take ownership from concept to production and long-term maintenance.
Collaborate Cross-Functionally - Partner closely with backend engineers, data analysts, and data scientists to drive initiatives from both a platform and business perspective. Help translate ideas into robust data solutions.
Optimize for Analytics and Action - Design and deliver datasets in the right shape, location, and format to maximize usability and impact - whether thats through lakehouse tables, real-time streams, or analytics-optimized storage.
You will report to the Data Engineering Team Lead and help shape a culture of technical excellence, ownership, and impact.
Requirements:
5+ years of hands-on experience as a Data Engineer, building and operating production-grade data systems.
3+ years of experience with Spark, SQL, Python, and orchestration tools like Airflow (or similar).
Degree in Computer Science, Engineering, or a related quantitative field.
Proven track record in designing and implementing high-scale ETL pipelines and real-time or batch data workflows.
Deep understanding of data lakehouse and warehouse architectures, dimensional modeling, and performance optimization.
Strong analytical thinking, debugging, and problem-solving skills in complex environments.
Familiarity with infrastructure as code, CI/CD pipelines, and building data-oriented microservices or APIs.
Enthusiasm for AI-driven developer tools such as Cursor.AI or GitHub Copilot.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8343346
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Ra'anana
Job Type: Full Time
We are a dynamic technology firm dedicated to building exceptional products using modern technologies for the world's most admired companies. We pride ourselves on innovation, collaboration, and delivering excellence in every project.

Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.

Location: Ra'anana.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8342595
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
מיקום המשרה:מרכז
סוג משרה: משרה מלאה
לחברת ביטוח מובילה דרוש QA data Engineer.
מנוסה בבדיקות ובעל/ת ניסיון ב SQL ברמה גבוהה?
אנחנו מגייסים QA data Engineer למחלקת ארגון ושיטות!
הצטרפו אלינו לצוות מקצועי ומוביל?
ובואו לקחת חלק בלב העשייה והביזנס של חברתנו.
מתאימים/ות?
שלחו קורות חיים למייל. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8341960
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Senior Data Engineer
The opportunity
Join our dynamic Data & ML Engineering team in iAds and play a pivotal role in driving data solutions that empower data science, finance, analytics, and R&D teams. As an Experienced Data Engineer, you'll work with cutting-edge technologies to design scalable pipelines, ensure data quality, and process billions of data points into actionable insights.
Success Indicators:
In the short term, success means delivering reliable, high-performance data pipelines and ensuring data quality across the product. Long-term, you'll be instrumental in optimizing workflows, enabling self-serve analytics platforms, and supporting strategic decisions through impactful data solutions.
Impact:
Your work will directly fuel business decisions, improve data accessibility and reliability, and contribute to the team's ability to handle massive-scale data challenges. You'll help shape the future of data engineering within a global, fast-paced environment.
Benefits and Opportunities
You'll collaborate with talented, passionate teammates, work on exciting projects with cutting-edge technologies, and have opportunities for professional growth. Competitive compensation, comprehensive benefits, and an inclusive culture make this role a chance to thrive and make a global impact.
What you'll be doing
Designing and developing scalable data pipelines and ETL processes to process massive amounts of structured and unstructured data.
Collaborating with cross-functional teams (data science, finance, analytics, and R&D) to deliver actionable data solutions tailored to their needs.
Building and maintaining tools and frameworks to monitor and improve data quality across the product.
Providing tools and insights that empower product teams with real-time analytics and data-driven decision-making capabilities.
Optimizing data workflows and architectures for performance, scalability, and cost efficiency using cutting-edge technologies like Apache Spark and Flink.
Requirements:
4+ yeasrs of experience as a Data Engineer
Expertise in designing and developing scalable data pipelines, ETL processes, and data architectures.
Proficiency in Python and SQL, with hands-on experience in big data technologies like Apache Spark and Hadoop.
Advanced knowledge of cloud platforms (AWS, Azure, or GCP) and their associated data services.
Experience working with Imply and Apache Druid for real-time analytics and query optimization.
Strong analytical skills and ability to quickly learn and adapt to new technologies and tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8341692
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands-on data infrastructure and platform engineer with proven leadership skills to lead and evolve our self-service data platform that powers petabyte-scale batch and streaming, near-real-time analytics, experimentation, and the feature platform. Youll guide an already excellent team of senior engineers, own reliability and cost efficiency, and be the focal point for pivotal, company-wide data initiatives- feature platform, lakehouse, and streaming.
Own the lakehouse backbone: Mature Iceberg at high scalepartitioning, compaction, retention, metadataand extend our IcebergManager in-house product to automate the lakehouse management in a self serve fashion.
Unify online/offline for features: Drive Flink adoption and patterns that keep features consistent and low-latency for experimentation and production.
Make self-serve real: Build golden paths, templates, and guardrails so product/analytics/DS engineers can move fast safely.
Run multi-tenant compute efficiently: EMR on EKS powered by Karpenter on Spot instances; right-size Trino/Spark/Druid for performance and cost.
Cross-cloud interoperability: BigQuery + BigLake/Iceberg interop where it makes sense (analytics, experimentation, partnership).
What you'll be doing:
Leading a senior Data Platform team: setting clear objectives, unblocking execution, and raising the engineering bar.
Owning SLOs, on-call, incident response, and postmortems for core data services.
Designing and operating EMR on EKS capacity profiles, autoscaling policies, and multi-tenant isolation.
Tuning Trino (memory/spill, CBO, catalogs), Spark/Structured Streaming jobs, and Druid ingestion/compaction for sub-second analytics.
Extending Flink patterns for the feature platform (state backends, checkpointing, watermarks, backfills).
Driving FinOps work: CUR-based attribution, S3 Inventory-driven retention/compaction, Reservations/Savings Plans strategy, OpenCost visibility.
Partnering with product engineering, analytics, and data science & ML engineers on roadmap, schema evolution, and data product SLAs.
Leveling up observability (Prometheus/VictoriaMetrics/Grafana), data quality checks, and platform self-service tooling.
Requirements:
2+ years leading engineers (team lead or manager) building/operating large-scale data platforms; 5+ years total in Data Infrastructure/DataOps roles.
Proven ownership of cloud-native data platforms on AWS: S3, EMR (preferably EMR on EKS), IAM, Glue/Data Catalog, Athena.
Production experience with Apache Iceberg (schema evolution, compaction, retention, metadata ops) and columnar formats (Parquet/Avro).
Hands-on depth in at least two of: Trino/Presto, Apache Spark/Structured Streaming, Apache Druid, Apache Flink.
Strong conceptual understanding of Kubernetes (EKS), including autoscaling, isolation, quotas, and observability
Strong SQL skills and extensive experience with performance tuning, with solid proficiency in Python/Java.
Solid understanding of Kafka concepts, hands-on experience is a plus
Experience running on-call for data platforms and driving measurable SLO-based improvements.
You might also have:
Experience building feature platforms (feature definitions, materialization, serving, and online/offline consistency).
Airflow (or similar) at scale; Argo experience is a plus.
Familiarity with BigQuery (and ideally BigLake/Iceberg interop) and operational DBs like Aurora MySQL.
Experience with Clickhouse / Snowflake / Databricks / Starrocks.
FinOps background (cost attribution/showback, Spot strategies).
Data quality, lineage, and cataloging practices in large orgs.
IaC (Terraform/CloudFormation).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8341689
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a skilled Data/ Backend Engineer to design and implement complex, high-scale systems that retrieve, process, and analyze data from the digital world. This role involves developing and maintaining backend infrastructure, creating robust data pipelines, and ensuring the seamless operation of data-driven products and services.
Key Responsibilities:
- Design and build high-scale systems and services to support data infrastructure and production systems.
- Develop and maintain data processing pipelines using technologies such as PySpark, Hadoop, and Databricks.
- Implement dockerized high-performance microservices and manage their deployment.
- Monitor and debug backend systems and data pipelines to identify and resolve bottlenecks and failures.
- Work collaboratively with data scientists, analysts, and other engineers to develop and maintain data-driven solutions.
- Ensure data is ingested correctly from various sources and is processed efficiently.
Requirements:
- BSc degree in Computer Science or equivalent practical experience.
- At least 4+ years of server-side software development experience in languages such as Python, Java, Scala, or Go.
- Experience with Big Data technologies like Hadoop, Spark, Databricks, and Airflow.
- Familiarity with cloud environments such as AWS or GCP and containerization technologies like Docker and Kubernetes.
- Strong problem-solving skills and ability to learn new technologies quickly.
- Excellent communication skills and ability to work in a team-oriented environment.
Nice to Have:
- Experience with web scraping technologies.
- Familiarity with Microservices architecture and API development.
- Knowledge of databases like Redis, PostgreSQL, and Firebolt.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8341643
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Engineer to join our team and help advance our Apps solution. Our product is designed to provide detailed and accurate insights into Apps Analytics, such as traffic estimation, revenue analysis, and app characterization. The role involves constructing and maintaining scalable data pipelines, developing and integrating machine learning models, and ensuring data integrity and efficiency. You will work closely with a diverse team of scientists, engineers, analysts, and collaborate with business and product stakeholders.
Key Responsibilities:
Develop and implement complex, innovative big data ML algorithms for new features, working in collaboration with data scientists and analysts.
Optimize and maintain end-to-end data pipelines using big data technologies to ensure efficiency and performance.
Monitor data pipelines to ensure data integrity and promptly troubleshoot any issues that arise.
Requirements:
Bachelor's degree in Computer Science or equivalent practical experience.
At least 3 years of experience in data engineering or related roles.
Experience with big data Machine Learning - a must ! .
Proficiency in Python- must. Scala is a plus.
Experience with Big Data technologies including Spark, EMR and Airflow.
Experience with containerization/orchestration platforms such as Docker and Kubernetes.
Familiarity with distributed computing on the cloud (such as AWS or GCP).
Strong problem-solving skills and ability to learn new technologies quickly.
Being goal-driven and efficient.
Excellent communication skills and ability to work independently and in a team.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8341640
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are seeking a Data Engineer to join our dynamic data team. In this role, you will design, build, and maintain robust data systems and infrastructure that support data collection, processing, and analysis. Your expertise will be crucial in developing scalable data pipelines, ensuring data quality, and collaborating with cross-functional teams to deliver actionable insights.

Key Responsibilities:
Design, develop, and maintain scalable ETL processes for data transformation and integration.
Build and manage data pipelines to support analytics and operational needs.
Ensure data accuracy, integrity, and consistency across various sources and systems.
Collaborate with data scientists and analysts to support AI model deployment and data-driven decision-making.
Optimize data storage solutions, including data lakehouses and databases, to enhance performance and scalability..
Monitor and troubleshoot data workflows to maintain system reliability.
Stay updated with emerging technologies and best practices in data engineering.

Please note that this role is on a hybrid model of 4 days/week in our Tel-Aviv office.
Requirements:
Requirements:
3+ years of experience in data engineering or a related role within a production environment.
Proficiency in Python and SQL
Experience with both relational (e.g., PostgreSQL) and NoSQL databases (e.g., MongoDB, Elasticsearch).
Familiarity with big data AWS tools and frameworks such as Glue, EMR, Kinesis etc.
Experience with containerization tools like Docker and Kubernetes.
Strong understanding of data warehousing concepts and data modeling.
Excellent problem-solving skills and attention to detail.
Strong communication skills, with the ability to work collaboratively in a team environment.

Preferred Qualifications:
Experience with machine learning model deployment and MLOps practices.
Knowledge of data visualization tools and techniques.
Practical experience democratizing the companys data to enhance decision making.
Bachelors degree in Computer Science, Engineering, or a related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8340045
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Data Engineer on our Business Analytics & Business Intelligence Group in Tel Aviv Office, youll play a vital role on all aspects of the data, from ETL processes to optimizing our Business data models and infrastructure.
How youll make an impact:
As a Data Engineer, youll bring value by:
Have end to end ownership: Design, develop, deploy, measure and maintain our Business data infrastructure, ensuring high availability, high scalability and efficient resource utilization.
Lead the BI Engineering domain, including mentoring BI Engineers, establishing best practices, and driving BI engineering strategy.
Automate data workflows to streamline processes, reducing manual efforts and improving accuracy of our BI infrastructure..
Collaborate with other departments (e.g., IT/Data, R&D, Product, IS) to ensure seamless integration of BI tools with other systems and data models.
Work closely with the BI Development team to develop, maintain, and automate operational and executive-level reports and dashboards that offer actionable insights.
Identify and evaluate new technologies to improve performance, maintainability, and reliability of our data pipelines.
Excellent communication and collaboration skills to work across teams.
Requirements:
Minimum 3 years of experience in a Data Engineering role, working with large scale data.
Excellent coding skills in Java and Python- must
Experience with Data orchestration tools such as Airflow, or similar.
Experience with designing, developing, maintaining scalable and efficient data pipelines & models.
BSc in Computer Science or related field.
Proven ability to work effectively and independently across multiple teams and beyond organizational boundaries.
Deep understanding of strong Computer Science fundamentals: object-oriented design and data structures systems.
Leading Skills Able to technically lead and mentor other team members on best practices
Strong self-learning capabilities
Excellent attention to details and the ability to remain organized
Strong communications skills, verbal and written
Ability to work in a dynamic environment, with a high level of agility to changing circumstances and priorities
Bonus points if you have:
Experience working in online businesses, especially online advertising, preferably ad-tech.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336346
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Data Engineer on the IT production team in our TLV Office, youll play a vital role impacting billions of users, work with petabytes of data in extreme scale and make a difference, send us your resume. Or In other words, If you like: Database performance tuning, Doing it at scale, Building tools that will help you do it Using AI to make it legendary company is the place for you.
How Youll Make An Impact, As a Data Engineer , youll bring value by:
Advise on the optimal database design by analyzing application behavior and business requirements
Design data flow processes
Work with AI at scale on developing high impact solutions
Proactively monitor and optimize database queries, processes, tables and resources
Initiate and lead cross-group optimization processes
Write utilities and design dashboards that will help us maintain, monitor and optimize the company production database environment and data pipeline
Develop automation tools for large cluster maintenance
Face challenges such as scale, visibility and automation
Be involved in both development and infrastructure projects.
Requirements:
Experience working as a Data Engineer/DBA
Deep understanding of performance tuning techniques for relational databases, preferably MySQL/Vertica
Good understanding of infrastructure components, storage, networking and server hardware
Experience working with scripting/programming languages like Bash, Perl or Python
Ability to programmatically build tools that will help the team with its day-to-day tasks
Self motivated, eager to learn, loves challenges
Able to work independently
Excellent English
It Would Be Great If You Also Have:
In-depth Linux system knowledge
Vertica/HBase/Cassandra/Elastic Experience
Hands-on experience with NoSQL databases
Working experience with queuing systems, preferably Kafka
Experience in web facing environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336344
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Data Infra Engineer on the IT production team in our TLV Office, youll play a vital role impacting billions of users, work with petabytes of data in extreme scale and make a difference, send us your resume. Or In other words, If you like: Database performance tuning, Doing it at scale, Building tools that will help you do it Using AI to make it legendary company is the place for you.
How Youll Make An Impact, As a Data Infra Engineer , youll bring value by:
Advise on the optimal database design by analyzing application behavior and business requirements
Design data flow processes
Work with AI at scale on developing high impact solutions
Proactively monitor and optimize database queries, processes, tables and resources
Initiate and lead cross-group optimization processes
Write utilities and design dashboards that will help us maintain, monitor and optimize the company production database environment and data pipeline
Develop automation tools for large cluster maintenance
Face challenges such as scale, visibility and automation
Be involved in both development and infrastructure projects.
Requirements:
Experience working as a Data Engineer/DBA
Deep understanding of performance tuning techniques for relational databases, preferably MySQL/Vertica
Good understanding of infrastructure components, storage, networking and server hardware
Experience working with scripting/programming languages like Bash, Perl or Python
Ability to programmatically build tools that will help the team with its day-to-day tasks
Self motivated, eager to learn, loves challenges
Able to work independently
Excellent English
It Would Be Great If You Also Have:
In-depth Linux system knowledge
Vertica/HBase/Cassandra/Elastic Experience
Hands-on experience with NoSQL databases
Working experience with queuing systems, preferably Kafka
Experience in web facing environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336343
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Data Performance Engineer on the IT production team in our TLV Office, youll play a vital role impacting billions of users, work with petabytes of data in extreme scale and make a difference, send us your resume. Or In other words, If you like: Database performance tuning, Doing it at scale, Building tools that will help you do it Using AI to make it legendary our company is the place for you.
How Youll Make An Impact, As a Data Performance Engineer , youll bring value by:
Advise on the optimal database design by analyzing application behavior and business requirements
Design data flow processes
Work with AI at scale on developing high impact solutions
Proactively monitor and optimize database queries, processes, tables and resources
Initiate and lead cross-group optimization processes
Write utilities and design dashboards that will help us maintain, monitor and optimize the company production database environment and data pipeline
Develop automation tools for large cluster maintenance
Face challenges such as scale, visibility and automation
Be involved in both development and infrastructure projects.
Requirements:
Experience working as a Data Engineer/DBA
Deep understanding of performance tuning techniques for relational databases, preferably MySQL/Vertica
Good understanding of infrastructure components, storage, networking and server hardware
Experience working with scripting/programming languages like Bash, Perl or Python
Ability to programmatically build tools that will help the team with its day-to-day tasks
Self motivated, eager to learn, loves challenges
Able to work independently
Excellent English
It Would Be Great If You Also Have:
In-depth Linux system knowledge
Vertica/HBase/Cassandra/Elastic Experience
Hands-on experience with NoSQL databases
Working experience with queuing systems, preferably Kafka
Experience in web facing environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336342
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Senior Algo Data Engineer on the Infra group, youll play a vital role in develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools.
About Algo platform:
The objective of the algo platform group is to own the existing algo platform (including health, stability, productivity and enablement), to facilitate and be involved in new platform experimentation within the algo craft and lead the platformization of the parts which should graduate into production scale. This includes support of ongoing ML projects while ensuring smooth operations and infrastructure reliability, owning a full set of capabilities, design and planning, implementation and production care.
The group has deep ties with both the algo craft as well as the infra group. The group reports to the infra department and has a dotted line reporting to the algo craft leadership.
The group serves as the professional authority when it comes to ML engineering and ML ops, serves as a focal point in a multidisciplinary team of algorithm researchers, product managers, and engineers and works with the most senior talent within the algo craft in order to achieve ML excellence. How youll make an impact:
As a Senior Algo Data Engineer, youll bring value by:
Develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools, including CI/CD, monitoring and alerting and more
Have end to end ownership: Design, develop, deploy, measure and maintain our machine learning platform, ensuring high availability, high scalability and efficient resource utilization
Identify and evaluate new technologies to improve performance, maintainability, and reliability of our machine learning systems
Work in tandem with the engineering-focused and algorithm-focused teams in order to improve our platform and optimize performance
Optimize machine learning systems to scale and utilize modern compute environments (e.g. distributed clusters, CPU and GPU) and continuously seek potential optimization opportunities.
Build and maintain tools for automation, deployment, monitoring, and operations.
Troubleshoot issues in our development, production and test environments
Influence directly on the way billions of people discover the internet.
Requirements:
Experience developing large scale systems. Experience with filesystems, server architectures, distributed systems, SQL and No-SQL. Experience with Spark and Airflow / other orchestration platforms is a big plus.
Highly skilled in software engineering methods. 5+ years experience.
Passion for ML engineering and for creating and improving platforms
Experience with designing and supporting ML pipelines and models in production environment
Excellent coding skills in Java & Python
Experience with TensorFlow a big plus
Possess strong problem solving and critical thinking skills
BSc in Computer Science or related field.
Proven ability to work effectively and independently across multiple teams and beyond organizational boundaries
Deep understanding of strong Computer Science fundamentals: object-oriented design, data structures systems, applications programming and multi threading programming
Strong communication skills to be able to present insights and ideas, and excellent English, required to communicate with our global teams.
Bonus points if you have:
Experience in leading Algorithms projects or teams.
Experience in developing models using deep learning techniques and tools
Experience in developing software within a distributed computation framework.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336267
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a brilliant, quick-learner Data Engineer for our data engineering team - an independent, logical thinker who understands the importance of data structuring for macro-business decisions.
The position combines high technical skills with a business orientation.
It involves working closely with the analysts, product, and the R&D team and directly affecting the company's cross-department decisions.
Our Data Engineer should be able to design and build a data flow from the API or source requirements with the most suitable tools to fit the data product requirements.
They need to speak in technical and practical terms and, more importantly, lead from one to the other while dealing with challenges, independent learning, and creating them to make our team even better.
Roles and Responsibilities:
Designing and building full data pipelines: From defining source structures to delivering clean, organized data ready for analysis, your work ensures analysts have everything they need to make smart, data-driven decisions
Translating business needs into scalable data solutions involves staying close to the roadmap, understanding technical nuances, and delivering purpose-built pipelines and tools
Writing high-quality, maintainable code: Following best practices while leveraging modern data engineering tooling and CI/CD principles
Solving complex data challenges creatively: Whether it's device identity (Device Graph), online-to-offline matching, privacy compliance, or server-to-server integrations
Managing multi-source data environments: We bring in data from over 50 sources (Marketing, Product, CS, CRM, Ops, and more), and you will assist in tying it all together into a reliable, insight-ready system
Keeping quality and reliability top of mind: Monitor, validate, and improve data quality while ensuring robust processes across the stack
Requirements:
B.A / B.Sc. degree in a highly quantitative field
4+ years of hands-on experience in data engineering, building data pipelines, writing complex SQL, and structuring data at scale
Fast learner with high attention to detail, and proven ability and passion to multitask on several projects at a time
Strong communication skills and a proven ability to collaborate effectively with different stakeholders on various projects and business/technical goals
Google Cloud Data tools (BigQuery, Cloud Composer/Airflow, Pub/Sub, Cloud Functions) or parallel tools on AWS
Fluent in Python, including experience working with APIs, building infrastructure tools (like custom Airflow operators), and managing data streams
High business intuition and analytical mindset, with a strong sense of how to turn raw data into insights and impact
Experience in designing and building scalable data systems for various data applications - an advantage
Experience in designing scalable data systems and analyzing data for insights - an advantage
Background in data-driven companies in large-scale environments - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8336266
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Realize your potential by joining the leading performance-driven advertising company!
As a Staff Algo Data Engineer on the Infra group, youll play a vital role in develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools.
About Algo platform:
The objective of the algo platform group is to own the existing algo platform (including health, stability, productivity and enablement), to facilitate and be involved in new platform experimentation within the algo craft and lead the platformization of the parts which should graduate into production scale. This includes support of ongoing ML projects while ensuring smooth operations and infrastructure reliability, owning a full set of capabilities, design and planning, implementation and production care.
The group has deep ties with both the algo craft as well as the infra group. The group reports to the infra department and has a dotted line reporting to the algo craft leadership.
The group serves as the professional authority when it comes to ML engineering and ML ops, serves as a focal point in a multidisciplinary team of algorithm researchers, product managers, and engineers and works with the most senior talent within the algo craft in order to achieve ML excellence.
How youll make an impact:
As a Staff Algo Data Engineer Engineer, youll bring value by:
Develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools, including CI/CD, monitoring and alerting and more
Have end to end ownership: Design, develop, deploy, measure and maintain our machine learning platform, ensuring high availability, high scalability and efficient resource utilization
Identify and evaluate new technologies to improve performance, maintainability, and reliability of our machine learning systems
Work in tandem with the engineering-focused and algorithm-focused teams in order to improve our platform and optimize performance
Optimize machine learning systems to scale and utilize modern compute environments (e.g. distributed clusters, CPU and GPU) and continuously seek potential optimization opportunities.
Build and maintain tools for automation, deployment, monitoring, and operations.
Troubleshoot issues in our development, production and test environments
Influence directly on the way billions of people discover the internet.
Requirements:
Experience developing large scale systems. Experience with filesystems, server architectures, distributed systems, SQL and No-SQL. Experience with Spark and Airflow / other orchestration platforms is a big plus.
Highly skilled in software engineering methods. 5+ years experience.
Passion for ML engineering and for creating and improving platforms
Experience with designing and supporting ML pipelines and models in production environment
Excellent coding skills in Java & Python
Experience with TensorFlow a big plus
Possess strong problem solving and critical thinking skills
BSc in Computer Science or related field.
Proven ability to work effectively and independently across multiple teams and beyond organizational boundaries
Deep understanding of strong Computer Science fundamentals: object-oriented design, data structures systems, applications programming and multi threading programming
Strong communication skills to be able to present insights and ideas, and excellent English, required to communicate with our global teams.
Bonus points if you have:
Experience in leading Algorithms projects or teams.
Experience in developing models using deep learning techniques and tools
Experience in developing software within a distributed computation framework.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8335929
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו