רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 8 שעות
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברת Startup אשר פיתחה מוצר שעוסק בהגנה על זכויות יוצרים המבוסס AI.
כמו כן, מספקת פתרונות למוסדות חינוך ולעסקים לשמירה על היושרה ומניעת העתקות.
דרישות:
3 שנות ניסיון כ- data Engineer
ניסיון עם Python - חובה
ניסיון בסביבת ענן - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8391545
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 9 שעות
דרושים בExperis Key Account
Location: Petah Tikva
Job Type: Full Time and Shifts
#WeAreHiring: AI Security data Analyst

??Petah Tikva  |  Hybrid

You will investigate data containing attacks and anomalies on these services. You will investigate suspicious signals, anomalies and incidents to revel attack patterns, than help mitigate the attacks and close the vulnerabilities. You will play a key part in creating risk mitigation procedures and automated data labeling guidelines. Your work will help the company to make its Gen AI products and services more secure for millions of customers.
Requirements:
Education: Bachelor or Masters Degree in Math, Computer Science or a related field (or equivalent work experience)- MUST
  3+ years of experience doing quantitative analysis- MUST
  2+ years of experience with one or more of the following SQL and Splunk
  Experience with Dashboarding Experience with E-commerce and Payments- Advantage
  Knowledge in Python, ML Technologies- Advantage
  Familiarity working with Generative Al/LLMS- Major Advantage! 
  Familiarity with PySpark/ Databricks- Advantage 
 Creative: Out of the box thinker that is always looking for ways to challenge acceptable norms "Self-starter" attitude and the ability to make decisions independently
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8375861
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 9 שעות
דרושים בטלדור מערכות מחשבים
מיקום המשרה: ירושלים
השתלבות בפרויקטים אסטרטגיים מרתקים ומגוונים עתירי דאטה
מתקדמים להעברת נתונים ממערכות שונות אל מחסני נתונים ואגמי נתונים. ETL פיתוח, תחזוקה ושיפור תהליכי
תכנון ויישום תהליכי אינטגרציה בין מערכות מרובות מקורות ויעדים
הכנת נתונים, מידול, טיוב והעשרה של הנתונים, תכנון תהליכים אינקרמנטליים
כולל כתיבת שאילתות מורכבות ואופטימיזציה של ביצועים (NoSQL) ולא רילציונים (SQL) עבדה עם בסיסי נתונים רילציונים
כריית נתונים, אנליטיקה ונושאי הון שחור., BigData השתתפות בפרויקטים של
ושיפורם בהתאם לצרכים העסקיים ETL פיתרון בעיות תפעוליות ותקלות בתהליכי
ומפתחים נוספים בארגון, data Science, BI, DBA עבודה מול צוותי
דרישות:
לפחות 6 שנים ניסיון כמפתח ETL ועבודה עם כלי ETL חובה
ניסיון בתכנון ובניית data pipelines מורכבים-חובה
שליטה בשפת SQL רמה גבוהה וניסיון בכתיבת שאילתות מורכבות- חובה
ניסיון בעבודה על כלי ETL - DataStage, Talend, Informatica, SSIS,Airflow - יתרון
ניסיון בעבודה עם KAFKA,SPARK,HADOOP - יתרון
ניסיון בעבודה מול כלים ותשתיות בענן. -יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8391374
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 10 שעות
דרושים בG-NESS
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
לחברה פיננסית גדולה אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר.
התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
תחומי אחריות-
פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
- ניסיון של 5 שנים בפיתוח פתרונות דאטה - חובה.
- שליטה ב- Python - חובה.
- ניסיון בעבודה עם בסיסי נתונים (SQL)- חובה.
- הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים
- אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
- יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות וגמישות מחשבתית
- ניסיון מחברת ביטוח או פיננסים- יתרון משמעותי.
- שליטה ב Informatica- יתרון.
- ניסיון עם ענן AWS / Azure המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8358756
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 10 שעות
דרושים במלונות אסטרל
מיקום המשרה: בני ברק
סוג משרה: משרה מלאה
אפיון, פיתוח ותחזוקה של דוחות ודשבורדים ב- QlikView בהתאם לצרכים העסקיים
כתיבת סקריפטים לטעינה, ניקוי ואיחוד נתונים ממקורות כמו SQL, Excel ו-APIs
פיתוח תהליכי ETL משלב איסוף הנתונים ועד הצגתם במערכת
עבודה עם בסיסי נתונים וכתיבת שאילתות SQL מורכבות
בקרה על איכות הנתונים וזיהוי בעיות או כפילויות
הבנת הדרישות העסקיות והגדרת מדדים (KPIs) יחד עם מנהלים בכירים
תכנון מבנה דשבורדים - בחירת מדדים, פילוחים, ויזואליזציות וסדר הצגה
שיפור ביצועים ואופטימיזציה של דוחות קיימים
ניהול הרשאות וגישה למידע לפי מדיניות הארגון
הטמעת פתרונות ה- BI, הדרכת משתמשים בארגון והבטחת שימוש רציף במודלים המפותחים
דרישות:
ניסיון- לפחות שלוש שנים
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8370542
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברת הייטק בתחום המדיקל בחיפה מגייסת data Engineer
להצטרף לצוות Point of Care ו-Handheld Ultrasound Algorithm באתר החברה בחיפה.
התפקיד כולל פיתוח, עיצוב ותחזוקה של פתרונות ניהול נתונים חדשניים, המותאמים לעולמות ה-AI המתפתחים בתחום האולטרסאונד הרפואי.

תחומי אחריות:
תמיכה ואופטימיזציה של תהליכי דאטה ואוטומציה
הובלת יוזמות דאטה חוצות ארגון, בשיתוף פעולה עם צוותי אלגוריתמים, קליניקה, ולידציה ומוצר
תרגום צרכים קליניים ומוצרים לארכיטקטורת דאטה
הכנת וניתוח נתונים לפיתוח AI ולהגשות רגולטוריות
הגדרה, פיתוח ותחזוקה של פתרונות מסדי נתונים
דרישות:
דרישות:
ניסיון בתחום של 1-2 שנים לפחות - חובה
תואר ראשון בהנדסה ביו-רפואית / מדעי המחשב / הנדסת חשמל / data Science או תחום דומה - חובה
ניסיון מעשי בפיתוח דאטה בשפת Python וניהול ועיבוד נתונים - חובה
ניסיון עם פורמטים כמו JSON, CSV, Parquet, DICOM - חובה

יתרון:
ניסיון בכתיבת בדיקות unit, component, integration ו-end-to-end
היכרות עם SQL, MongoDB ואופטימיזציה של שאילתות - יתרון
ידע ב-Docker, תהליכי CI/CD וכלים לתשתיות כקוד (AWS CloudFormation, terraform, CDK)
ניסיון עם ספריות מבוססות Dataframe (Pandas, Polars, PySpark) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8365488
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים בגב מערכות
סוג משרה: משרה מלאה
לארגון מוביל באזור הקריות דרוש.ה מפתח.ת Splunk מנוסה להשתלבות בפרויקט אסטרטגי וחדשני הקמת data Lake מתקדם מבוסס Splunk.
זו הזדמנות להשתלב בצוות מקצועי ודינאמי, ולהוביל פיתוחים מורכבים שיאפשרו ניתוחים, ויזואליזציות והתראות בזמן אמת על בסיס מגוון רחב של מקורות מידע.
הזדמנות אמיתית להיות חלק מהקמה של מערכת קריטית לארגון, לעבוד בטכנולוגיות מתקדמות ולהשפיע על עולמות הניתוח והבינה הארגונית בצוות צעיר, מקצועי ודינאמי.
התפקיד כולל התקנה, קונפיגורציה ותחזוקה של סביבות Splunk, כולל אופטימיזציה לביצועים ו-scalability, פיתוח תהליכי ETL והזרמת מידע אל תוך Splunk תוך הקפדה על איכות ודיוק הנתונים, ניהול הרשאות משתמשים, Roles וגישה למידע לפי מדיניות הארגון ו-best practices, פיתוח דשבורדים, ויזואליזציות, שאילתות חיפוש, דוחות, אנליזות מורכבות והתראות, התממשקות למערכות חיצוניות באמצעות API וכלי Splunk.
דרישות:
ניסיון מוכח בפיתוח ויישום פתרונות על גבי Splunk
ידע בתהליכי ETL והזרמת מידע למערכת
ניסיון בניהול הרשאות, משתמשים וגישות
שליטה ב- Python / Shell scripting
תעודות הסמכה של Splunk יתרון משמעותי
היכרות עם JavaScript, ELK וכלים נוספים מעולמות data Analytics יתרון
תואר ראשון רלוונטי יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8297347
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אצלנו באגף ארגון ושיטות חיים ונושמים תהליכים חכמים ושיפור מתמיד.
אנחנו מגייסים בודק/ת דאטה עם עין חדה, חשיבה אנליטית ואהבה לפרטים הקטנים, כי שם מתחבאת האיכות האמיתית.
 
במסגרת התפקיד -
בדיקה, ניתוח ווידוא שהתהליכים והמערכות באגף פועלים באופן תקין.
כתיבת תרחישי ותסריטי בדיקה בהתאם למסמכי אפיון בתחום דאטה.
איתור, תיעוד ומעקב אחר תקלות ושגיאות עד לפתרונן.
עבודה צמודה עם מהנדסים, מנתחי מערכות, וצוותי פיתוח.
דרישות:
מה אנחנו מחפשים?
ניסיון של שנתיים ומעלה בבדיקות על DB ומסדי נתונים חובה
ניסיון מעשי ב- SQL ברמה גבוהה חובה
ניסיון בעבודה עם מסדי נתונים גדולים חובה
ניסיון ב-Tableau יתרון משמעותי
הבנה של תהליכים עסקיים מורכבים יתרון
 

משרה מלאה, ימים א'-ה' 8.5 שעות
יום עבודה מהבית לאחר תקופת ההכשרה
רמת גן, מתחם הבורסה צמוד לרכבת סבידור מרכז ולרכבת הקלה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8356408
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 13 שעות
דרושים בOne data
מיקום המשרה: מספר מקומות
התפקיד כולל אחריות על קליטה ועיבוד של כמויות נתונים גדולות ממקורות מגוונים, הבנת עומק של הדאטה ובחינתו יחד עם data Scientists, וכן עיצוב ופיתוח של תהליכי דאטה קריטיים בסביבות ענן וon-prem.
דרישות:
ניסיון של לפחות 3 שנים כ data engineer - חובה
ניסיון של 3 שנים עם Python בדגש על עבודה עם קבצי json  ועבודה מול בסיסי נתונים חובה
ניסיון מעשי של שנתיים לפחות ב AWS חובה
עבודה מול קבצי טקסט למטרות AI ו LLM יתרון משמעותי
ניסיון מעשי עם Spark עבור Large scale data -יתרון משמעותי
הבנות של טכניקות של אופטימיזציה ועבודה עם partitions של סוגים שונים של דאטה כמו parquet, Avro, hdfs, delta lake
ניסיון בתפיסה ועבודה עם docker, Linux, CI/CD tools, Kubernetes
הכרות עם פתרונות GenAI / prompt engineering יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8292310
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בG-NESS
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
עבודה על בניית פתרונות תוכנה חכמים, פיתוח מודלים מתקדמים ויישום טכנולוגיות Generative AI בסביבות ענן (AWS, GCP) ובOn-Premises.
התפקיד משלב פיתוח תוכנה בפועל, עבודה עם מודלים שונים (שפה, למידה עמוקה ועוד), אינטגרציה עם מערכות הארגון ושיתוף פעולה עם צוותי data Engineering, DevOps ומנהלי מוצר בסביבה טכנולוגית חדשנית ודינאמית.
דרישות:
לפחות 3 שנות ניסיון
ניסיון בפיתוח תוכנה בשפות כמו Python / JAVA / Node.js
ניסיון בעבודה עם ספריות ומסגרות AI/ML (TensorFlow, PyTorch, scikit-learn)
ניסיון בעבודה עם פתרונות ענן (AWS, GCP) וAI Infrastructure On-Premises המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8299811
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 15 שעות
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.
This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
35 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS-based data technologies.

Experience in building and maintaining advanced data pipelines from various data sources.

Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI, Tableau.
Experience with scripting/coding languages such as Python.
Ability to work independently, with attention to detail and strong initiative.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8236697
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 15 שעות
דרושים במלם תים
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM.
דרישות:
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8261624
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 15 שעות
דרושים באסם
מיקום המשרה: שוהם
חטיבת ה - IT של קבוצת אסם Nestle מגייסת data Engineer לצוות הדאטה
כ data Engineer תהיה לך הזדמנות לתרום לפיתוח תחום ה BI על ידי תכנון ויישום של הארכיטקטורה, data processing pipelines, מודלים ודשבורדים.
תחומי אחריות:
פיתוח מקצה לקצה של מודלים: איסוף מקורות הדאטה, פיתוח תהליכי ETL, פיתוח מודלים ודשבורדים למגוון מחלקות בחברה
אפיון, יישום ותחזוקה של ארכיטקטורת דאטה יעילה לתמיכה בתהליכים העסקיים, בהתאם לסטנדרטים של קבוצת נסטלה
שדרוג והעברת תהליכי ה ETL לכלים מודרניים
זיהוי, הגדרה ויישום של שיפורי תהליכים לשיפור באמינות ויעילות: עיצוב מחדש של תשתיות, אוטומציה של תהליכים ידניים, אופטימיזציה של העברת דאטה וכו'
עבודה מול בעלי עניין ומומחי data בקבוצת נסטלה העולמית בכדי לזהות הזדמנויות למינוף נתוני החברה ויישום פתרונות עסקיים
יישום תהליך ומערכת לניטור איכות, דיוק, וזמינות הנתונים
דרישות:
1-2 שנות ניסיון בתפקיד דומה
תואר ראשון BA/BSc. בתחום רלוונטי
ניסיון מוכח בעבודה עם data Factory/AWS חובה (בעדיפות לAzure)
ניסיון בעבודה עם Databricks חובה
ניסיון בעבודה עם APIs
ידע ברמה גבוהה ב SQL, Python חובה
ניסיון בפיתוח מודלים, ויזואליזציות ועבודה עם כלי BI - Power BI יהווה יתרון
מיומנויות תקשורת, יכולת למידה עצמאית
אנגלית ברמה גבוהה קריאה, כתיבה ודיבור המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8321055
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אצלנו באגף ארגון ושיטות חיים ונושמים תהליכים חכמים ושיפור מתמיד.
אנחנו מגייסים בודק/ת דאטה עם עין חדה, חשיבה אנליטית ואהבה לפרטים הקטנים, כי שם מתחבאת האיכות האמיתית.
 
במסגרת התפקיד -
בדיקה, ניתוח ווידוא שהתהליכים והמערכות באגף פועלים באופן תקין.
כתיבת תרחישי ותסריטי בדיקה בהתאם למסמכי אפיון בתחום דאטה.
איתור, תיעוד ומעקב אחר תקלות ושגיאות עד לפתרונן.
עבודה צמודה עם מהנדסים, מנתחי מערכות, וצוותי פיתוח.
דרישות:
מה אנחנו מחפשים?
ניסיון של שנתיים ומעלה בבדיקות על DB ומסדי נתונים חובה
ניסיון מעשי ב- SQL ברמה גבוהה חובה
ניסיון בעבודה עם מסדי נתונים גדולים חובה
ניסיון ב-Tableau יתרון משמעותי
הבנה של תהליכים עסקיים מורכבים יתרון
 

משרה מלאה, ימים א'-ה' 8.5 שעות
יום עבודה מהבית לאחר תקופת ההכשרה
רמת גן, מתחם הבורסה צמוד לרכבת סבידור מרכז ולרכבת הקלה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8300038
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בריקרוטיקס בע"מ
Location: More than one
Job Type: Full Time and Hybrid work
We are a pioneer company that integrates statistics modules and algorithms with a passion to sports, mainly soccer.
We are looking for a data analyst to join our research department. The data analyst function will support several stakeholders in our company.
As a part of your job you'll be:
Working with the research team and be the one to look and understand the bigger picture.
Learning the data gathering mechanism.
Face and solve business problems by analyzing data and provide insights to the business.
Develop complex logic flows to identify predefined events and generate desired insights.
Support the researchers on their projects.
Responsible for conducting both recurring and ad hoc analysis for business stake holders.
Research and integrate new tools and methods to enrich datasets.
Requirements:
A least 2 years of experience as a data Analyst - a must
High hands-on SQL skills ( SQL server ) - a must
R or Python programming skills- a must
Knowledge in statistics - a must
Interest in FinTech, Algo Trading an advantage
Interest in sports (soccer in particular) - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8382334
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
Location: Yokne`am
Job Type: Full Time
We are looking for a Senior Data Engineer to join the manufacturing data Engineering team and help us craft data collection solutions, quality control methodologies and monitors, support data enlargement scale. As a Data Engineer, you will play a significant role in bridging the gap between machine learning and software engineering. Your primary responsibility will be to develop, deploy, and maintain the infrastructure, data pipelines and workflows required for the end-to-end solution collecting the data till loading to data warehouse. If you are genuinely passionate about data engineering platforms, methodologies and possesses excellent problem-solving, we'd love to hear from you!

What youll be doing:

Collaborate with multi-functional teams, including full stack engineers, data scientists, data engineers, and DevOps, to craft, implement robust reliable data pipelines, infrastructure and workflows.
develop and support data models, schemas, and database structures that provide blazing-fast analytics performance. Constantly optimize data workflows to ensure flawless real-time and batch data processing.
Implement data quality checks and monitoring mechanisms to ensure data integrity and accuracy at every stage. detect and resolve bottlenecks swiftly to maintain a highly available and reliable data ecosystem.
Control, monitor and optimize worldwide production servers.
Build and maintain scalable data pipelines, ensuring efficient data storage, retrieval, and transformation.
Stay ahead of the curve in data engineering technologies and trends. Introduce new tools, techniques, and standard methodologies to improve our data infrastructure, empowering data scientists and analysts alike.
Feed a culture of learning and knowledge-sharing within the team. Guide and mentor junior data engineers, applying your expertise to uplift the entire department.
Requirements:
What we need to see:
Bachelors or masters degree in computer science, Engineering, or a related field.
5+ years of relevant experience.
Demonstrated track record as a hands-on Data Engineer, driving the successful delivery of sophisticated data projects. Your experience speaks volumes.
Experience with cloud-based data platforms like AWS, Azure, or GCP. You harness the power of the cloud to unlock data's full potential.
Strong programming skills in languages such as Python or Scala, with experience in building scalable and efficient systems.
Experience with containerization technologies like Docker and orchestration tools like Kubernetes.
Solid knowledge in Linux environment.

Ways to stand out from the crowd:
Attention to detail is unwavering. You take pride in delivering data of the highest quality, turning it into insights that power critical business decisions.
Experience working and data engineering frameworks such as Kafka, Cloudera, Spark, Airflow or Hadoop.
Growing in a multifaceted environment, able to balance multiple priorities admirably without compromising on quality or precision.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8391932
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 15 שעות
Location: Merkaz
Job Type: Full Time
abra R&D is looking for a Data engineer! We are looking for a Data Engineer to join the team and contribute to AI-related projects. The role involves handling large volumes of incoming data, performing deep analysis, and collaborating closely with Data Scientists. You will be responsible for designing and developing critical, diverse, and large-scale data pipelines in both cloud and on-premise environments.
Requirements:
Minimum 5 years of experience as a Data Engineer mandatory 5 years of experience working with Object-Oriented Programming (OOP) languages mandatory 5 years of hands-on experience with Python mandatory Hands-on experience with Spark for large-scale data processing mandatory At least 2 years of practical experience with AWS , including services such as Athena, Glue, Step Functions, EMR, Redshift, and RDS mandatory
* Deep understanding of design, development, and optimization of complex solutions handling or processing large-scale data
* Familiarity with optimization techniques and working with data partitioning and formats such as Parquet, Avro, HDF5, Delta Lake
* Experience working with Docker, Linux, CI/CD tools, and Kubernetes
* Experience with data pipeline orchestration tools like Airflow or Kubeflow Bachelor’s degree in Computer Science, Engineering, Mathematics, or Statistics – mandatory
* Understanding of machine learning concepts and workflows
* Familiarity with GenAI solutions or prompt engineering advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8260993
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands-on data infrastructure and platform engineer with proven leadership skills to lead and evolve our self-service data platform that powers petabyte-scale batch and streaming, near-real-time analytics, experimentation, and the feature platform. Youll guide an already excellent team of senior engineers, own reliability and cost efficiency, and be the focal point for pivotal, company-wide data initiatives- feature platform, lakehouse, and streaming.
Own the lakehouse backbone: Mature Iceberg at high scalepartitioning, compaction, retention, metadataand extend our IcebergManager in-house product to automate the lakehouse management in a self serve fashion.
Unify online/offline for features: Drive Flink adoption and patterns that keep features consistent and low-latency for experimentation and production.
Make self-serve real: Build golden paths, templates, and guardrails so product/analytics/DS engineers can move fast safely.
Run multi-tenant compute efficiently: EMR on EKS powered by Karpenter on Spot instances; right-size Trino/Spark/Druid for performance and cost.
Cross-cloud interoperability: BigQuery + BigLake/Iceberg interop where it makes sense (analytics, experimentation, partnership).
What you'll be doing
Leading a senior Data Platform team: setting clear objectives, unblocking execution, and raising the engineering bar.
Owning SLOs, on-call, incident response, and postmortems for core data services.
Designing and operating EMR on EKS capacity profiles, autoscaling policies, and multi-tenant isolation.
Tuning Trino (memory/spill, CBO, catalogs), Spark/Structured Streaming jobs, and Druid ingestion/compaction for sub-second analytics.
Extending Flink patterns for the feature platform (state backends, checkpointing, watermarks, backfills).
Driving FinOps work: CUR-based attribution, S3 Inventory-driven retention/compaction, Reservations/Savings Plans strategy, OpenCost visibility.
Partnering with product engineering, analytics, and data science & ML engineers on roadmap, schema evolution, and data product SLAs.
Leveling up observability (Prometheus/VictoriaMetrics/Grafana), data quality checks, and platform self-service tooling.
Requirements:
2+ years leading engineers (team lead or manager) building/operating large-scale data platforms; 5+ years total in Data Infrastructure/DataOps roles.
Proven ownership of cloud-native data platforms on AWS: S3, EMR (preferably EMR on EKS), IAM, Glue/Data Catalog, Athena.
Production experience with Apache Iceberg (schema evolution, compaction, retention, metadata ops) and columnar formats (Parquet/Avro).
Hands-on depth in at least two of: Trino/Presto, Apache Spark/Structured Streaming, Apache Druid, Apache Flink.
Strong conceptual understanding of Kubernetes (EKS), including autoscaling, isolation, quotas, and observability
Strong SQL skills and extensive experience with performance tuning, with solid proficiency in Python/Java.
Solid understanding of Kafka concepts, hands-on experience is a plus
Experience running on-call for data platforms and driving measurable SLO-based improvements.
You might also have
Experience building feature platforms (feature definitions, materialization, serving, and online/offline consistency).
Airflow (or similar) at scale; Argo experience is a plus.
Familiarity with BigQuery (and ideally BigLake/Iceberg interop) and operational DBs like Aurora MySQL.
Experience with Clickhouse / Snowflake / Databricks / Starrocks.
FinOps background (cost attribution/showback, Spot strategies).
Data quality, lineage, and cataloging practices in large orgs.
IaC (Terraform/CloudFormation).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390166
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Petah Tikva
Job Type: Full Time
What you will do:
The AI, Data & Research unit is at the forefront of our companys innovation, building data-driven, ML-powered, and intelligent security solutions. We are looking for an experienced and passionate Data Engineering Team Leader to lead a team of 5 seasoned data engineers. You will play a critical role in designing and delivering scalable, reliable data infrastructure and ETLs, enabling our machine learning, analytics, and product teams to deliver maximum impact.
Lead and grow a high-performing team of experienced data engineers.
Define and implement the teams technical roadmap, ensuring alignment with AI, Data, and Researchs achieving strategic objectives and product roadmap.
Own the development, and operation of robust, scalable, and efficient data pipelines and services.
Oversee the quality, performance, and maintainability of the teams codebase and delivered solutions.
Manage delivery plans, track progress, resolve blockers, and ensure on-time delivery.
Drive best practices in software engineering, data modeling, data quality, code quality, security, observability, and operational excellence.
Translate business and research requirements into scalable technical data solutions.
Foster a culture of ownership, collaboration, continuous learning, drive improvement and innovation within the team.
Actively mentor team members, guide career development, and conduct regular performance reviews.
Requirements:
Bachelors degree in computer science, Software Engineering, or a related field.
3+ years of experience as a data engineering team leader in a product-based company.
5+ years of hands-on in SQL and Python / Pyspark (or Java / Scala), data modeling techniques and concepts - such as Facts, Dimension, Partitions, etc.
Experience in designing and implementing data ingestion, ETL processes and 3rd party tools, preferably with experience in Data Lakehouse and Data Warehouse architecture
Proven experience with CI/CD processes and agile development methodologies.
Strong interpersonal and communication skills.
Demonstrated ability to manage and develop a team with varying levels of experience.
Skilled in identifying risks, tracking progress, and resolving technical challenges proactively.
Self-motivated and goal-oriented with a high work ethic.
Ability to balance long-term architectural vision with fast-paced delivery, in early-stage development or startup environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390151
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Petah Tikva
Job Type: Full Time
we are looking for an experienced and highly motivated Senior Data Engineer with high professional skills to join our AI, Data & Research unit. Spearhead the development of Data Lakehouse processes and modeling our company products; Define and popularize best practices in the data field.
Work closely with ML, Data engineers and architects from the AI, Data & Research unit as well as R&D software engineering teams.
identify opportunities and help specify data requirements to improve security for our company products and customers along with product managers and data scientists.
Requirements:
What you need to succeed:

5+ years of data modeling techniques and concepts - such as Facts, Dimension, Partitions, etc.
5+ years of experience in designing and implementing data ingestion, ETL processes and 3rd party tools, preferably with experience in Data Lakehouse and Data Warehouse architecture
5+ years of hands-on experience in SQL and Python / Pyspark (or Java / Scala)
Data landscape understanding from vendor-specific to open-source (e.g. Snowflake/Redshift, DataBricks, Iceberg, Hadoop, DBT)
A versatile, proactive, team player, can-do attitude, quick learner, and a great executor
How you will stand out from the crowd:
Data Warehouse technologies (especially Iceberg or Snowflake)
AWS ecosystem (Glue, Athena, Kinesis, Redshift, SageMaker, EMR) an advantage
Experience with Data Science (Scikit-learn / TensorFlow / PyTorch, etc.) an advantage
Background in cyber security an advantage
Managerial experience in the data engineering field an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390143
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
we are a fast-growing digital health SaaS company thats on a mission to transform the way physicians interact with patient data. Thousands of clinicians across the United States already use our companys AI-powered solution that transforms complex and fragmented patient data into concise patient portraits" and actionable clinical insights at the point of care. With our company , physicians experience less burnout, reduce missed diagnoses, and can devote more time giving better care to their patients.
our company has been named one of the Top 100 AI companies globally by CB Insights and made the list of the Top 50 Digital Health startups. We are already working with industry-leading value-based organizations including Privia Health and Agilon.
we are looking for a talented and experienced Data Engineer to join our data group.
The team is responsible for processing and transforming data from multiple external sources while building and maintaining an internal serving platform. Our key challenges include operating at scale, integrating with diverse external interfaces, and ensuring the data is served in a consistent and reliable manner.
Responsibilities
Designing and implementing our companys data platform
Transforming, modeling, and serving all our companys medical data.
Utilize data best practices, to improve the product and allow data-driven decision-making.
Collaborate closely with cross-functional teams to understand business requirements and translate them into data-driven solutions.
Stay updated with the latest research and advancements in the data field.
Requirements:
5+ years of experience in software development, with at least 3 years as a data engineer.
Proven track record designing and implementing scalable ETL/ELT data pipelines.
Strong SQL skills.
Experience with relational and analytical data platforms (e.g., PostgreSQL, Snowflake, data lakes).
Strong coding skills (preferably in Python), with prior software engineering experience (e.g., API development) a plus.
Experience with cloud environments, AWS preferable.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390133
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Data Engineer who takes full ownership, works independently, and delivers results with speed and precision.
You are a fast learner who quickly adapts to new tools and concepts, communicates clearly across teams, and documents your work effectively. You pay attention to details, stay organized, and are committed to getting things done with continuous improvement.
Responsibilities
Design, implement, and maintain robust data pipelines to process and manage large-scale datasets, including auto-tagging for expanding training and validation data.
Develop intelligent search and filtering techniques and utilities to query relevant data and expedite data discovery.
Identify impactful driving scenarios across large datasets, enrich them into diverse, high-quality datasets for development usage.
Leverage NN models to support automatic labelling processes and data mining.
Create or customize data annotations tools, integrating automated quality assurance and auto-tagging algorithms to make data pipelines more efficient.
Design and manage processes for synthetic data generation.
Data processes documentation and communicates progress to stakeholders.
Requirements:
B.Sc. in Computer Science, Electrical Engineering, or related field. (M.Sc. is an advantage)
3+ years of experience in a data engineer/backend/tools dev role, preferably in AI or automotive environments.
Proficiency in Python and data tools (e.g., Pandas, NumPy).
Strong algorithmic thinking and data handling skills.
Familiarity with CV/ML pipelines is a strong plus.
Proficiency in building data queries from scratch.
Hands-on experience with large-scale data (video, sensors, logs, etc) and data visualisation tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390077
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are a fast-growing start-up with a groundbreaking approach to unsupervised learning and signature-based data representation that is set to disrupt the next generation of vehicles and mobility.
At our company, you will face never-ending intellectual challenges as we redefine AI for scalable autonomous platforms and products, with the goal to forever change driving and make the roads a safer place for all. You will work with bright and talented people, in an environment where professional and personal development are a top priority.
we are backed by top investors and key players in the automotive industry such as Temasek, Toyota, BMW, Continental, Vinfast and Knorr-Bremse, with headquarters at the heart of Tel Aviv.
Responsibilities
The Data engineer is responsible for the definition of the data ecosystem used by the object detection team our company .
Overseeing the companys data pipeline system and processes including organizing, storing, labeling, and analyzing the data received, to ensure timely delivery of high-quality data required for the development projects of the company.
Establish and implement an effective process for data management, and build a strong team of data annotation specialists.
Data team management: group management, monitoring data tasks, monitoring of the work pace and improving processes to ensure efficient processes
Working closely with R&D and product management teams, algorithms, functional testing specialists, and data tagging professionals to ensure successful kickoff and execution of required projects including manpower planning, the correct definition of requirements, training materials preparation, and progress follow-up.
Provide Data for training deep learning networks.
Collect and analyze data for the effectiveness of the projects, using scripts, python queries, and building dashboards
Test new annotation tools and improve existing ones, validate the quality of the annotated data.
Requirements:
BSc in EE or Computer Science, Industrial Engineer (or similar field) (MSc advantage)
Know-how in processes and organizational techniques
Experience in heading up exceptionally large-scale business process operations.
Familiar with Data transfer methodologies design and operation
Strong project management skills: experience in working with cross-organizational teams- R&D, IT, Product, and project managers to achieve various project goals in an effective and timed manner.
Ability to handle multiple competing priorities in a fast-paced environment
Experience in big data, database techniques, tagging, and labeling advantage.
Experience as a first-line manager (advantage)
Experience in Computer Vision products advantage
Experience in data architecture, especially from the automotive industry big advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8390075
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
הצטרף/י אלינו, data engineer מנוסה, למשרה מרתקת של פיתוח פתרונות טכנולוגיים מבוססי דאטה, שיתמכו בצרכים העסקיים המשתנים של הארגון.
דרישות:
הצטרף/י אלינו, data engineer מנוסה, למשרה מרתקת של פיתוח פתרונות טכנולוגיים מבוססי דאטה, שיתמכו בצרכים העסקיים המשתנים של הארגון. התפקיד כולל עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים, תוך שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים. בנוסף, נדרשת יכולת לחקור ולהטמיע טכנולוגיות חדשות לשיפור תהליכים קיימים ותרגום דרישות עסקיות למודלים טכנולוגיים אפקטיביים. יומך יכלול-
- פיתוח פתרונות דאטה מותאמים לצרכים עסקיים בניית תהליכי ETL, אינטגרציה וניקוי נתונים עבודה עם תשתיות דאטה מתקדמות וארכיטקטורת מידע שיתוף פעולה עם צוותי אנליזה, מוצר וגורמים עסקיים חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים ישימים דרישות המשרה- ניסיון של לפחות 5 שנים בפיתוח פתרונות דאטה חובה שליטה מלאה ב- Python חובה ניסיון בעבודה עם בסיסי נתונים וכתיבת שאילתות SQL חובה הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים אהבה ללמידה וסקרנות טכנולוגית יכולת עבודה עצמאית וראש גדול יצירתיות ויכולת פתרון בעיות מורכבות גמישות מחשבתית ויכולת הסתגלות לשינויים ניסיון קודם בחברות ביטוח או פיננסים יתרון משמעותי שליטה בכלי Informatica יתרון ניסיון בעבודה עם שירותי ענן AWS או Microsoft Azure יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8389994
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Haifa
We seek a highly skilled and experienced Solution Architect with a deep understanding of Data and operations to join our team. In this role, you will be responsible for designing and implementing data-centric solutions that enable our customers to achieve their business objectives, with a strong focus on building efficient and reliable ETL pipelines.
You will work closely with clients to understand their needs, translate them into technical requirements, and architect scalable, reliable, and secure data pipelines.
Key Responsibilities:
Collaborate with clients to gather requirements and understand their data
challenges.
Design and implement end-to-end DataOps solutions, including data
ingestion, processing, storage, and analysis.
Leverage cloud technologies and best practices to architect scalable and
cost-effective data architectures.
Ensure data quality, integrity, and security throughout the data lifecycle.
Automate data pipelines and workflows to improve efficiency and reduce
manual effort.
Stay up-to-date with the latest DataOps trends and technologies.
Provide technical guidance and mentorship to other team members.
Requirements:
Proven experience as a Solution Architect or in a similar role, with a strong focus on DataOps.
Deep understanding of data management principles, data modeling, and ETL processes.
Expertise in cloud technologies (AWS, Azure, GCP) and data platforms (Hadoop, Spark, Snowflake, Looker).
Strong knowledge of programming languages (Python, Java, Scala) and scripting languages (Bash, PowerShell).
Experience with DevOps tools and practices (CI/CD, containerization, orchestration).
Excellent communication and collaboration skills, with the ability to work effectively with both technical and non-technical stakeholders.
Strong problem-solving and analytical skills
Bachelors degree in Computer Science, Engineering, or a related field.
Additional Info:
Send us your CV in English and become part of WideOps team!
Only short-listed candidates will be contacted.
Confidentiality of all applications is assured!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8386302
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Haifa
Job Type: Full Time and Hybrid work
We are looking for a Data Team Lead.
Requirements:
1. Technical Expertise
Cloud Data Platforms: Expertise in Google Cloud Platform (GCP)
services, especially in data-related services like BigQuery, Cloud SQL,
Dataproc, Pub/Sub, and Dataflow.
Data Engineering: Strong knowledge of data pipelines, ETL/ELT
processes, and data integration using GCP tools.
Database Management: Experience with both relational and
non-relational databases, including MySQL, PostgreSQL, and NoSQL
solutions like Firestore or Bigtable.
Programming Skills: Proficiency in Python, SQL, and possibly other
languages like Java or Scala, with a focus on data manipulation and
processing.
APIs and Integrations: Experience working with Google APIs and
third-party APIs for data extraction and integration.
Machine Learning: Familiarity with Google Cloud AI tools, such as
Vertex AI, and how to integrate machine learning workflows into the data
architecture.
Data Governance: Knowledge of data security, privacy, governance, and
regulatory requirements (GDPR, HIPAA, etc.).
2. Leadership and Management
Team Management: Ability to lead a team of data engineers, analysts,
and architects, providing guidance, mentorship, and performance
management.
Project Management: Strong skills in managing data projects, ensuring
timely delivery while meeting client requirements.
Collaboration: Experience working cross-functionally with stakeholders
such as solution architects, developers, and business teams to translate
business needs into data solutions.
Resource Allocation: Efficiently managing cloud resources to optimize
cost and performance.
3. Client-Facing Skills
Consulting: Experience in providing consulting services to clients,
including understanding their data needs, providing solutions, and
guiding them through the data modernization process.
Pre-sales Support: Supporting sales teams in scoping out client
projects, preparing presentations, and explaining technical aspects of
data solutions during pre-sales.
Client Relationship Management: Building and maintaining strong
relationships with clients to ensure satisfaction and long-term
partnership.
4. Certifications and Education
● Google Cloud Certifications:
● Professional Data Engineer (preferred)
● Professional Cloud Architect (preferred)
● Other Certifications: Optional certifications in data engineering or
machine learning from organizations like Cloudera, AWS, or Microsoft
Azure can be advantageous.
● Educational Background: Bachelors or Masters degree in Computer
Science, Data Science, Engineering, or a related field.
5. Soft Skills
● Problem-Solving: Ability to troubleshoot data-related issues and
implement scalable solutions.
● Adaptability: Ability to keep up with the rapidly changing cloud and data
landscape.
● Communication: Excellent verbal and written communication skills to
explain complex data systems to non-technical stakeholders.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8386297
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are a global marketing tech company, recognized as a Leader by Forrester and a Challenger by Gartner. We work with some of the world's most exciting brands, such as Sephora, Staples, and Entain, who love our thought-provoking combination of art and science. With a strong product, a proven business, and the DNA of a vibrant, fast-growing startup, we're on the cusp of our next growth spurt. It's the perfect time to join our team of ~500 thinkers and doers across NYC, LDN, TLV, and other locations, where 2 of every 3 managers were promoted from within. Growing your career with us is basically guaranteed.

Responsibilities
We are a team of technophiles who hate latency. As a member of our team, you will need to:
Develop and maintain systems that can process complex requests within a few milliseconds.
Tackle advanced engineering challenges in multiple languages and environments.
Own every product that the team manages, from ideation and planning, all the way to production and monitoring.
Teach and learn. We love to inspire and be inspired and make sure that each team member has their place to grow and excel.
Work both autonomously and collaboratively with the team and other teams.
Requirements:
Requirements:
At least 5 years of experience in backend development/data engineering.
Experience working with SQL and NoSQL databases.
Experience with cloud development.
Working with high scale.
Ability to work in a multi-language environment.

Advantages:
B.Sc. in computer science or equivalent.
Hands-on experience with one or more of the following technologies: NodeJS, .NET Core, Kubernetes, Docker, Airflow, Data Flow and Terraform.
Hands-on experience with multiple services on Google Cloud Platform and/or Firebase.
Proven experience of hardcore performance optimization (tens of milliseconds).
TDD Experience.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8386265
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Customer Data Engineer, you will be a part of a strong energetic, and fast-growing global team. You will be an integral part of clients' onboarding and ongoing data requests and projects. You will be working closely with internal PM and CSM teams as well as interacting directly with clients data teams across different business verticals. Your core responsibilities will involve playing an active role in collaborating with internal teams to construct tailored data transformations and manipulations while working with top-notch technology (Cloud tech etc.) The ideal candidate is an SQL whiz with a strong work ethic, robust analytical and technical capabilities, and highly effective time management skills. We are looking for a master multi-tasker who thrives in challenging, fast-paced environments, with agility and ease.
The Customer Data Engineer is a position that brings with it an excellent opportunity to learn and grow within a rapidly expanding company on the cutting edge of Martech.

Responsibilities:
Develop and support a wide range of data transformations and migrations.
Construct custom ETL processes: Design and implementation of data pipelines and data marts, access versatile data sources, and apply data quality measures.
Investigate data mismatches and apply solutions.
Work side by side and support the Customer Success teams in order to meet customer business needs. 
Interact with clients to understand business needs and collaborate on project scopes, planning, and execution.
Requirements:
Requirements:
Graduate with a degree in Industrial Engineering and Management or a similar major.
Experience with databases and SQL - a Must.
Outstanding technical and analytical skills.
Highly motivated with an exceptional work ethic.
High attention to detail with an ability to work on multiple projects simultaneously.
Strong interpersonal and communication skills.
Quick, self-learning capabilities and creativity in problem-solving.

Preferred:
Familiarity with Python.
Familiarity with Airflow, ETL tools, Snowflake and MSSQL.
Hands-on with VCS (Git).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8386255
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Engineer to join our growing team!
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
"our company's data management vision is the future of the market."- Forbes
we are the data platform company for the AI era. We are building the enterprise software infrastructure to capture, catalog, refine, enrich, and protect massive datasets and make them available for real-time data analysis and AI training and inference. Designed from the ground up to make AI simple to deploy and manage, our company takes the cost and complexity out of deploying enterprise and AI infrastructure across data center, edge, and cloud.
Our success has been built through intense innovation, a customer-first mentality and a team of fearless company ronauts who leverage their skills & experiences to make real market impact. This is an opportunity to be a key contributor at a pivotal time in our companys growth and at a pivotal point in computing history.
In this role, you will be responsible for:
Designing, building, and maintaining scalable data pipeline architectures
Developing ETL processes to integrate data from multiple sources
Creating and optimizing data models for efficient storage and retrieval
Implementing data quality controls and monitoring systems
Collaborating with data scientists and analysts to deliver data solutions
Building and maintaining data warehouses and data lakes
Performing in-depth data analysis and providing insights to stakeholders
Taking full ownership of data quality, documentation, and governance processes
Building and maintaining comprehensive reports and dashboards
Ensuring data security and regulatory compliance.
Requirements:
Bachelor's degree in Computer Science, Engineering, or related field
3+ years experience in data engineering
Strong proficiency in SQL and Python
Experience with ETL tools and data warehousing solutions
Knowledge of big data technologies (Hadoop, Spark, etc.)
Experience with cloud platforms (AWS, Azure, or GCP)
Understanding of data modeling and database design principles
Familiarity with data visualization tools - Tableau, Sisense
Strong problem-solving and analytical skills
Excellent communication and collaboration abilities
Experience with version control systems (Git).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8384334
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Herzliya
Job Type: Full Time and Hybrid work
We are looking for a Data Platform Engineer.
We work in a flexible, hybrid model, so you can choose the home-office balance that works best for you.
Key Responsibilities:
Design and implement scalable data processing pipelines using Azure Databricks and other modern data platforms to power real-time analytics and insights.
Push boundaries by pioneering new technologies and stretching existing ones to their limitsbe a trailblazer in data innovation.
Design, build, and maintain scalable data processing and analytics infrastructure and pipelines, optimizing for performance and cost efficiency.
Collaborate cross-functionally with software engineering, product, and research teams to understand data needs and ensure data solutions meet business requirements.
Engage with strategic customers, ensuring our data solutions meet high standards and deliver measurable value in real-world environments.
Requirements:
4+ years of experience in data engineering, including cloud-based data solutions.
Proven expertise in implementing large-scale data solutions.
Proficiency in Python, SQL, PySpark is a plus.
Experience with ETL processes.
Experience with cloud and technologies such as Databricks (Apache Spark) and Azure Data factory.
Strong analytical and problem-solving skills, with the ability to evaluate and interpret complex data.
Experience leading and designing data solutions end-to-end, integrating with multiple teams, and driving tasks to completion.
Advantages :
Familiarity with either On-premise or Cloud storage systems
Excellent communication and collaboration skills, with the ability to work effectively in a multidisciplinary team.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8383994
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו