רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 13 שעות
דרושים בOne data
הזדמנות להשתלב בארגון גדול ודינמי, עם מאות משתמשים, הנמצא בתנופת עשייה ומעבר לטכנולוגיות חדשניות ומתקדמות!
הצטרף/י לצוות BI שאחראי על תפעול, פיתוח והובלת פרויקטים משמעותיים משלב האפיון ועד ליישום והטמעה מלאה של פתרונות דאטה ובינה עסקית.
במסגרת התפקיד:
אפיון דרישות עסקיות ומיפוי נתונים
הגדרת תהליכי ETL ותרשימי ERD
פיתוח ותחזוקת pipelines בסביבת data Lake
פיתוח דשבורדים ודוחות במערכות BI
מתן מענה שוטף לדרישות עסקיות, תקלות, ופרויקטים
עבודה עם טכנולוגיות מתקדמות בסביבת ענן
דרישות:
לפחות 8 שנות ניסיון בבניית ותחזוקת data Pipelines מקצה לקצה
ניסיון עם כלי SAP חובה
ניסיון עם Databricks ו-Snowflake חובה
שליטה מעמיקה ב-SQL (כולל stored procedures, Indexing, Performance Tuning)
ניסיון בפיתוח תהליכי שינוע נתונים בעולמות רלציוניים
ניסיון בכלי תשתית: SSIS, SAP -DI / SAP -DS, SQR
עבודה עם תהליכי CI/CD
ניסיון בעבודה בסביבת ענן AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8395320
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
דרושים בהקואליציה הישראלית לטראומה
סוג משרה: משרה מלאה
לעמותת "הקואליציה הישראלית לטראומה" הממוקמת בנווה אילן, (סמוך לירושלים)
(נדרשת ניידות)

דרוש/ה: דרוש/ה רכז/ת מערך תפעול חשבונאי מרכז חוסן ארצי
היקף המשרה:
משרה מלאה (100%)
ימים א'-ה'

תיאור התפקיד:
1. טיפול בדיווחי דרישות חודשיות חשבונאים של הארגונים השותפים:
בדיקה וטיפול בחשבוניות.
קליטת דרישות תשלום חודשיות למערכת הנהלת חשבונות.
מעקב תקינות מתהליך הדרישה עד התשלום.
ניהול ריג'קטים מול הנהלת חשבונות וביטוח לאומי.
ניהול פיננסי, דיווחים ותשלומים.

2. ניהול מערכות המידע והתפעול של מרכז החוסן הארצי:
הקמת משתמשים חדשים וניהול הרשאות
ניהול הדאטה, ייצוא וייבוא נתונים
הדרכות מערכת למשתמשים חדשים
ניהול תקלות ומתן מענה טכני למשתמשים
עבודה מול שירות התמיכה של הטיפולוג

3. ניהול נתונים ואנליזה:
שליטה מעולה באקסל, כולל שימוש מתקדם בפונקציות VLOOKUP ויצירת טבלאות ציר (Pivot Tables)
איסוף, עיבוד וניתוח כמויות גדולות של נתונים מארגונים שונים.
חשיבה אנליטית ויכולת לזהות מגמות ותובנות מנתונים
ניהול דשבורד של מוקד חוסן ארצי
הפקת דוחות מורכבים והצגת נתונים
דרישות:
תואר ראשון -יתרון
ידע בהנהלת חשבונות - חובה
תעודה של דאטה אנליסט -יתרון
ניסיון בעבודה עם כלי BI כמו Tableau או Power BI
היכרות עם מושגים סטטיסטיים בסיסיים
מוסר עבודה גבוה ויחסי אנוש מצוינים
הערה: אין צורך בידע בשפות תכנות כמו Python או SQL. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8402311
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 18 שעות
סוג משרה: משרה מלאה
חברת הייטק בינלאומית ומובילת שוק בתחומה מחפשת Senior SQL Server DBA שיקח/תקח חלק בהובלת הצוות, י/תוביל קו חשיבה מקצועי כדמות אסקלטורית ויטמיע/תטמיע מתולוגיות עבודה לחברי הצוות.

במסגרת התפקיד
- DB administration Performance Tuning 
 ביצוע פעולות מתוזמנות ופרודוקטיביות לצורך איתור ומניעת בעיות.
-הסמכה לעבודה עם מערכת AimBetter המוצר שלנו לניהול ותחקור בעיות, ולשמש גורם משפיע בצוות באמצעות שיתוף ידע, הכנה והטמעת מתודולוגיות עבודה בקרב חברי הצוות.

משרה מלאה ממשרדי החברה באשקלון, ימים א-ה
כוננות לילה וסופשים מהבית (במקרי תקלות בלבד) 
לאחר חצי שנה, אפשרות ליום עבודה מהבית.

תנאים טובים למתאימים/ות, אווירה מקצועית, חמימה ומקצועית בעיקר!
דרישות:
- ניסיון מוכח בכתיבת קוד T-SQL ברמה גבוהה
  (Views, Triggers, Stored Procedures, Code Optimization)- חובה
- מומחיות בבנייה וטיוב אינדקסים וניסיון בעבודה עם Profiler- חובה
- ניסיון בהקמה ותחזוקה של מנגנוני HA וDR: Replication, Mirroring,
   Log  Shipping, Always On.
- עבודה עם SSIS, SSRS, DWH, BI, כולל קונפיגורציה בין גרסאות SQL.
- כתיבת אוטומציה (Replication, Backup, Always On) ושיפור ביצועים פרוצדורליים.
-יכולת ניתוח בעיות קוד קיימות והבנה בארכיטקטורת מער', עבודה מול צוותי פיתוח וCTO.
- ידע מעמיק בתשתיות מסדי נתונים, פתרון תקלות, קריפטוגרפיה ועקרונות תכנון DB.
- התקנה, הגדרה ותחזוקה של שרתי MSSQL.
- אוריינטציה שירותית ויכולת התבטאות גבוהה בעברית ובאנגלית (בכתב ובע"פ).
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8396128
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 18 שעות
דרושים בOne data
בנייה ואופטימיזציה של שאילתות Splunk ותהליכי Ingestion
עבודה עם Kafka, APIs לוגים ומקורות נוספים
העשרת נתונים בזמן אמת והקמת מערך התראות
שיתוף פעולה עם צוותי Dev, DevOps ומוניטורינג
דרישות:
לפחות 3 שנות ניסיון עם Splunk
ידע חזק בSPL - לוחות בקרה, מאקרו, ביצועים
ניסיון עם מערכות מבוססות אירועים (Kafka, REST APIs)
שליטה בJSON, XML ונתונים חצי-מובנים
סקריפטינג בPython או Bash
יכולת עבודה עצמאית והובלת פתרונות ברמת פרודקשן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8265056
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון פיננסי באזור המרכז מגייס data Engineer בכיר/ה
התפקיד כולל: הובלת טרנספורמציה ארגונית לתשתית ענן מתקדמת, בניית מחסן נתונים ארגוני, פיתוח תהליכי זרימת נתונים באמצעות dbt,Airflow ו- Python, עיצוב מודלים וסטנדרטים לנתונים, שילוב מקורות נתונים שונים לכדי מקור אמת אחד ועוד.
דרישות:
- 5 שנות ניסיון כמהנדס/ת נתונים
- שליטה ב-SQL וניסיון עבודה בענן (עדיפות ל-AWS)
- ניסיון עם BigQuery / Redshift / dbt / Airflow
- ניסיון בפיתוח ב- Python ויכולת חשיבה אנליטית גבוהה
- תואר ראשון רלוונטי בתחום המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8408337
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון ממשלתי במרכז הארץ מגייס חוקר/ת איומי סייבר בתחום מדעי הנתונים
במסגרת התפקיד: אפיון ויישום מערכות Big Data, פיתוח מודלים אנליטיים ואלגוריתמים לזיהוי אנומליות ומגמות במידע, שליפת נתונים ממאגרי מידע גדולים וניתוחם, הפקת תובנות מבוססות Machine Learning, עבודה שוטפת מול גורמי BI, מנהלי מוצר ומהנדסי נתונים לצורך יישום פתרונות מבוססי נתונים והעברתם לייצור ועוד.
דרישות:
- 3 שנות ניסיון בתחום הדאטה, מתוכן שנה כ- data Scientist
- ניסיון בעבודה עם Python ו-SQL, כולל פיתוח מודלים ואלגוריתמים לניתוח נתונים
- ניסיון בעבודה עם מערכות Big Data ו- ETL, ניהול ותחזוקת תהליכי עיבוד נתונים
- יכולת ניתוח סטטיסטי והבנה במודלים מתמטיים לזיהוי תובנות עסקיות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8400369
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
תפקיד מנהל בסיסי נתונים ( ( DBA ) ) כולל אחריות על פיתוח תשתיות ותחזוקת מערכות נתונים שונות בארגון, כולל טיפול תקלות, כוונון ביצועים, גיבוי ושחזור נתונים. המשרה דורשת עבודה עם סוגי בסיסי נתונים שונים ודורשת ידע נרחב בניהול בסיסי נתונים מודרניים ובביצוע משימות יומיות של ( DBA ).
דרישות:
ניסיון רב עם MongoDB - ידע מתקדם בניהול, אופטימיזציה ותחזוקת בסיסי נתונים מסוג NoSQL.
היכרות עם InfluxDB - יתרון משמעותי לניסיון עם בסיסי נתונים של סידורי זמן לאחסון וניתוח נתונים בזמן אמת.
יכולת לאופטם ותחזוק בסיסי נתונים מסוג NoSQL ו-SQL.
ניסיון בניהול גיבויים, שחזור נתונים ופתרון תקלות.
ניסיון במערכות בסיסי נתונים עם זמינות גבוהה.
היכרות עם קונטיינרים ומיקרוסרביסים בסביבת Kubernetes.
היכרות עם Helm.
היכרות עם SQL server - יתרון.
ניסיון עם MySQL ו-PostgreSQL - יתרון.
יכולת עבודה עם כלי ניטור ומערכות התראה.
ניסיון באוטומציה של סקריפטים לשיפור תהליכים (Bash, PowerShell, Python ) - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8316031
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בHMS - הלפרין יועצים
מיקום המשרה: ירושלים
חברת הייעוץ hms מגייסת יועץ/ת דאטה וBI מנוסה להשתלבות בצוות הפיתוח ובהקמת תשתית דאטה ארגונית חדשה.
התפקיד כולל פיתוח ותחזוקה של תהליכי ETL, בניית data Pipelines, הקמת DWH, עבודה עם כלי Informatica, Power BI / Tableau ו-Vertica, ושיתוף פעולה עם צוותי BI, אנליזה ומוצר.
העבודה בסביבה טכנולוגית מתקדמת ובעלת השפעה ישירה על קבלת החלטות וחדשנות בארגון.
דרישות:
* לפחות 8 שנות ניסיון בעולם ה- BI, מתוכן 5 בתחום פיתוח תהליכי ETL ו- DWH.
* שליטה גבוהה מאוד ב-SQL
* ניסיון בעבודה עם Informatica או כלי ETL מקבילים
* ידע בארכיטקטורת BI ו- data Modeling
* השכלה רלוונטית- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8396750
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה גדולה ויציבה באזור הצפון מגייסת data Engineer
התפקיד כולל: פיתוח והטמעה של תהליכי data Pipeline והזרמת מידע בין מערכות שונות, יישום לוגיקות עסקיות בפלטפורמת Splunk, התממשקות למערכות נוספות ועוד.
דרישות:
- שנתיים ניסיון כ- data engineer
- ידע וניסיון בעבודה עם מערכות Linux
- שליטה בשפות Scripting כגון: Python וShell
- הכרות עם מימוש יישומים מבוססי דאטה
- ניסיון בעבודה עם Splunk יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8399038
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים במלם תים
לתפקיד מאתגר בצוות data Warehouse אנו מחפשים מפתח/ת ETL מנוסה עבור גוף פיננסי מוביל.
התפקיד כולל פיתוח תהליכי ETL בכלי Talend ו-DataStage,כתיבת קוד PL/SQL בסביבת Oracle, ותחזוקת תהליכים בסביבת ייצור.
העבודה כוללת יישום פתרונות נתונים מורכבים, עבודה עם ממשקים מגוונים ושיתוף פעולה עם צוותים עסקיים וטכנולוגיים בארגון.
דרישות:
- ניסיון של לפחות 3 שנים בפיתוח תהליכי ETL בסביבת DWH
- ניסיון מוכח עם Talend, וכתיבת stored procedures /SQL מורכבות ב- Oracle
- ניסיון עם DataStage ועם מתזמן Control-M יתרון משמעותי
- השכלה טכנולוגית רלוונטית ויכולת עבודה בצוות ובאופן עצמאי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8327251
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בGtech
התפקיד כולל:
ניהול ואופטימיזציה של ביצועים - שימוש בכלי ניטור לזיהוי צווארי בקבוק וניתוח הסיבות שלהם, מעקב וטיפול בנעילות. מעקב צמוד אחר מדדי ביצועים קריטיים,CPU, זיכרון, חסימות, זמני שאילתות, הגדרת התראות ותיעדוף משימות במקרה נעילות תהליכים.
עיצוב ופיתוח בסיסי הנתונים - שמירה על זמינות הנתונים למשתמש.
תכנון ויצירה - אחריות על יצירה, תחזוקה וניהול של אובייקטים במסד הנתונים כגון טבלאות, אינדקסים, views, stored procedures, פונקציות, טריגרים ועוד.
תמיכה במפתחים - מתן ייעוץ ותמיכה למפתחי BI בכל הקשור למידול נתונים, כתיבת שאילתות יעילות ושימוש נכון במאפייני בסיס הנתונים.
אופטימיזציה של ETL - עבודה צמודה עם צוות הפיתוח
תכנון קיבולת וניהול צמיחה - מערכות BI נוטות לגדול במהירות הן בהיקף הנתונים והן בכמות המשתמשים. ה- DBA האפליקטיבי אחראי על:
1. ניתוח מגמות גידול: הערכת קצב גידול הנתונים והשימוש במערכות BI.
2. תכנון קיבולת: חיזוי צרכי החומרה (שטח אחסון, זיכרון, כוח עיבוד) ותוכנה עתידי
דרישות:
תואר ראשון במדעי המחשב/ בהנדסת מחשבים/ הנדסאי בוגר מגמת מחשבים/טכנולוגיה/קורסים מתקדמים בתחום - יתרון
ניסיון של 5 שנים כ DBA אפליקטיבי חובה (יתרון גדול לSQL SERVER)
ניסיון של 3 שנים בכתיבת SQL, פונקציות ופרוצדורות מורכבות לרבות ביצוע בדיקת קוד למפתחים - חובה
ניסיון של 3 שנים במתן תמיכה בתכנון ואפיון פתרונות ועבודה מול צוותי פיתוח חובה
ניסיון של 5 שנים בשיפור ביצועים של SQL חובה
ניסיון בתכנון ואפיון של מסדי נתונים לרבות אפיון והגדרת צרכים פונקציונאליים וטכניים- יתרון
ניסיון כ DBA תשתיתי Oracle יתרון
ניסיון עם מסדי נתונים No SQL - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405093
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון ממשלתי בירושלים מגייס מהנדס/ת נתונים
התפקיד כולל: פיתוח, תחזוקה ושיפור תהליכי ETL, תכנון ויישום תהליכי אינטגרציה בין מערכות, מידול, טיוב והעשרת נתונים, עבודה עם בסיסי נתונים, כתיבת שאילתות מורכבות, אופטימיזציית ביצועים והשתתפות בפרויקטים בתחומי Big Data ואנליטיקה בשיתוף צוותי DBA, BI, data Science ועוד.
דרישות:
- 4 שנות ניסיון בהנדסת נתונים
- ניסיון בפיתוח ETL ועבודה עם כלי ETL
- ניסיון בבניית data Pipelines מורכבים
- שליטה גבוהה ב-SQL וכתיבת שאילתות מורכבות
- ניסיון עם Hadoop, Spark, Kafka / עבודה בענן יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8397238
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון ממשלתי באזור השפלה מגייס מהנדס/ת תוכנה
התפקיד כולל: איסוף, אחסון ועיבוד נתונים מובנים ולאמובנים לצרכים אנליטיים, כולל פעולות של data Cleansing, פיתוח ותחזוקה של תהליכי ETL למאגרי מידע מגוונים, פיתוח data Pipelines תוך שימוש בטכנולוגיות מתקדמות ועוד.
דרישות:
- היכרות עם SQL, JSON ו-Postman
- הכרות עם Factors Success
- היכרות עם תחום HR ו-Domain המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8397275
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
At UVeye, we're on a mission to redefine vehicle safety and reliability on a global scale. Founded in 2016, we have pioneered the world's first fully automated suite of vehicle inspection systems. At the heart of this innovation lies our advanced AI-driven technology, representing the pinnacle of machine learning, GenAI, and computer vision within the automotive sector. With close to $400M in funding and strategic partnerships with industry giants such as Amazon, General Motors, Volvo, and CarMax, UVeye stands at the forefront of automotive technological advancement. Our growing global team of over 200 employees is committed to creating a workplace that celebrates diversity and encourages teamwork. Our drive for innovation and pursuit of excellence are deeply embedded in our vibrant company culture, ensuring that each individual's efforts are recognized and valued as we unite to build a safer automotive world.
We are looking for a Data Operations Group Manager to join our R&D team and manage a team of data taggers and validators responsible for tagging and labeling data for machine learning models.
A day in the life and how you’ll make an impact:
* Managing 4 teams (20+ employees) of data taggers in Israel and the US.
* Ensure that the data is accurately tagged and labeled.
* Ensure that the team is meeting its goals and deadlines.
* Managing an outsourced team that's performing the scale data tagging and labeling.
* Work with the data science team to ensure that the data is being used effectively.
* Develop and implement processes to improve the efficiency and accuracy of the data tagging process.
* Train new team members on the data tagging process.
Requirements:
* 5+ years of experience in data management or data annotation.
* 3+ years of experience managing a group, including team leaders.
* Bachelor’s degree in computer science, data science, or a related field.
* Strong analytical and problem-solving skills.
* Excellent communication and interpersonal skills.
* Experience with machine learning and data tagging - Advantage
Why UVeye: Pioneer Advanced Solutions: Harness cutting-edge technologies in AI, machine learning, and computer vision to revolutionize vehicle inspections. Drive Global Impact: Your innovations will play a crucial role in enhancing automotive safety and reliability, impacting lives and businesses on an international scale. Career Growth Opportunities: Participate in a journey of rapid development, surrounded by groundbreaking advancements and strategic industry partnerships.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8300167
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are seeking an experienced Data Platform Engineer to join our Storage Analytics team. You will design and build data solutions that provide critical insights into storage performance and usage across Apple's entire device ecosystem.
Description:
Working with large-scale telemetry data from millions of Apple devices worldwide, you'll support multiple CoreOS Storage teams, including Software Update, Backup/Restore/Migration, Storage Attribution, and other storage domains.
Responsibilities
Design, build, and maintain scalable data processing infrastructure to handle large-scale telemetry from Apple's global device fleet
Develop highly scalable data pipelines to ingest and process storage performance metrics, usage patterns, and system telemetry with actionable alerting and anomaly detection
Build and maintain robust data platforms and ETL frameworks that enable CoreOS Storage teams to access, process, and derive insights from storage telemetry data
Engineer automated data delivery systems and APIs that serve processed storage metrics to various engineering teams across different storage domains
Requirements:
Bachelor's degree in Computer Science or related technical field
4+ years of professional experience in data modeling, pipeline development, and software
engineering
Programming Languages: excellent programming skills in Python with strong computer science foundations (data structures, low-level parallelization.
Database Management: Strong SQL skills and hands-on experience with relational databases and query engines (PostgreSQL, Impala, Trino)
Experience with data analysis tools and libraries (Pandas/Polars, NumPy, dbt)
Experience with big data technologies (Kafka, Spark, Databricks, S3)
Experience with Apache Airflow, Dagster, or similar data orchestration frameworks for workflow orchestration, scheduling, and monitoring
Experience with containerization and orchestration (Docker, Kubernetes /visualization & Reporting:
Strong proficiency with creating and maintaining Tableau/Grafana dashboards and workflows
Preferred Qualifications:
Master's or PhD in Computer Science or related field
Deep expertise in data principles, data architecture, and data modeling
Strong problem-solving skills and meticulous attention to detail, with the ability to tackle loosely
defined problem
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8407471
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
מיקום המשרה: ראשון לציון
מפתח/ת QLIK מנוסה? מחפש/ת עבודה מאתגרת ומשמעותית של הסבת מערכת מ-Qlik View ל-Qlik Sense?
דרישות:
מפתח/ת QLIK מנוסה? מחפש/ת עבודה מאתגרת ומשמעותית של הסבת מערכת מ-Qlik View ל-Qlik Sense? יש לנו את העבודה הבאה שלך!! עבודה בראשון לציון בהיברידיות דרישות: ניסיון מוכח בעבודה עם כלים Qlik View/ Sense שנה-שנתים לפחות – חובה ניסיון בעבודה מול לקוחות, איסוף דרישות, הבנת הצורך העסקי ואפיון- יתרון משמעותי ידע וניסיון מוכח ב – SQL ובסיסי נתונים רצון לעשות עבודת ניתוח ופיתוח, מקצה לקצה תואר אקדמי בתחומים: הנדסת תעשייה וניהול/מדעי המחשב/כלכלה/מנע"ס עם התמחות במערכות מידע הבנה עסקית טובה חשיבה יצירתית ואנליטית יכולת לימוד עצמית גבוהה תודעת שירות גבוהה ויחסי אנוש טובים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8407090
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
03/11/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
Shape the Future of Data - Join our mission to build the foundational pipelines and tools that power measurement, insights, and decision-making across our product, analytics, and leadership teams.
Develop the Platform Infrastructure - Build the core infrastructure that powers our data ecosystem including the Kafka events-system, DDL management with Terraform, internal data APIs on top of Databricks, and custom admin tools (e.g. Django-based interfaces).
Build Real-time Analytical Applications - Develop internal web applications to provide real-time visibility into platform behavior, operational metrics, and business KPIs integrating data engineering with user-facing insights.
Solve Meaningful Problems with the Right Tools - Tackle complex data challenges using modern technologies such as Spark, Kafka, Databricks, AWS, Airflow, and Python. Think creatively to make the hard things simple.
Own It End-to-End - Design, build, and scale our high-quality data platform by developing reliable and efficient data pipelines. Take ownership from concept to production and long-term maintenance.
Collaborate Cross-Functionally - Partner closely with backend engineers, data analysts, and data scientists to drive initiatives from both a platform and business perspective. Help translate ideas into robust data solutions.
Optimize for Analytics and Action - Design and deliver datasets in the right shape, location, and format to maximize usability and impact - whether thats through lakehouse tables, real-time streams, or analytics-optimized storage.
You will report to the Data Engineering Team Lead and help shape a culture of technical excellence, ownership, and impact.
Requirements:
5+ years of hands-on experience as a Data Engineer, building and operating production-grade data systems.
3+ years of experience with Spark, SQL, Python, and orchestration tools like Airflow (or similar).
Degree in Computer Science, Engineering, or a related quantitative field.
Proven track record in designing and implementing high-scale ETL pipelines and real-time or batch data workflows.
Deep understanding of data lakehouse and warehouse architectures, dimensional modeling, and performance optimization.
Strong analytical thinking, debugging, and problem-solving skills in complex environments.
Familiarity with infrastructure as code, CI/CD pipelines, and building data-oriented microservices or APIs.
Enthusiasm for AI-driven developer tools such as Cursor.AI or GitHub Copilot.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8397812
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructuresomeone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacksits about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakesdesigned for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Operate and debug object storebacked data lake infrastructure, enabling schema-on-read access, high-throughput ingestion, advanced searching strategies, and performance tuning for large-scale workloads.
Requirements:
24 years in software / solution or infrastructure engineering, with 24 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skillsyoull be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8384047
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are seeking a Big Data Engineer with at least 3 years of experience. A strong understanding of data structure is critical.
You will design, develop and maintain data systems, optimize pipelines, and ensure data integrity.
Data Engineers shape and improve leading mobile analytics solutions while using cutting edge technologies such as Scala, Spark, Hadoop, Astronomer, BigQuery, and many more.
What youll do
Own and develop our products and features end-to-end - from design to production
Collaborate with Product Managers and Software Engineers to deliver complex products.
Develop and maintain scalable data pipelines.
Implement ETL processes and data integration.
Optimize data performance and ensure security.
Requirements:
B.Sc. in computer science or an equivalent.
3+ years in Big Data engineering.
Proficiency in Spark or similar.
Strong programming skills (Scala, Python).
Experience in analyzing data and working with SQL.
Experience with cloud platforms (preference to AWS / GCP).
A get-things-done approach
Bonus points
Experience in building APIs for server-client applications.
Experience with data warehousing solutions.
Recommended by an employee.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8369720
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for a skilled and motivated Big Data Engineer to join our backend data infrastructure team. You will be at the core of Finals data ecosystem, building and maintaining high-performance data services and pipelines that support both real-time and batch workloads. Your work will directly impact how data is accessed and leveraged across the company from live production environments to ML training pipelines. You will design and maintain systems that span hybrid infrastructure (on-prem and cloud), and ensure our data platform is fast, reliable, and scalable. We value engineers who are curious, open-minded, and excited to learn new technologies and practices as the landscape evolves.



As a Big Data Engineer, you will:

Design, implement, and maintain backend services for managing and processing large-scale data.
Build and operate production-grade data pipelines and infrastructure.
Develop utilities ,libraries and services to support high-throughput data retrieval and access patterns.
Ensure observability, stability, and performance of data services in hybrid (cloud/on-prem) environments.
Monitor and troubleshoot issues in live systems and continuously improve their robustness.
Work cross-functionally to ensure data is accessible, well-modeled, and easy to consume by other teams.
Requirements:
Strong programming experience in at least one of the following: C++, Java, Rust, .NET, or Python.
Experience working with python data analytics libraries (such as numpy, pandas, polars).
Experience working on backend services or data-intensive applications.
Understanding of distributed systems, data pipelines, and production monitoring.
Experience in hybrid infrastructure environments (on-prem + cloud).
An open-minded technologist with a willingness to learn and adopt new technologies and best practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8368238
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו