משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 12 דקות
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
לתפקיד בכיר ומאתגר בתחום בסיסי הנתונים דרוש/ה ראש צוות DBA אפליקטיבי ותשתיתי, להובלת צוות מקצועי ולעבודה בסביבה מרובת מערכות ופרויקטים.

תיאור התפקיד

ניהול צוות DBA : חלוקת משימות, תעדוף, פיתוח מקצועי והדרכה

תכנון ארכיטקטורה והובלת פרויקטים בתחום בסיסי נתונים

התקנות, שדרוגים, תחזוקה ושיפור ביצועים במסדי נתונים רלציוניים וNoSQL ( SQL server, Oracle, Couchbase)

ניהול תהליכי גיבוי, DR, אבטחת מידע וניטור ביצועים

עבודה מול ספקים, ניהול התקשרויות ותמיכה בפרויקטים אסטרטגיים

ייעוץ טכנולוגי לצוותי פיתוח ולמנהלי פרויקטים
דרישות:
ניסיון של 5+ שנים כDBA תשתיתי ואפליקטיבי

ניסיון ניהולי של לפחות 2-3 שנים בניהול צוות DBA

ידע מעמיק בSQL Server ( Oracle - יתרון)

ניסיון בעבודה עם Couchbase / MongoDB - יתרון משמעותי

ניסיון בעבודה בענן (Azure / AWS) - יתרון

ידע בכתיבת SQL, פרוצדורות ואופטימיזציה

הבנה בארכיטקטורות DR, HA, AlwaysOn, Cluster

ראייה מערכתית והבנה עסקית, יכולת הובלה וניהול צוות, שירותיות גבוהה ויכולת עבודה מול ממשקים מרובים

נדרשת זמינות בשעות לא שגרתיות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8478516
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בכלל ביטוח ופיננסים
מיקום המשרה: תל אביב יפו
למטה חטיבת חיסכון ארוך טווח ברמת החייל דרוש.ה מנהל.ת ענף ניתוח מידע.
 
מה תעשו?
תהיו אחראים על כלל המידע הניהולי בתחום חסכון ארוך טווח
תנהלו צוותים של מנתחי מערכות ואנליסטים בכירים
תקבעו ותיישמו מודלים לקבלת החלטות מבוססות DATA
תנהלו פורומים עסקיים מבוססי DATA
תנהלו את המענה והבקרה עבור דרישות מידע רגולטוריות (אד-הוק)
דרישות:
מה אנחנו מחפשים?
-ניסיון ניהולי מעל 5 שנים בתחום האנליזה - חובה
-תואר ראשון - (בתחום הביטוח/ראיית חשבון/מערכות מידע) - חובה (תואר שני - יתרון)
-ניסיון בפיתוח כלים ומודלים לקבלת החלטות מבוססות ניתוחי מידע - חובה
-היכרות מעמיקה עם עסקי הליבה של ענף הביטוח, הפנסיה והגמל לרבות ידע עסקי רלוונטי - חובה
-היכרות וניסיון עם שליפות וניתוח נתונים באמצעותSQL  ו- BI - חובה
-היכרות וניסיון בבניית מודל חיזוי עםPython  - יתרון משמעותי
-היכרות וניסיון עם כליAI  המשמשים לניתוח נתונים - יתרון משמעותי
-יכולת עבודה תחת לחץ ונכונות להישאר שעות נוספות


המידע נמסר בהסכמתך ומרצונך ובין היתר לצורך בחינת התאמתך למשרה, וללא המידע לא נוכל להעריך את התאמתך לתפקיד. למידע נוסף אודות המידע שנאסף, השימוש בו ולמי נמסר המידע, וכן למידע אודות זכויותיך לעיון ותיקון המידע ולפרטי הממונה על הגנת הפרטיות, ראה מדיניות הפרטיות למועמדים באתר כלל ביטוח.
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8453554
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 2 שעות
דרושים בהמימד השלישי
מיקום המשרה: מספר מקומות
שכר: 18,000-22,000
אנחנו מחפשים מפתח BI מנוסה עם יכולות אנליטיות חזקות,
מיומנויות טכניות מבוססות ויכולת להוביל פתרונות נתונים מקצה לקצה.
למשרה מלאה מרחוק
עבודה מול לקוחות בינלאומיים

תחומי אחריות:
פיתוח ותחזוק מודלים ודוחות סמנטיים ב-Power BI
יצירת דשבורדים דינמיים ואינטרקטיביים למשתמשים רבים עם ויזואליזציות מותאמות
כתיבת שאילתות SQL מורכבות ותחזוקת מגוון צינורות נתונים
עבודה צמודה עם בעלי עניין עסקיים לאיסוף והגדרת דרישות
אינטגרציה וה transformation של נתונים ממקורות מרובים
דרישות:
ניסיון של לפחות 2 שנים בעבודת BI - חובה
תואר ראשון - מדעי המחשב / הנדסה תעשייתית / כלכלה / הנדסת מערכות מידע או תחום רלוונטי אחר
שליטה מעולה ב-Power BI, כולל:
בניית דשבורדים ודיווחים מתקדמים
כתיבת חישובי DAX מורכבים
מודל נתונים וארכיטקטורת מודלים נכונה
מיומנויות SQL חזקות עם יכולת לכתוב שאילתות מורכבות - חובה
ניסיון בעבודה בסביבות בגודל גדול או עם מקורות נתונים מרובים
הבנה עסקית מעמיקה ויכולת לתרגם צרכים עסקיים לפתרונות BI
יכולת תקשורת טובה באנגלית (כתובה ומדוברת)
מיומנויות
יכרות עם שירותי נתונים של Azure (כמו data Factory)
הבנה של מדדי KPI עסקיים ותהליכים תפעוליים
תכונות אישיות שאנחנו מחפשים:

יכולת לחשוב על מערכת כוללת ולהבין ארכיטקטורת נתונים
יכולת להסביר תובנות מורכבות בצורה ברורה ופשוטה
שחקן צוות עם כישורי תקשורת חזקים וניהול בע המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8489209
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
ביצוע בדיקות כלכליות לעסקאות חדשות
הערכות כלכליות ותכנוניות לפרויקטים - ניתוח היתכנות לפיתוח פרויקטים חדשים, כדאיות בנייה, הרחבות והשבחה
ניתוח עסקאות שכירות לדיירים גדולים ורכישת פרויקטים חדשים(חישוב כדאיות עסקאות, בדיקת עלויות פיתוח והתאמות, בניית תמחור לעסקאות, עבודה שוטפת מול מתווכים וגורמים עסקיים)
בנייה ותחזוקה של מודלים פיננסיים מורכבים
הכנת מצגות ודוחות אקסל להנהלה ועבודה שוטפת מול גורמים פניםארגוניים
ביצוע מחקרי שוק, ניתוח מגמות וניטור שוטף של שוק הנדל"ן
דרישות:
תואר ראשון בכלכלה / מנהל עסקים / מימון / נדל"ן / שמאות - חובה
ניסיון רלוונטי  של שנתיים לפחות  באנליזה / פיתוח עסקי / נדל"ן מניב - חובה
ניסיון מוכח בבדיקות כלכליות של עסקאות שכירות ו/או פרויקטי נדל"ן - יתרון משמעותי
שליטה גבוהה מאוד באקסל ובבניית מודלים פיננסיים
שליטה גבוהה בהכנת מצגות ניהוליות
יכולת אנליטית גבוהה, חשיבה עסקית ויכולת עבודה עצמאית ובצוות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8483541
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת data Engineer לארגון פיננסי מוביל במרכז!
הזדמנות לפיתוח תהליכי שינוע נתונים ופתרונות Big Data מתקדמים בסביבה טכנולוגית מרתקת.
דרישות:
מעל שנתיים ניסיון בעולמות ה- Big Data בדגש על Hive
ניסיון בעבודה עם Talend
ניסיון בפיתוח תהליכי ETL ואינפורמטיקה
יכולות קריאה וכתיבת שאילתות SQL מורכבות
ניסיון בעבודה עם תהליכי CI/CD המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8477217
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים במלונות אסטרל
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
אפיון, פיתוח ותחזוקה של דוחות ודשבורדים ב- QlikView בהתאם לצרכים העסקיים
כתיבת סקריפטים לטעינה, ניקוי ואיחוד נתונים ממקורות כמו SQL, Excel ו-APIs
פיתוח תהליכי ETL משלב איסוף הנתונים ועד הצגתם במערכת
עבודה עם בסיסי נתונים וכתיבת שאילתות SQL מורכבות
בקרה על איכות הנתונים וזיהוי בעיות או כפילויות
הבנת הדרישות העסקיות והגדרת מדדים (KPIs) יחד עם מנהלים בכירים
תכנון מבנה דשבורדים - בחירת מדדים, פילוחים, ויזואליזציות וסדר הצגה
שיפור ביצועים ואופטימיזציה של דוחות קיימים
ניהול הרשאות וגישה למידע לפי מדיניות הארגון
הטמעת פתרונות ה- BI, הדרכת משתמשים בארגון והבטחת שימוש רציף במודלים המפותחים
דרישות:
ניסיון- לפחות שלוש שנים
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8462323
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 23 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת הייטק נהדרת וצומחת בתל אביב דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה בתור data engineer ובהמשך Tech lead, שימוש
רב ב- Python וכן נכונות לעבודה בשפות נוספות, שימוש בטכנולוגיות מתקדמות נוספות
עבודה מול צוותי פיתוח מקבילים וכן שימוש ב-DB מורכבים כולל טכנולוגיות Big Data
דרישות:
תואר ראשון טכנולוגי - חובה
רקע בפיתוח backend עם עדיפות ל- Python - חובה
ניסיון כלשהו ב-Scala או JAVA - יתרון
ניסיון מעשי של 3 שנים ומעלה בתור data engineer - חובה
נכונות לעבוד בתור Tech lead בהמשך
רקע בכלי data מהמתקדמים כיום בשוק המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8480422
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 23 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה
דרוש/ה Senior data Scientist עבור חברת Start up בשלב Seed שגייסה סכומים גדולים.
במסגרת התפקיד: עבודה ישירה מול ה-Founders של החברה, עבודה מרובה ב- Machine Learning
ו-Deep learning, שימוש בכלים מורכבים וכתיבת קוד בעיקר ב- Python.
דרישות:
תואר ראשון ושני בתחומים רלוונטים - חובה
דוקרטורט - יתרון אך לא חובה
6+ שנות ניסיון בתור data Scientist - חובה
רקע מחברות סייבר - חובה
נכונות לעבוד בחברה בתחילת דרכה
אנגלית מעולה - חובה
ניסיון רלוונטי בכתיבת קוד ב- Python המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8480483
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת Start Up העוסקת בתחום ה- Cyber security דרוש/ה Cyber data Analyst.
החברה מתמחה באבטחת עולם ה-Web3 וה-Blockchain.
התפקיד משלב עבודת data Analysis ו-Research עמוקה על דאטה רחב היקף, זיהוי מגמות, אנומליות ואיומים, ועבודה צמודה עם צוותי R D וסייבר לצורך הפקת תובנות אסטרטגיות והשפעה ישירה על כיוון המוצר והחברה.
ממוקמים בת"א, במרחק הליכה מהרכבת
דרישות:
5 ומעלה שנות ניסיון כ- data Analyst
שליטה גבוהה ב-SQL, כולל כתיבת שאילתות מורכבות.
ניסיון מוכח ב- Python,.
רקע חזק בסייבר ו/או מחקר פורנזי-חובה.
ניסיון קודם כData Analyst בחברת סייבר-יתרון
ניסיון בעבודה עם כלי ויזואליזציה כגון Tableau / Power BI / Looker-יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8481658
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בהורייזן טכנולוגיות
לארגון ממשלתי גדול ומביל טכנולוגית בירושלים דרוש/ה  BI system Analyst!
עבודה במודל היברידי!
תיאור התפקיד: אפיון ובניית מודלים של BI עבור יחידות המשרד והמטה, תחזוקת מודלים קיימים ושליפות מידע ממודלי התיקים על פי דרישה
דרישות:
ניסיון 5 שנים ומעלה בניתוח מערכות. יתרון לרקע כמפתח.
ניסיון באפיון ופיתוח דשבורדים ומודלים של BI 4 שנים לפחות
ניסיון בעבודה עם קליק סנס
אופטימיזציה של הקוד במודלים קיימים
בניית מבנה נתונים (ERD) וקשרים בין טבלאות
ניסיון בבניית ערכות נושא באפליקציות QLIK
ידע בעבודה עם מסד נתונים אורקל ו mongo DB
ידע וניסיון בעבודה מול מערכות GIS
ניסיון במשרד ממשלתי גדול, מול צוות פיתוח, צוותי רוחב ומערכות משיקות
יכולת עבודה במספר פרויקטים/נושאים במקביל
ניסיון בעבודה עם מערכות מורכבות, אינטגרציה בין מספר מערכות שונות
ניסיון בעבודה ב TFS
יחסים בין אישיים טובים, בעל/ת יכולת לימוד עצמי, חריצות ויוזמה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8480821
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בGotFriends
סוג משרה: משרה מלאה
החברה מתמחה בפיתוח פתרונות טכנולוגיים לעסקים, עם דגש על תעשיית המסעדנות והריטייל. הפתרונות שלהם נועדו להעצים עסקים באמצעות חוויות לקוח מותאמות אישית, תוכניות נאמנות חדשניות ושילוב בין נקודות מכירה (POS) לפלטפורמות דיגיטליות.

החברה ממוקמת באזור המרכז- קו רכבת, משלבת מודל עבודה היברידי ומונה אלפי עובדים גלובלית, עשרות מתוכם בארץ.

מהות התפקיד: חלק מצוות חדש, בדיווח ל-Director. הצוות אחראי על כל תחום ה- data בחברה. העבודה כוללת הובלה של תהליכי data Engineering וBI מקצה לקצה, פיתוח של Scalable data Pipelines, ב- Python, אופטימיזציה של SQL Workloads, עבודה מעמיקה עם BigQuery, בניית דשבורדים ב-Looker והצגה להנהלה. כולל אחריות על ארכיטקטורת ה- data. סטאק טכנולוגי: Python, ETL, BigQuery, GCP, SQL, LLM, AI, Looker.
דרישות:
- 5 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח SQL
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח עם Cloud המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8486849
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
Location: Tel Aviv-Yafo
Salary: 30,000-35,000
תיאור: Hiring a data Platform Engineer to join a leading company based in Tel Aviv for the growing data and technology team 

What Youll Do:
Design, build, and maintain robust ETL /ELT pipelines that ingest data from diverse systems ( ERP, eCom platforms, APIs, files, etc.) 
Develop and optimize data lakes and data warehouse environments (Azure Synapse, Snowflake, or similar) 
Collaborate with data analysts and business teams to deliver high-quality datasets and modeling support 
Implement and automate data quality checks, validation routines, and cleansing procedures 
Monitor and troubleshoot pipeline performance, data delays, or failures 
Contribute to the standardization of schema, ation, and pipeline patterns
Requirements:
5+ years of experience in data engineering or data platform development 
Proficiency with SQL, PLSQL, and working with structured and semi-structured data (CSV, Parquet, JSON, APIs) 
Experience building and maintaining pipelines using ETL tools or frameworks (e.g., ADF, SSIS, dbt, Airflow) 
Familiarity with cloud data warehouse platforms such as Azure Synapse, Snowflake, Redshift, or BigQuery 
Strong communication skills and the ability to work cross-functionally 
Python or scripting knowledge - bonus
Experience in Azure or AWS, and familiarity with streaming tools - bonus
Background in retail or omni-channel data environments  - bonus
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8486668
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת הייטק בתחום ה- Cyber security דרוש/ה Mid/Senior data engineer.
במסגרת התפקיד: עבודה בצוות מגוון מאוד, עבודה בתור data engineer
כולל עבודה בעיקר ב- Python, שימוש בכלי data חדישים ומובילים, עבודה מרובה מול
DB שונים וכן עבודה קבועה מול צוותי פיתוח מקבילים בחברה.
דרישות:
תואר ראשון טכנולוגי - חובה
4 שנות ניסיון בתור data engineer - חובה
רקע מעולמות הפיתוח backend - יתרון אך לא חובה
ניסיון מאוד מעמיק ב- Python - חובה
רקע רלוונטי בכלי data חדישים
אנגלית מעולה
רמה אישית גבוהה מאוד המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8486634
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בפרוסיד
פרוסיד מגייסת data Engineer (Modern data Stack) להובלת פרויקטי דאטה ו-AI חדשניים!

תיאור התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בענן (AWS / GCP / Azure)
בנייה וניהול End-to-End של data Pipelines איסוף, עיבוד, טרנספורמציה ואחסון נתונים
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים (dbt)
עבודה Hands-on עם DWH מודרניים בענן (Snowflake / BigQuery / Redshift)
פיתוח והטמעת פתרונות AI / GenAI / ML בסביבות ענן (Vertex AI / SageMaker), כולל Prompt Engineering
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins, GitLab CI
עבודה צמודה עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום פתרונות מקצה לקצה
הובלת PoC, בחינת טכנולוגיות חדשות ושילוב חדשנות בתהליכי דאטה
אופטימיזציה של תהליכי דאטה קיימים ושיפור ביצועים, אמינות ואיכות נתונים
דרישות:
דרישות חובה:
לפחות שנה ניסיון כ- data Engineer
ניסיון בעבודה עם פלטפורמות ענן (AWS / GCP / Azure)
ניסיון Hands-on עם מחסני נתונים מודרניים בענן (Snowflake / BigQuery / Redshift)
שליטה מלאה ב-SQL וב- Python
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt)
ניסיון בעבודה עם כלי BI (Looker / Power BI / Tableau / QuickSight) ו/או ניסיון כ- BI Developer
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI)
ניסיון Hands-on בפיתוח פתרונות AI / GenAI / ML בענן (Vertex AI / SageMaker) + ניסיון ב-Prompt Engineering
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות
אנגלית טכנית ברמה גבוהה (קריאה, כתיבה ודיבור)

יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות ( data Mesh / data Fabric)
ניסיון בכתיבת אפיונים טכניים ופונקציונליים
ניסיון עם כלי data Governance, data Catalog, data Quality Observability המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405965
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for an experienced Data Engineer to join our DataWarehouse team in TLV.
In this role, you will play a pivotal role in the Data Platform organization, leading the design, development, and maintenance of our data warehouse. In your day-to-day, youll work on data models and Backend BI solutions that empower stakeholders across the company and contribute to informed decision-making processes all while leveraging your extensive experience in business intelligence.
This is an excellent opportunity to be part of establishing our companys state-of-the-art data stack, implementing cutting-edge technologies in a cloud environment.
In this role youll
Lead the design and development of scalable and efficient data warehouse and BI solutions that align with organizational goals and requirements
Utilize advanced data modeling techniques to create robust data structures supporting reporting and analytics needs
Implement ETL/ELT processes to assist in the extraction, transformation, and loading of data from various sources into the semantic layer
Develop processes to enforce schema evaluation, cover anomaly detection, and monitor data completeness and freshness
Identify and address performance bottlenecks within our data warehouse, optimize queries and processes, and enhance data retrieval efficiency
Implement best practices for data warehouse and database performance tuning
Conduct thorough testing of data applications and implement robust validation processes
Collaborate with Data Infra Engineers, Developers, ML Platform Engineers, Data Scientists, Analysts, and Product Managers.
Requirements:
3+ years of experience as a BI Engineer or Data Engineer
Proficiency in data modeling, ELT development, and DWH methodologies
SQL expertise and experience working with Snowflake or similar technologies
Prior experience working with DBT
Experience with Python and software development, an advantage
Excellent communication and collaboration skills
Ability to work in an office environment a minimum of 3 days a week
Enthusiasm about learning and adapting to the exciting world of AI - a commitment to exploring this field is a fundamental part of our culture.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8483027
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for an experienced and passionate Staff Data Engineer to join our Data Platform group in TLV as a Tech Lead. As the Groups Tech Lead, youll shape and implement the technical vision and architecture while staying hands-on across three specialized teams: Data Engineering Infra, Machine Learning Platform, and Data Warehouse Engineering, forming the backbone of our companys data ecosystem.
The groups mission is to build a state-of-the-art Data Platform that drives our company toward becoming the most precise and efficient insurance company on the planet. By embracing Data Mesh principles, we create tools that empower teams to own their data while leveraging a robust, self-serve data infrastructure. This approach enables Data Scientists, Analysts, Backend Engineers, and other stakeholders to seamlessly access, analyze, and innovate with reliable, well-modeled, and queryable data, at scale.
In this role youll :
Technically lead the group by shaping the architecture, guiding design decisions, and ensuring the technical excellence of the Data Platforms three teams
Design and implement data solutions that address both applicative needs and data analysis requirements, creating scalable and efficient access to actionable insights
Drive initiatives in Data Engineering Infra, including building robust ingestion layers, managing streaming ETLs, and guaranteeing data quality, compliance, and platform performance
Develop and maintain the Data Warehouse, integrating data from various sources for optimized querying, analysis, and persistence, supporting informed decision-makingLeverage data modeling and transformations to structure, cleanse, and integrate data, enabling efficient retrieval and strategic insights
Build and enhance the Machine Learning Platform, delivering infrastructure and tools that streamline the work of Data Scientists, enabling them to focus on developing models while benefiting from automation for production deployment, maintenance, and improvements. Support cutting-edge use cases like feature stores, real-time models, point-in-time (PIT) data retrieval, and telematics-based solutions
Collaborate closely with other Staff Engineers across our company to align on cross-organizational initiatives and technical strategies
Work seamlessly with Data Engineers, Data Scientists, Analysts, Backend Engineers, and Product Managers to deliver impactful solutions
Share knowledge, mentor team members, and champion engineering standards and technical excellence across the organization.
Requirements:
8+ years of experience in data-related roles such as Data Engineer, Data Infrastructure Engineer, BI Engineer, or Machine Learning Platform Engineer, with significant experience in at least two of these areas
A B.Sc. in Computer Science or a related technical field (or equivalent experience)
Extensive expertise in designing and implementing Data Lakes and Data Warehouses, including strong skills in data modeling and building scalable storage solutions
Proven experience in building large-scale data infrastructures, including both batch processing and streaming pipelines
A deep understanding of Machine Learning infrastructure, including tools and frameworks that enable Data Scientists to efficiently develop, deploy, and maintain models in production, an advantage
Proficiency in Python, Pulumi/Terraform, Apache Spark, AWS, Kubernetes (K8s), and Kafka for building scalable, reliable, and high-performing data solutions
Strong knowledge of databases, including SQL (schema design, query optimization) and NoSQL, with a solid understanding of their use cases
Ability to work in an office environment a minimum of 3 days a week
Enthusiasm about learning and adapting to the exciting world of AI - a commitment to exploring this field is a fundamental part of our culture.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8482879
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for an experienced and visionary Data Platform Engineer to help design, build and scale our BI platform from the ground up.
In this role, you will be responsible for building the foundations of our data analytics platform - enabling scalable data pipelines and robust data modeling to support real-time and batch analytics, ML models and business insights that serve both business intelligence and product needs.
You will be part of the R&D team, collaborating closely with engineers, analysts, and product managers to deliver a modern data architecture that supports internal dashboards and future-facing operational analytics.
If you enjoy architecting from scratch, turning raw data into powerful insights, and owning the full data lifecycle - this role is for you!
Responsibilities
Take full ownership of the design and implementation of a scalable and efficient BI data infrastructure, ensuring high performance, reliability and security.
Lead the design and architecture of the data platform - from integration to transformation, modeling, storage, and access.
Build and maintain ETL/ELT pipelines, batch and real-time, to support analytics, reporting, and product integrations.
Establish and enforce best practices for data quality, lineage, observability, and governance to ensure accuracy and consistency.
Integrate modern tools and frameworks such as Airflow, dbt, Databricks, Power BI, and streaming platforms.
Collaborate cross-functionally with product, engineering, and analytics teams to translate business needs into data infrastructure.
Promote a data-driven culture - be an advocate for data-driven decision-making across the company by empowering stakeholders with reliable and self-service data access.
Requirements:
5+ years of hands-on experience in data engineering and in building data products for analytics and business intelligence.
Strong hands-on experience with ETL orchestration tools (Apache Airflow), and data lakehouses (e.g., Snowflake/BigQuery/Databricks)
Vast knowledge in both batch processing and streaming processing (e.g., Kafka, Spark Streaming).
Proficiency in Python, SQL, and cloud data engineering environments (AWS, Azure, or GCP).
Familiarity with data visualization tools ( Power BI, Looker, or similar.
BSc in Computer Science or a related field from a leading university
Nice to have
Experience working in early-stage projects, building data systems from scratch.
Background in building operational analytics pipelines, in which analytical data feeds real-time product business logic.
Hands-on experience with ML model training pipelines.
Experience in cost optimization in modern cloud environments.
Knowledge of data governance principles, compliance, and security best practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8482840
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
In this role, youll play a pivotal part in answering the why behind user behavior, helping us understand how sales professionals discover, adopt, and extract long-term value from platform.

What Youll Actually Do:

Act as an embedded data partner for a Product squad (e.g. Growth, Core Platform, or Data Enrichment), influencing product decisions by quantifying opportunities and forecasting impact
Perform deep-dive analyses across the full user journey, from first interaction and activation to retention and power usage
Design, execute, and analyze complex A/B tests and experiments, providing clear recommendations on whether to iterate, scale, or sunset features
Partner with Product Managers to define success metrics, North Star KPIs, and measurement frameworks for new and existing product initiatives
Translate complex datasets (SQL / Python) into clear, compelling insights and narratives for stakeholders, including senior leadership
Build and maintain self-service dashboards (Tableau, Looker, or similar) that empower Product teams to answer day-to-day questions independently
Continuously improve data accessibility, quality, and trust across Product Analytics
Requirements:
4+ years of experience in Product Analytics or Data Analytics, preferably in a B2B SaaS or Product-Led Growth environment
Expert-level SQL skills, with the ability to write clean, efficient, and optimized queries
Proficiency in Python or R for statistical analysis and data manipulation
Hands-on experience with data visualization tools such as Tableau, Looker, or Power BI
Strong statistical knowledge, including hypothesis testing, confidence intervals, and experimental design
Solid understanding of SaaS and product metrics such as Retention, Churn, LTV, CAC, ARPU, and activation funnels
Excellent communication and storytelling skills, with the ability to clearly present insights and recommendations to non-technical and senior stakeholders
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481875
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
In this role, youll own the engineering backbone that enables our data engineers & data scientists to experiment, innovate, and deploy production-ready models, ensuring our systems are robust, scalable, and future-proof.

What You'll Actually Do:

Lead and mentor a team of Data Engineers, fostering a culture of technical excellence, accountability, and collaboration.
Define and drive the teams technical roadmap, standards, and best practices for data modeling, performance, and reliability.
Design, build, and evolve scalable embedding pipelines and recommendation infrastructure, from algorithm tuning and training workflows to production deployment.
Manage and optimize vector db, ensuring efficient indexing strategies, search performance, and low-latency retrieval.
Lead the development of retrieval services leveraging Approximate Nearest Neighbor (ANN/KNN) techniques such as HNSW, IVF, and Product Quantization (PQ).
Ensure reliability, observability, and scalability across all real-time data systems powering our recommendation engine.
Collaborate with Data Science, Product, and Analytics to operationalize models, validate KPIs, and translate technical insights into actionable product improvements.
Requirements:
3+ years of experience leading data engineering teams.
5+ years of hands-on experience developing large-scale data and ML systems, with strong foundations in distributed computing, data pipelines, and algorithm development.
Strong programming skills in Python, with practical experience using modern data and ML frameworks such as Spark, Airflow, MLflow, or equivalent technologies.
Proven experience designing and maintaining embedding pipelines, feature stores, and model-serving infrastructure.
Excellent leadership and communication skills, with a passion for mentoring engineers and driving technical excellence.
Ability to translate complex technical challenges into scalable, reliable engineering solutions.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481846
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Senior BI Data Engineer, youll join a company where culture isnt a slogan - its our DNA.

Youll be part of a data-driven organization where every voice matters, working at the heart of our BI team to raise the bar for analytical excellence.

In this role, youll take end-to-end ownership of complex, high-impact BI initiatives, shaping how measures success, makes decisions, and scales. Your work will directly impact over 1M users worldwide, empowering B2B sales teams to unlock new revenue opportunities and drive sustainable growth.

What Youll Actually Do:

Lead the design and evolution of BI data foundations, owning key product and GTM metric definitions and data models
Build, scale, and maintain high-quality ELT pipelines and curated datasets (raw → modeled → semantic) that power dashboards and self-serve analytics
Collaborate closely with Data Scientists to operationalize machine learning use cases, including feature pipelines and analytical datasets
Take senior ownership within the BI team by mentoring peers, reviewing critical work, and promoting best practices in analytics engineering and semantic modeling
Own the performance, cost, and reliability of the data warehouse and BI layer by optimizing models, queries, and incremental processing patterns
Translate ambiguous business questions into clear, governed metrics and scalable data models, partnering with Product, RevOps/GTM, Finance, and Analytics
Establish and maintain strong data quality, observability, and monitoring practices (tests, SLAs, anomaly detection)
Drive standardization and automation across the BI development lifecycle, including version control, CI/CD, documentation, and release processes
Stay ahead of modern BI and analytics engineering trends, including AI-assisted development, and apply them pragmatically to increase trust and speed
Requirements:
5+ years of experience in Data Engineering / BI roles, with proven ownership of scalable, end-to-end data ecosystems
Expert-level experience with modern data stacks, including Snowflake or Databricks and dbt as a core transformation layer
Advanced SQL and Python skills, with hands-on responsibility for CI/CD pipelines, data quality frameworks, and observability
Deep understanding of dimensional modeling, data warehousing patterns, and semantic layer design
Hands-on experience with orchestration tools such as Airflow, managing complex and high-availability ELT workflows
Experience working with large-scale data processing, including exposure to Kafka, Spark, or streaming architectures
Strong ability to independently lead cross-functional initiatives and translate business requirements into executable technical solutions
Strong business and analytical mindset, with an AI-forward approach and curiosity for emerging tools and methodologies
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481843
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were seeking our first Data Engineer to join the Revenue Operations team. This is a high-impact role where youll build the foundations of our data infrastructure - connecting the dots between systems, designing and maintaining our data warehouse, and creating reliable pipelines that bring together all revenue-related data. Youll work directly with the Director of Revenue Operations and partner closely with Sales, Finance, and Customer Success.
This is a chance to shape the role from the ground up and create a scalable data backbone that powers smarter decisions across the company.
Role Overview:
As the Data Engineer, you will own the design, implementation, and evolution of our data infrastructure. Youll connect core business systems (CRM, finance platforms, billing systems,) into a central warehouse, ensure data quality, and make insights accessible to leadership and revenue teams. Your success will be measured by the accuracy, reliability, and usability of the data foundation you build.
Key Responsibilities:
Data Infrastructure & Warehousing:
Design, build, and maintain a scalable data warehouse for revenue-related data.
Build ETL/ELT pipelines that integrate data from HubSpot, Netsuite, billing platforms, ACP, and other business tools.
Develop a clear data schema and documentation that can scale as we grow.
Cross-Functional Collaboration:
Work closely with Sales, Finance, and Customer Success to understand their reporting and forecasting needs.
Translate business requirements into data models that support dashboards, forecasting, and customer health metrics.
Act as the go-to partner for data-related questions across revenue teams.
Scalability & Optimization:
Continuously monitor and optimize pipeline performance and warehouse scalability.
Ensure the infrastructure can handle increased data volume and complexity as the company grows.
Establish and enforce best practices for data quality, accuracy, and security.
Evaluate and implement new tools, frameworks, or architectures that improve automation, speed, and reliability.
Build reusable data models and modular pipelines to shorten development time and reduce maintenance.
Requirements:
4-6 years of experience as a Data Engineer or in a similar role (preferably in SaaS, Fintech, or fast-growing B2B companies).
Strong expertise in SQL and data modeling; comfort working with large datasets.
Hands-on experience building and maintaining ETL/ELT pipelines (using tools such as Fivetran, dbt, Airflow, or similar).
Experience designing and managing cloud-based data warehouses (Snowflake, BigQuery, Redshift, or similar).
Familiarity with CRM (HubSpot), ERP/finance systems (Netsuite), and billing platforms.
Strong understanding of revenue operations metrics (ARR, MRR, churn, LTV, CAC, etc.).
Ability to translate messy business requirements into clean, reliable data structures.
Solid communication skills - able to explain technical concepts to non-technical stakeholders.
What Sets You Apart:
Youve been the first data hire before and know how to build from scratch (not a must).
Strong business acumen with a focus on revenue operations.
A builder mindset: you like solving messy data problems and making systems talk.
Comfortable working across teams and translating business needs into data solutions.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481826
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Job Type: Full Time
We use cutting-edge innovations in financial technology to bring leading data and features that allow individuals to be qualified instantly, making purchases at the point-of-sale fast, fair and easy for consumers from all walks of life.
As part of our Data Engineering team, you will not only build scalable data platforms but also directly enable portfolio growth by supporting new funding capabilities, loan sales and securitization, and improving cost efficiency through automated and trusted data flows that evolve our accounting processes.
Responsibilities
Design and build data solutions that support our companys core business goals, from enabling capital market transactions (loan sales and securitization) to providing
reliable insights for reducing the cost of capital.
Develop advanced data pipelines and analytics to support finance, accounting, and product growth initiatives.
Create ELT processes and SQL queries to bring data to the data warehouse and other data sources.
Develop data-driven finance products that accelerate funding capabilities and automate accounting reconciliations.
Own and evolve data lake pipelines, maintenance, schema management, and improvements.
Create new features from scratch, enhance existing features, and optimize existing functionality.
Collaborate with stakeholders across Finance, Product, Backend Engineering, and Data Science to align technical work with business outcomes.
Implement new tools and modern development approaches that improve both scalability and business agility.
Ensure adherence to coding best practices and development of reusable code.
Constantly monitor the data platform and make recommendations to enhance architecture, performance, and cost efficiency.
Requirements:
4+ years of experience as a Data Engineer.
4+ years of Python and SQL experience.
4+ years of direct experience with SQL (Redshift/Snowflake), data modeling, data warehousing, and building ELT/ETL pipelines (DBT & Airflow preferred).
3+ years of experience in scalable data architecture, fault-tolerant ETL, and data quality monitoring in the cloud.
Hands-on experience with cloud environments (AWS preferred) and big data technologies (EMR, EC2, S3, Snowflake, Spark Streaming, Kafka, DBT).
Strong troubleshooting and debugging skills in large-scale systems.
Deep understanding of distributed data processing and tools such as Kafka, Spark, and Airflow.
Experience with design patterns, coding best practices, and data modeling.
Proficiency with Git and modern source control.
Basic Linux/Unix system administration skills.
Nice to Have
Familiarity with fintech business processes (funding, securitization, loan servicing, accounting).- Huge advantage
BS/MS in Computer Science or related field.
Experience with NoSQL or large-scale DBs.
DevOps experience in AWS.
Microservices experience.
2+ years of experience in Spark and the broader Data Engineering ecosystem.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481603
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Integration Engineer.
As a Data Integration Engineer , you will use technical skills, analytical insights, and a business perspective to ensure we have the most accurate and complete data from each client to feed our data science models. You will be responsible for helping new and existing customers ensure they are receiving the best performance possible and leading the charge in processing the data of the largest eCommerce merchants in the world.
What You'll Be Doing:
Maintain/manage merchant data configuration layer of platform (automated data tagging, transformation, filtering, etc.)
Combine technical, business, and analytical objectives to come up with tailored solutions for onboarding merchants
Perform due diligence on merchant websites, business models, and data flows
Generate tailored data templates (JSON, CSV) to help guide merchant developers/data teams in building high-quality online (API) and offline (file transfer) integrations.
Write queries and scripts using Python, SQL, Spark, Databricks, or R to test, validate, and detect data issues in API calls within both sandbox and production environments. Additionally, transform and upload large historical data files to APIs
Ad hoc data wrangling and sanitization
Monitor automated data alerts - prioritize, track, and communicate merchant data issues/irregularities with internal and external stakeholders
Work closely with analysts, research, and data science teams to accommodate changes in industry data
Identify, research, and offer system-wide solutions for common data issues
Work closely with client-facing teams to engage customers regarding their data integrations
Support R&D, Product Management, Data Science, Integrations Engineering, Account Management, and Sales as a subject matter expert of product, technology, and merchants
Requirements:
4+ years of experience in a data-centric industry role (Analytics, Data Engineering, ETL, DBA, Consulting, etc.)
Solid expertise with SQL or NoSQL databases
Experience with data wrangling (Python, R for data processing)
Experience optimizing technical processes
Strong analytical skills and attention to detail
Strong verbal and written communication skills
Advantage: experience in designing, constructing, and maintaining efficient data pipelines using DBT or Python
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481318
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
we are looking for a Product Owner -Software Engineer.
As a Product Owner / Developer, you will play a dual role - defining business and product requirements while contributing directly to the technical delivery. Youll partner with collaborators across engineering, data, and business teams to translate goals into actionable roadmaps and measurable results.
Key Responsibilities:
Gather and define requirements aligned with strategic business goals and customer value.
Help the team leaders maintain and prioritize the product backlog, ensuring clarity, transparency, and focus on impact.
Collaborate with engineering teams to design and build scalable data and automation solutions (50%+ of the time)
Contribute to development, testing, and deployment of modern data pipelines using Apache Airflow, Apache Spark, and AWS cloud services (ECS, Lambda, Glue, S3).
Balance short-term delivery objectives with long-term technical vision.
Track and communicate key performance metrics that demonstrate business outcomes.
Requirements:
5+ years of professional experience in software engineering, data engineering, or product ownership roles.
Strong development experience with Python or Golang (both - advantage).
Demonstrated ability to translate business requirements into technical roadmaps and deliverables.
Experience working in Agile/Scrum environments and managing product backlogs.
Experience with orchestration and containerization (Kubernetes, Docker).
Familiarity with Linux and cloud infrastructure (especially AWS).
Preferred Qualifications:
Bachelors or masters degree in computer science, Engineering, or related field.
Familiarity with data warehousing and modern data stack technologies.
Proven hands-on experience with Apache Airflow, and Apache Spark.
Knowledge of message queues and real-time systems (RabbitMQ, Redis, Kinesis).
Knowledge of DevOps and CI/CD tools.
Strong stakeholder management and communication skills.
Ability to balance technical depth with strategic vision.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8479924
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Engineer at Meta, you will shape the future of people-facing and business-facing products we build across our entire family of applications. Your technical skills and analytical mindset will be utilized designing and building some of the world's most extensive data sets, helping to craft experiences for billions of people and hundreds of millions of businesses worldwide.
In this role, you will collaborate with software engineering, data science, and product management teams to design/build scalable data solutions across Meta to optimize growth, strategy, and user experience for our 3 billion plus users, as well as our internal employee community.
You will be at the forefront of identifying and solving some of the most interesting data challenges at a scale few companies can match. By joining Meta, you will become part of a world-class data engineering community dedicated to skill development and career growth in data engineering and beyond.
Data Engineering: You will guide teams by building optimal data artifacts (including datasets and visualizations) to address key questions. You will refine our systems, design logging solutions, and create scalable data models. Ensuring data security and quality, and with a focus on efficiency, you will suggest architecture and development approaches and data management standards to address complex analytical problems.
Product leadership: You will use data to shape product development, identify new opportunities, and tackle upcoming challenges. You'll ensure our products add value for users and businesses, by prioritizing projects, and driving innovative solutions to respond to challenges or opportunities.
Communication and influence: You won't simply present data, but tell data-driven stories. You will convince and influence your partners using clear insights and recommendations. You will build credibility through structure and clarity, and be a trusted strategic partner.
Data Engineer, Product Analytics Responsibilities
Collaborate with engineers, product managers, and data scientists to understand data needs, representing key data insights in a meaningful way
Design, build, and launch collections of sophisticated data models and visualizations that support multiple use cases across different products or domains
Define and manage Service Level Agreements for all data sets in allocated areas of ownership
Solve challenging data integration problems, utilizing optimal Extract, Transform, Load (ETL) patterns, frameworks, query techniques, sourcing from structured and unstructured data sources
Improve logging
Assist in owning existing processes running in production, optimizing complex code through advanced algorithmic concepts
Optimize pipelines, dashboards, frameworks, and systems to facilitate easier development of data artifacts
Influence product and cross-functional teams to identify data opportunities to drive impact.
Requirements:
Minimum Qualifications
Bachelor's degree in Computer Science, Computer Engineering, relevant technical field, or equivalent
2+ years of experience where the primary responsibility involves working with data. This could include roles such as data analyst, data scientist, data engineer, or similar positions
2+ years of experience with SQL, ETL, data modeling, and at least one programming language (e.g., Python, C++, C#, Scala or others.)
Preferred Qualifications
Master's or Ph.D degree in a STEM field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8478332
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Engineer at Meta, you will shape the future of people-facing and business-facing products we build across our entire family of applications. Your technical skills and analytical mindset will be utilized designing and building some of the world's most extensive data sets, helping to craft experiences for billions of people and hundreds of millions of businesses worldwide.
In this role, you will collaborate with software engineering, data science, and product management teams to design/build scalable data solutions across Meta to optimize growth, strategy, and user experience for our 3 billion plus users, as well as our internal employee community.
You will be at the forefront of identifying and solving some of the most interesting data challenges at a scale few companies can match. By joining Meta, you will become part of a world-class data engineering community dedicated to skill development and career growth in data engineering and beyond.
Data Engineering: You will guide teams by building optimal data artifacts (including datasets and visualizations) to address key questions. You will refine our systems, design logging solutions, and create scalable data models. Ensuring data security and quality, and with a focus on efficiency, you will suggest architecture and development approaches and data management standards to address complex analytical problems.
Product leadership: You will use data to shape product development, identify new opportunities, and tackle upcoming challenges. You'll ensure our products add value for users and businesses, by prioritizing projects, and driving innovative solutions to respond to challenges or opportunities.
Communication and influence: You won't simply present data, but tell data-driven stories. You will convince and influence your partners using clear insights and recommendations. You will build credibility through structure and clarity, and be a trusted strategic partner.
Data Engineer, Product Analytics Responsibilities
Conceptualize and own the data architecture for multiple large-scale projects, while evaluating design and operational cost-benefit tradeoffs within systems
Create and contribute to frameworks that improve the efficacy of logging data, while working with data infrastructure to triage issues and resolve
Collaborate with engineers, product managers, and data scientists to understand data needs, representing key data insights in a meaningful way
Define and manage Service Level Agreements for all data sets in allocated areas of ownership
Determine and implement the security model based on privacy requirements, confirm safeguards are followed, address data quality issues, and evolve governance processes within allocated areas of ownership
Design, build, and launch collections of sophisticated data models and visualizations that support multiple use cases across different products or domains
Solve our most challenging data integration problems, utilizing optimal Extract, Transform, Load (ETL) patterns, frameworks, query techniques, sourcing from structured and unstructured data sources
Assist in owning existing processes running in production, optimizing complex code through advanced algorithmic concepts
Optimize pipelines, dashboards, frameworks, and systems to facilitate easier development of data artifacts.
Requirements:
Minimum Qualifications
Bachelor's degree in Computer Science, Computer Engineering, relevant technical field, or equivalent
4+ years of experience where the primary responsibility involves working with data. This could include roles such as data analyst, data scientist, data engineer, or similar positions
4+ years of experience (or a minimum of 2+ years with a Ph.D) with SQL, ETL, data modeling, and at least one programming language (e.g., Python, C++, C#, Scala, etc.)
Preferred Qualifications
Master's or Ph.D degree in a STEM field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8478330
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Engineer at Meta, you will shape the future of people-facing and business-facing products we build across our entire family of applications (Facebook, Instagram, Messenger, WhatsApp, Reality Labs, Threads). Your technical skills and analytical mindset will be utilized designing and building some of the world's most extensive data sets, helping to craft experiences for billions of people and hundreds of millions of businesses worldwide.
In this role, you will collaborate with software engineering, data science, and product management teams to design/build scalable data solutions across Meta to optimize growth, strategy, and user experience for our 3 billion plus users, as well as our internal employee community.
You will be at the forefront of identifying and solving some of the most interesting data challenges at a scale few companies can match. By joining Meta, you will become part of a world-class data engineering community dedicated to skill development and career growth in data engineering and beyond.
Data Engineering: You will guide teams by building optimal data artifacts (including datasets and visualizations) to address key questions. You will refine our systems, design logging solutions, and create scalable data models. Ensuring data security and quality, and with a focus on efficiency, you will suggest architecture and development approaches and data management standards to address complex analytical problems.
Product leadership: You will use data to shape product development, identify new opportunities, and tackle upcoming challenges. You'll ensure our products add value for users and businesses, by prioritizing projects, and driving innovative solutions to respond to challenges or opportunities.
Communication and influence: You won't simply present data, but tell data-driven stories. You will convince and influence your partners using clear insights and recommendations. You will build credibility through structure and clarity, and be a trusted strategic partner.
Data Engineer, Product Analytics Responsibilities
Conceptualize and own the data architecture for multiple large-scale projects, while evaluating design and operational cost-benefit tradeoffs within systems
Create and contribute to frameworks that improve the efficacy of logging data, while working with data infrastructure to triage issues and resolve
Collaborate with engineers, product managers, and data scientists to understand data needs, representing key data insights visually in a meaningful way
Define and manage Service Level Agreements for all data sets in allocated areas of ownership
Determine and implement the security model based on privacy requirements, confirm safeguards are followed, address data quality issues, and evolve governance processes within allocated areas of ownership
Design, build, and launch collections of sophisticated data models and visualizations that support multiple use cases across different products or domains
Solve our most challenging data integration problems, utilizing optimal Extract, Transform, Load (ETL) patterns, frameworks, query techniques, sourcing from structured and unstructured data sources
Assist in owning existing processes running in production, optimizing complex code through advanced algorithmic concepts
Optimize pipelines, dashboards, frameworks, and systems to facilitate easier development of data artifacts.
Requirements:
Minimum Qualifications
Bachelor's degree in Computer Science, Computer Engineering, relevant technical field, or equivalent
7+ years of experience where the primary responsibility involves working with data. This could include roles such as data analyst, data scientist, data engineer, or similar positions
7+ years of experience with SQL, ETL, data modeling, and at least one programming language (e.g., Python, C++, C#, Scala or others.)
Preferred Qualifications
Master's or Ph.D degree in a STEM field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8478326
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are seeking a Senior Data Infra Engineer. You will be responsible for designing and building all data, ML pipelines, data tools, and cloud infrastructure required to transform massive, fragmented data into a format that supports processes and standards. Your work directly empowers business stakeholders to gain comprehensive visibility, automate key processes, and drive strategic impact across the company.
Responsibilities
Design and Build Data Infrastructure: Design, plan, and build all aspects of the platform's data, ML pipelines, and supporting infrastructure.
Optimize Cloud Data Lake: Build and optimize an AWS-based Data Lake using cloud architecture best practices for partitioning, metadata management, and security to support enterprise-scale operations.
Lead Project Delivery: Lead end-to-end data projects from initial infrastructure design through to production monitoring and optimization.
Solve Integration Challenges: Implement optimal ETL/ELT patterns and query techniques to solve challenging data integration problems sourced from structured and unstructured data.
Requirements:
Experience: 5+ years of hands-on experience designing and maintaining big data pipelines in on-premises or hybrid cloud SaaS environments.
Programming & Databases: Proficiency in one or more programming languages (Python, Scala, Java, or Go) and expertise in both SQL and NoSQL databases.
Engineering Practice: Proven experience with software engineering best practices, including testing, code reviews, design documentation, and CI/CD.
AWS Experience: Experience developing data pipelines and maintaining data lakes, specifically on AWS.
Streaming & Orchestration: Familiarity with Kafka and workflow orchestration tools like Airflow.
Preferred Qualifications
Containerization & DevOps: Familiarity with Docker, Kubernetes (K8S), and Terraform.
Modern Data Stack: Familiarity with the following tools is an advantage: Kafka, Databricks, Airflow, Snowflake, MongoDB, Open Table Format (Iceberg/ Delta)
ML/AI Infrastructure: Experience building and designing ML/AI-driven production infrastructures and pipelines.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8478237
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a skilled and motivated Data Engineer with expertise in Elasticsearch, cloud technologies, and Kafka. As a data engineer, you will be responsible for designing, building and maintaining scalable and efficient data pipelines that will support our organization's data processing needs.
The role will entail:
Design and develop data platforms based on Elasticsearch, Databricks, and Kafka
Build and maintain data pipelines that are efficient, reliable and scalable
Collaborate with cross-functional teams to identify data requirements and design solutions that meet those requirements
Write efficient and optimized code that can handle large volumes of data
Implement data quality checks to ensure accuracy and completeness of the data
Troubleshoot and resolve data pipeline issues in a timely manner.
Requirements:
Bachelor's or Master's degree in Computer Science, Engineering, or a related field
3+ years of experience in data engineering
Expertise in Elasticsearch, cloud technologies (such as AWS, Azure, or GCP), Kafka and Databricks
Proficiency in programming languages such as Python, Java, or Scala
Experience with distributed systems, data warehousing and ETL processes
Experience with Container environment such AKS\EKS\OpenShift is a plus
high security clearance is a plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8477781
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן -126 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >