רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 10 שעות
דרושים בComblack
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
חברת Comblack מגייסת ארכיטקט/ית salesforce לארגון מוביל בירושלים!
התפקיד כולל הובלת תהליכים טכנולוגיים בסביבות ענן salesforce, החל משלב הבנת הצרכים העסקיים ועד לתרגומם לארכיטקטורת פתרון מקיפה. המשרה משלבת הובלת צוותים, תכנון פרויקטים מורכבים ב- salesforce וגישור בין העולם העסקי לעולם הטכנולוגי תוך שימוש בכלי תיעוד ומידול מתקדמים (UML, דיאגרמות רצף).
דרישות:
ניסיון של 6 שנים לפחות בתחום הטכנולוגי, כולל ניסיון מוכח בניהול צוותים.
ניסיון של 5 שנים ומעלה בעבודה ויישום על גבי פלטפורמת salesforce.
ניסיון של 4 שנים בארכיטקטורת פתרונות salesforce מורכבים (Sales, Service, Experience).
ניסיון בכתיבת ארכיטקטורה עסקית, אפיון תהליכים מפורטים ועבודה במתודולוגיית Agile.
ניסיון של שנתיים לפחות במתן ייעוץ אסטרטגי למנהלים/ות בכירים/ות. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8511923
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 12 שעות
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
משרת DBA לחברת Fintech מבוססת המפתחת טכנולוגיות מסחר פיננסי מתקדמות, מהירות ובעלות ביצועים גבוהים, עבור גופים פיננסיים מובילים ברחבי העולם.
דרישות:
5 שנות ניסיון כ- DBA
ניסיון עם MySQL
ניסיון מעשי עם מערכות DBA, אבטחה, אופטימיזציה, גיבוי וכו'.
ניסיון מעשי בתכנון, בדיקות ותחזוקה של מסדי נתונים.
ניהול עצמי, יכול לעבוד כ- DBA יחיד בארגון.
ניסיון עם שפת סקריפטים - Python, Bash. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8501557
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים במלם תים
סוג משרה: משרה מלאה
חברת- Malam- Team, מגייסת אנליסט/ית למחלקה הכלכלית. 
מדובר בתפקיד התחלתי עם אופק קידומי. 
התפקיד כולל:  ניהול P L של תחום הפעילות, מעקב אחר היקפי לקוחות, היקפי חשבונות, היקפי לקוחות פעילים, ניתוח פעילות ממוצעת של לקוח.
חישובי רווחיות של תחום הפעילות, חישוב ובקרת התחשבנות מול ספקים, בניית דשבורדים ב- BI  
בניית דוחות לפי דרישה.
דרישות:
- תואר ראשון בכלכלה / מנע"ס - חובה.
- מתאים כתפקיד ראשון לאחר סיום התואר.
- ניסיון קודם בתפקיד אנליסט/ית ממוסד פיננסי - יתרון.
- ידע וניסיון בעבודה עם מערכת BI - חובה.
- שליטה מלאה באקסל ופאוור פוינט.
- יכולת אנליטית גבוהה
- יכולת עבודה ולמידה עצמאית לצד עבודה בצוות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8478186
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון טכנולוגי באזור המרכז מגייס data Engineer
התפקיד כולל: פיתוח, הקמה ותחזוקה של תשתיות דאטה מתקדמות בסביבת ענן, בדגש על עבודה עם Databricks, אחריות על בניית תהליכי data Pipelines מקצה לקצה, עיבוד כמויות דאטה גדולות (Batch ו-Streaming), שיפור ביצועים ואיכות נתונים ושיתוף פעולה צמוד עם צוותי BI, אנליסטים ו- data Scientists ועוד.
דרישות:
- שלוש שנות ניסיון data Engineering
- ניסיון מעשי בעבודה עם Databricks
- שליטה ב-SQL ברמה גבוהה
- ניסיון בפיתוח תהליכי ETL / ELT
- עבודה בסביבת ענן AWS / Azure / GCP המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8516275
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בלוגיקה IT
מיקום המשרה: ראשון לציון
אנחנו מחפשים Fraud data Analyst לצוות המלחמה בהונאות הסייבר שלנו! 

האם יש לך "חוש שישי" לאנומליות בנתונים? האם עולמות הפינטק והמאבק בהונאות פיננסיות מרגשים אותך? הצוות שלנו מתרחב, ואנחנו מחפשים אנליסט.ית נתונים מבריק.ה שיודע.ת לצלול לתוך Big Data ולהפוך מידע לתובנות ומניעה בזמן אמת.

מה תעשו אצלנו?
* תחקור וזיהוי דפוסי הונאה מורכבים במרחב הדיגיטלי (אפליקציות, אינטרנט ותשלומים).
* פיתוח ותחזוקה של בקרות וחוקי ניטור מתקדמים למניעת הונאות כספיות בזמן אמת.
* ניתוח Big Data לאיתור אנומליות והתנהגויות חשודות של משתמשים.
* שימוש בכלי ניטור ותחקור (Splunk, SQL) לכתיבת שאילתות מורכבות והפקת דוחות.
* עבודה צמודה עם צוותי הפיתוח והמוצר לשיפור מערכות ההגנה שלנו.
* ניתוח אירועי הונאה והובלת דרכי התמודדות פרו-אקטיביות.
דרישות:
* לפחות שנתיים ניסיון בניתוח Big Data - חובה.
* שליטה גבוהה מאוד ב-SQL (כתיבת שאילתות מורכבות, אופטימיזציה) - חובה.
* ניסיון בעבודה עם Python (לצרכי ניתוח נתונים /אוטומציה) - חובה.
* ניסיון עבודה עם Splunk (בניית Dashboards, חיפושים מורכבים) - חובה.
* יכולת מוכחת בניתוח תהליכים עסקיים והסקת מסקנות מתוך נתונים גולמיים.
* יכולת עבודה תחת לחץ וקבלת החלטות מהירות בסביבה משתנה.
* ניסיון קודם בביצוע תחקורי הונאות/סייבר - יתרון משמעותי.

יתרונות נוספים שיעזרו לך לנצח:
* ניסיון קודם מחברת פינטק (FinTech) - יתרון משמעותי מאוד.
* היכרות עם עולמות ה- Real-Time Fraud Detection.
* תואר רלוונטי (סטטיסטיקה/כלכלה/ מערכות מידע /מדעי המחשב). המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8516132
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 15 שעות
דרושים בעידור מחשבים בע"מ
תנאים נוספים:החזר הוצאות, קרן השתלמות
תיאור הפעילויות והמטלות המרכזיות בתפקיד:
עיצוב ופיתוח תהליכי ETL בסביבת ענן ובסביבת On-Prem
כתיבת שאילתות ופרוצדורות מורכבות
פיתוח בכלי פרונט - קוגנוס, טאבלו, אינטלסיס
עבודה מול ממשקים וצוותים מקבילים
עבודה מול לקוחות עסקיים
דרישות:
דרישות התפקיד:
SQL ברמה גבוהה - לפחות שנתיים 
ניסיון פיתוח בכלי ETL (SSIS) - לפחות שנתיים
ניסיון בכתיבת stored procedures - 1-2 שנים
היכרות עם Azure, DataFactory, DataBricks
פיתוח Python
רקע/קורס DBA אפליקטיבי
ניסיון בפיתוח טאבלו - יתרון
ניסיון פיתוח בכלי פרונט נוספים ( קוגנוס וכדומה) - יתרון

תכונות עיקריות הנדרשות לצורך ביצוע מוצלח של התפקיד:         
עבודת צוות
יחסי אנוש מצוינים
עצמאות
יכולת למידה עצמית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8515317
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 17 שעות
דרושים בפרוסיד
סוג משרה: משרה מלאה
Proceed מגייסת   BI Developer (Looker Focused)

במסגרת התפקיד:
פיתוח ותחזוקה של דשבורדים ופתרונות BI עבור לקוחות החברה.
עבודה בסביבת ענן (GCP) וכניסה מיידית לפרויקט המבוסס על Looker.
כתיבת קוד LookML, בניית מודלים וניהול שכבת הנתונים ב-Looker.
עבודה מול אפיונים עסקיים ותרגומם לפתרונות ויזואליים ודוחות.
כתיבת שאילתות SQL וטיוב נתונים לצורך הצגה בדשבורדים.

מה אנחנו מציעים:
הזדמנות לקחת חלק בצוות הליבה של תחום הדאטה וה AI בפרוסיד ולהשפיע ישירות על אסטרטגיית החברה.
עבודה עם לקוחות אסטרטגיים מהמובילים במשק בתחומי פיננסים, ממשלה, ביטחון ובריאות.
סביבת עבודה טכנולוגית מתקדמת, מבוססת ענן, עם חשיפה לכלים החדשניים ביותר בעולם הדאטה.
תרבות עבודה יזמית, שיתופית ודינמית מקום לצמיחה אישית ומקצועית אמיתית.
דרישות:
ניסיון של שנתיים ומעלה כמפתח/ת BI - חובה.
שליטה מלאה וניסיון מעשי ב-Looker (כולל LookML) - חובה.
שליטה טובה מאוד ב-SQL חובה.
ניסיון בעבודה בסביבת ענן  (GCP / AWS / Azure) חובה (יתרון לGCP)
הבנה טובה במודלים של דאטה (כגון  Star Schema)
יכולת עבודה עצמאית ותקשורת בין-אישית טובה לעבודה מול צוותים ולקוחות.
אנגלית טכנית ברמה טובה.
יתרונות:
היכרות עם כלי BI נוספים  (quicksight / Tableau) יתרון גדול לגיוון בין כלים
תואר אקדמי רלוונטי.
היכרות עם   Python. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8442736
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בקבוצת נישה
סוג משרה: משרה מלאה
- אפיון וניתוח צרכים עסקיים ופתרונות BI בחטיבות שונות בחברה

- פיתוח מודלים חדשים ותחזוקת מודלים קיימים בחברה

- עבודה מול גורמים בכירים בקבוצה
דרישות:
- כשנתיים ניסיון ב Qliksense

- הבנת תהליכי ETL

- ניסיון בעבודה עם salesforce - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8493117
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה גלובלית מובילה המתמחה בפיתוח פלטפורמות Online Gaming דרוש/ה Oracle APPLICATION DBA
מדובר בחברה המתמחה בפיתוח פלטפורמות Online Gaming.
כ600 עובדים בעולם, הR D יושבים בישראל בת"א (בקרבת רכבת) ועובדים מהמשרדים.
דרישות:
3+ שנות ניסיון בכתיבת שאילתות SQL מורכבות
יכולת למידה עצמית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8506244
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
רוצה לעבוד עם דאטה בקנה מידה גדול, טכנולוגיות מתקדמות וסביבה מקצועית ודינאמית?
לארגון מוביל במרכז תל אביב דרוש/ה data Engineer להצטרפות לצוות חזק ומשפיע, שעובד על מערכות ליבה ופרויקטים מאתגרים בעולם הדאטה.
מה תעשו בתפקיד?
פיתוח תהליכי שינוע ועיבוד נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע מול salesforce
קריאה וקליטה של נתונים ממקורות מגוונים: data Lake, Kafka, MongoDB
פיתוח, תחקור וניתוח נתונים באמצעות SQL
פיתוח ותחזוקה של data Pipelines לפלטפורמת salesforce
כתיבת בדיקות Unit / Integration
דרישות:
ניסיון של לפחות שנתיים בעולמות הBig data (בדגש על Hive)
שליטה בכתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בסביבות CI/CD
ניסיון בעבודה מול Control-M
יכולת עבודה עצמאית לצד עבודת צוות, חשיבה אנליטית ורצון ללמוד ולהתפתח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים באוקטאלי אינטגרציה בע"מ
מיקום המשרה: תל אביב יפו
דרוש.ה מפתח.ת JAVA מנוסה
רוצה לעבוד על פרויקט טכנולוגי מתקדם עם השפעה אמיתית?
אם Big Data, Streaming וScale גבוה עושים לך חשק- זו ההזדמנות שלך!

מה עושים בפועל?
פיתוח מערכות לניהול תהליכי data Governance וETL בScale גבוה.
פיתוח תהליכי Real-Time data Streaming בסביבות מורכבות.
עבודה עם טכנולוגיות מתקדמות בסביבת Agile/Scrum.
שיתוף פעולה בצוות מקצועי, לצד אחריות אישית גבוהה.
כתיבת קוד איכותי בJava עם Spring, עבודה מול APIs ותשתיות מורכבות.
דרישות:
דרישות חובה:
לפחות 5 שנות ניסיון בפיתוח JAVA בצד שרת.
ניסיון בפיתוח מערכות מורכבות.
יכולת עבודה עצמאית, ראש גדול ומחויבות.
נכונות לעבודה במשרה מלאה במקום ביטחוני (כולל תהליך סיווג).

יתרונות שמייחדים אותך:
ניסיון עם Spring, Kafka, RabbitMQ, Postgres, MongoDB.
היכרות עם Kubernetes (K8S) וDocker.
ניסיון בעיבוד זרימה עם Flink.
ידע בPython / Bash.
ניסיון בעבודה במתודולוגיית Agile/Scrum.

מה אנחנו מציעים
פרויקט טכנולוגי מתקדם עם השפעה אמיתית.
עבודה בסביבה חדשנית עם טכנולוגיות Big Data.
צוות מקצועי, שיתוף פעולה ואחריות אישית.
משרה מלאה + קו רכב מתחנת אוניברסיטת תל אביב.
אופק מקצועי והזדמנות לצמיחה.

תנסו, מקסימום תצליחו! מחכים לקורות חיים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8489016
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
מיקום המשרה: תל אביב יפו
תנאים נוספים:קרן השתלמות
אנחנו מחפשים מפתח.ת לפיתוח מערכות ליבה בתחום הפיננסי, מערכות מורכבות ועתירות ביצועים,
עם אחריות רחבה על קוד, ארכיטקטורה וקבלת החלטות טכנולוגיות.
מה התפקיד כולל
פיתוח מערכות backend וServer Side ב c# (.NET Core /.NET Framework)
פיתוח frontend בעיקר בWPF
עבודה עם מסדי נתונים SQL בהיקפים גדולים
פיתוח מערכות עתירות ביצועים עם דגש על:
Multithreading
עבודה אסינכרונית
סקיילביליות ואופטימיזציית ביצועים
עבודה עם Big Data וזרמי מידע מורכבים
מעורבות בתכנון הארכיטקטורה וקבלת החלטות טכנולוגיות
אחריות על איכות הקוד, קריאות, ותחזוקתיות לאורך זמן
דרישות:
5+ שנות ניסיון בפיתוח ב c# / ‎.NET
ניסיון בפיתוח backend וServer Side
ניסיון בעבודה עם SQL
ניסיון בפיתוח WPF
ניסיון בעבודה עם Big Data
ניסיון בעולמות פיננסיים - יתרון
הבנה מעמיקה בMultithreading, Concurrency ותכנות אסינכרוני
ניסיון בעבודה עם מערכות מורכבות עתירות נתונים וביצועים
תואר רלוונטי במדעי המחשב או דומה
אנגלית טכנית ברמה גבוהה

מיקום
תל אביב | משרה היברידית - כ60% עבודה מהבית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8517825
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת Start-Up מצליחה ורווחית העוסקת בתחום ה-Ad-Tech,שמפתחת מערכת אוטומטית לייעול קמפיינים של פרסום במובייל דרוש/ה Big Data Engineer team lead.
הפלטפורמה מטרגטת בזמן אמת משתמשים פוטנציאליים שרוצים להוריד את האפליקציה ברמת דיוק גבוהה מאוד.
75 עובדים, החברה רווחית ויציבה.
יושבים בתל אביב על קו רכבת, משלבים יומיים מהבית.
דרישות:
לפחות 2 שנות ניסיון בהובלה טכנולוגית או בניהול פרויקטים מורכבים.
לפחות 6 שנות ניסיון כמהנדס/ת data או backend במערכות עתירות דאטה.
ניסיון מוכח בעבודה בפרודקשן עם PySpark.
שליטה גבוהה ב-SQL לצורך ניתוחים מורכבים, ולידציה ומודלים ל- BI.
ניסיון מוכח ביישום אלגוריתמים ולוגיקה עסקית מורכבת בהיקפים גדולים.
הבנה מעמיקה של נכונות דאטה, מקרי קצה ואסטרטגיות ולידציה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8512031
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון פיננסי במרכז הארץ מגייס מפתח/ת ETL
התפקיד כולל: פיתוח תהליכי ETL בסביבת Informatica On-Prem, עבודה יומיומית עם צוותי BI, אנליזה ומערכות מידע, תכנון מוקדם של תהליכי פיתוח מורכבים, תחקור תקלות, הובלת פתרונות טכנולוגיים איכותיים, עבודה מול מסדי נתונים מגוונים, שיפור ביצועים וייעול תהליכים קיימים, עבודה שוטפת עם ממשקים רבים בארגון ועוד.
דרישות:
- 5 שנות ניסיון בפיתוח ETL באמצעות Informatica
- עבודה עם בסיסי נתונים רלציוניים כגון: Oracle ו- SQL server וכתיבת SQL מורכב
- תכנון ופיתוח תהליכי ETL מורכבים תוך התייחסות לביצועים, REUSE ו-RERUN
- תחקור תקלות, ביצוע Root Cause Analysis והובלת פתרון מקצה לקצה
- ניסיון בעבודה בארגונים גדולים / בסביבה פיננסית או ביטוחית - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8517168
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Merkaz
Job Type: Full Time
abra professional services is seeking for an senior data engineer. We are seeking a Senior Data Engineer to lead the technical development of our Data Fabric within a military program. This role involves technical leadership in building contextual data pipelines, working with big data lakehouse architectures, and driving data pipeline automation.
Requirements:
MUST HAVE Requirements: 5+ years of hands-on experience as a Big Data Engineer
* Proven ability to design and deploy Big Data & AI solutions using frameworks and tools such as:
* Apache NiFi
* Kafka
* Spark
* Graph DB
* NoSQL databases Strong coding proficiency in Python and Bash
* Experience building large-scale data pipelines for data processing, transformation, and analytics
* Ability to define and manage metadata schemas
* Experience developing data workflows (e.g., metadata generation, auto-extraction, validation, format conversion)
* Experience developing tools for data observability and compliance analytics
* Ability to analyze and report on complex datasets and results
* Experience working with big data lakehouse architectures
* Ability to explore, enhance, and manage data fusion from multiple data sources
* Experience developing analytics tools, algorithms, and programs
* Technical leadership of data structure design for contextual pipelines
* Collaboration experience with Data Scientists and Architects
* Strong ability to work independently, learn new technologies, and apply innovative solutions
* Excellent interpersonal skills and ability to work as part of a team MSc in Computer Science or Data Science Advantages:
* Experience with managing metadata and taxonomy concepts alongside big data objects
* Experience working with public cloud Big Data & AI services
* Familiarity with machine learning concepts
* Strong technical skills
* Independent, hands-on developer
* Curious, open-minded, fast learner, and a strong team player
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8503268
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Rishon Letsiyon
Job Type: Full Time
Were looking for an experienced Data Engineer to join our DEX Platform and help drive the next stage of our growth. In this role, youll design, build, and scale data infrastructure and advanced processing pipelines that power real-time insights and intelligent automation across our platform.
As a senior data engineer, youll own the full service lifecycle-from architecture and development to deployment, monitoring, and scaling-while ensuring data quality, reliability, and compliance. Youll work closely with backend, AI, and data teams to deliver robust, production-ready systems that support our AI-first strategy and our mission to make the workplace run itself.
Requirements:
5+ years of backend/data engineering experience
Proficiency with Java (Vert.x, Spring or similar) - a must
Hands-on experience with Kafka and streaming frameworks like Kafka Streams, Flink, Spark, or Beam - a must
Solid understanding of microservices architecture and cloud platforms (Azure/AWS/GCP)
Familiarity with AI-first development tools (GitHub Copilot, Cursor) - an advantage
Experience working in production-aware, observability-driven environments - monitoring troubleshooting, and optimizing
Knowledge of Postgres, Redis, MySQL or similar, Clickhouse
Experience in Node.js (NestJS/Express) - a big advantage
Strong foundation in object-oriented design, design patterns, and clean code practices
Comfortable designing, deploying, and maintaining backend services and data flows
Passion for learning, experimenting with new tech, and building reliable systems at scale
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8517958
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Required Big Data Engineer Team Lead
We are an innovative technology company led by data scientists and engineers devoted to mobile app growth. Our proprietary ad platform is powered by machine learning and is constantly improving its distribution algorithms.
We deliver valuable results and insights for a fast-growing clientele of major app developers using elite programmatic user acquisition and retargeting technologies.
Our state-of-the-art machine learning technology analyzes 50TB of raw data per day to produce millions of ad recommendations in real-time. This data is used to power our machine learning predictions, business-critical metrics, and analytics to power our decision-making.
As a Big Data Team Lead, you will lead a team focused on building scalable, algorithm-heavy data products rather than owning the underlying data infrastructure.
Your team will be responsible for implementing complex business and optimization logic-often incorporating multiple algorithms using Peta-Byte scale data processing (primarily PySpark). A core part of the role is ensuring these data products are explainable, observable, and trusted by Data Science, BI, Product, and business stakeholders.
You will work closely with the Data Infrastructure TL, Data Science, BI, and Product to turn advanced logic into production-grade, transparent, and measurable systems.
Responsibilities:
Lead development of scalable, algorithm-heavy data products using PySpark and Implement and maintain complex, multi-stage data flows with multiple interacting algorithms.
Translate business and algorithmic requirements into clear, testable data logic. Ensuring explainability of outputs through intermediate artifacts, metadata, and documentation & Defining and monitoring; observability signals for data quality, algorithm health, and business impact.
Mentor engineers on reasoning about complex logic, edge cases, and failure modes.
Requirements:
2+ years of experience in technical leadership or leading complex projects.
6+ years of experience as a Data / Backend Engineer in data-intensive systems.
Strong production experience with PySpark.
Excellent SQL skills for complex analysis, validation, and BI-facing data models.
Proven experience implementing complex algorithms and business logic at scale.
Strong understanding of data correctness, edge cases, and validation strategies.
Advantage:
Experience with algorithm explainability and data observability.
Background working closely with Data Science / ML teams.
Experience with large-scale Spark batch or streaming pipelines.
AWS-based data platforms experience.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8515719
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As our Senior Data Engineer you will handle Big Data in real time, and become the owner and gatekeeper of all data and data flows within the company. You will bring data ingenuity and technological excellence while gaining a deep business understanding.

This is an amazing opportunity to join a multi-disciplinary A-team while working in a fast-paced, modern cloud, data-oriented environment.



What Youll Do:

Implement robust, reliable and scalable data pipelines and data architecture.
Own and develop DWH (Petabytes of data!).
Own the entire data development process, including business knowledge, methodology, quality assurance, and monitoring.
Collaborate with cross-functional teams to define, design, and ship new features.
Continuously discover, evaluate, and implement new technologies to maximize development efficiency.
Develop tailormade solutions as part of our data pipelines.
Lead complex Big Data projects and build data platforms from scratch.
Work on a high-scale, real-time, real-world business-critical data stores and data endpoints.
Implement data profiling to identify anomalies and maintain data integrity.
Work in a results-driven, high-paced, rewarding environment.
Requirements:
5+ years experience as a Data Engineer.
Good working knowledge of Google Cloud Platform (GCP).
Experience using AI-assisted tools or automation to improve data development, monitoring, or debugging workflows.
Strong experience in SQL and Python.
Experience with high volume ETL/ELTs tools and methodologies - both batch and real-time processing.
Understanding of how to build robust and reliable solutions.
The ability to understand the business impact of the data engineering tasks.
Hands-on experience in writing complex queries and optimizing them for performance.
Able to understand complex data and data flows.
Have a strong analytical mind with proven problem-solving abilities.
Ability to manage multiple tasks and drive them to completion.
Independent and proactive.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8514373
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We face extremely complex technological challenges and need talents to help us overcome them.
We are looking for a talented and experienced big data engineer to join our cyber defence group to take over a cutting-edge data solution.
The successful candidate should have hands-on experience with big data processing technologies and architectures.
The candidate will join our growing team of analysts, developers, data scientists, and architects who design and develop innovative solutions to the most critical needs of our customers.
Responsibilities
Designing, architecting, implementing, and supporting our data pipelines and processing flows.
Collaborate with analytics department to analyze and understand data sources.+
Provide insights and guidance on database technology and data modelling best practices.
Insure the maintenance of data integrity, managing data and analysis flows with attention to detail and high responsibility.
Implementing algorithms with our data scientists.
Requirements:
BSc/BA in Computer Science or similar.
At least 5 years proven experience as a Big Data Engineer.
At least 3 years of experience with Python.
Experience with both SQL and NoSQL databases, including Elastic Search, Splunk, MongoDB.
Experience with processing of large data sets.
Experience with Linux environment.
Experience with software design and development in a test-driven environment.
Advantages:
Previous experience in the cybersecurity industry or in elite technology units in IDF.
Experience with OpenShift, S3, AWS, Docker, Kubernetes, Java and TypeScript.
Experience working with CI/CD software (Jenkins, GitLab).
Experience with AirFlow.
Experience with Nifi.
Personal skills:
Good communication skills, excellent organisational and time management skills, accuracy and attention to details, high responsibility, independent, self-learner, highly motivated, open minded, problems resolver, team player.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8509735
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
It starts with you - an engineer driven to build modern, real-time data platforms that help teams move faster with trust. You care about great service, performance, and cost. Youll architect and ship a top-of-the-line open streaming data lake/lakehouse and data stack, turning massive threat signals into intuitive, self-serve data and fast retrieval for humans and AI agents - powering a unified foundation for AI-driven mission-critical workflows across cloud and on-prem.
If you want to make a meaningful impact, join mission and build best-in-class data systems that move the world forward - this role is for you.
:Responsibilities
Build self-serve platform surfaces (APIs, specs, CLI/UI) for streaming and batch pipelines with correctness, safe replay/backfills, and CDC.
Run the open data lake/lakehouse across cloud and on-prem; enable schema evolution and time travel; tune partitioning and compaction to balance latency, freshness, and cost.
Provide serving and storage across real-time OLAP, OLTP, document engines, and vector databases.
Own the data layer for AI - trusted datasets for training and inference, feature and embedding storage, RAG-ready collections, and foundational building blocks that accelerate AI development across the organization.
Enable AI-native capabilities - support agentic pipelines, self-tuning processes, and secure sandboxing for model experimentation and deployment.
Make catalog, lineage, observability, and governance first-class - with clear ownership, freshness SLAs, and access controls.
Improve performance and cost by tuning runtimes and I/O, profiling bottlenecks, planning capacity, and keeping spend predictable.
Ship paved-road tooling - shared libraries, templates, CI/CD, IaC, and runbooks - while collaborating across AI, ML, Data Science, Engineering, Product, and DevOps. Own architecture, documentation, and operations end-to-end.
Requirements:
6+ years in software engineering, data engineering, platform engineering, or distributed systems, with hands-on experience building and operating data infrastructure at scale.
Streaming & ingestion - Technologies like Flink, Structured Streaming, Kafka, Debezium, Spark, dbt, Airflow/Dagster
Open data lake/lakehouse - Table formats like Iceberg, Delta, or Hudi; columnar formats; partitioning, compaction, schema evolution, time-travel
Serving & retrieval - OLAP engines like ClickHouse or Trino; vector databases like Milvus, Qdrant, or LanceDB; low-latency stores like Redis, ScyllaDB, or DynamoDB
Databases - OLTP systems like Postgres or MySQL; document/search engines like MongoDB or ElasticSearch; serialization with Avro/Protobuf; warehouse patterns
Platform & infra - Kubernetes, AWS, Terraform or similar IaC, CI/CD, observability, incident response
Performance & cost - JVM tuning, query optimization, capacity planning, compute/storage cost modeling
Engineering craft - Java/Scala/Python, testing, secure coding, AI coding tools like Cursor, Claude Code, or Copilot
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504233
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Join a core team of experts responsible for developing innovative cyber-attack techniques for Cloud-based environments (AWS, Azure, GCP, Kubernetes) that integrate into fully automated attack simulation.

This role provides the opportunity to lead end-to-end design & implementation of advanced server-side features using a wide range of technologies: Apache Spark, Apache Airflow, Scala, k8s, Node.js (JS/Typescript) with MongoDB, Redis, Kafka, Dockers and Flink (Big Data Stream Processing)
Requirements:
5+ years of experience in software development with proven ability to take full responsibility and lead advanced software projects that require team collaboration.
Capable of facing a wide range of cutting edge technologies and challenging development tasks, designing new features from scratch and diving into existing infrastructure.
2+ years experience of spark with scala/Python - Must.
Experience in server-side development with APIs, Microservices Architecture (Docker), databases, caches, queues.
Experience in delivering fully tested production-level code using CI/CD pipeline and maintaining large-scale production systems.
Highly motivated leader with a can-do approach and strong interpersonal skills that thrives in a fast-paced startup environment.
Relevant Cyber Security experience - Advantage
Experience in cloud development (AWS / Azure / GCP) - Advantage
Experience with k8s operator, spark and airflow - Big Advantage
Experience with Node.js (JS/Typescript) - Advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8496592
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
11/01/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Senior Data Engineer, you will play a key role in shaping and driving our analytics data pipelines and solutions to empower business insights and decisions. Collaborating with a variety of stakeholders, you will design, develop, and optimize scalable, high-performance data analytics infrastructures using modern tools and technologies. Your work will ensure data is accurate, timely, and actionable for critical decision-making.

Key Responsibilities:

Lead the design, development, and maintenance of robust data pipelines and ETL processes, handling diverse structured and unstructured data sources.
Collaborate with data analysts, data scientists, product engineers and product managers to deliver impactful data solutions.
Architect and maintain the infrastructure for ingesting, processing, and managing data in the analytics data warehouse.
Develop and optimize analytics-oriented data models to support business decision-making.
Champion data quality, consistency, and governance across the analytics layer.
Requirements:
5+ years of experience as a Data Engineer or in a similar role.
Expertise in SQL and proficiency in Python for data engineering tasks.
Proven experience designing and implementing analytics-focused data models and warehouses.
Hands-on experience with data pipelines and ETL/ELT frameworks (e.g Airflow, Luigi, AWS Glue, DBT).
Strong experience with cloud data services (e.g., AWS, GCP, Azure).
A deep passion for data and a strong analytical mindset with attention to detail.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8495847
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Architect, youll sit at the intersection of data engineering, ML systems, and platform architecture. Youll own the patterns, guardrails, and data platform capabilities that let teams ship AI-native, low-latency experiences at scale-safely, reliably, and cost-effectively.

What Youll Actually Do:

Design AI-native data systems: LLM/RAG pipelines, embeddings & vector search, and real-time inference- production-grade and observable.
Evolve the data platform: Batch + streaming + lakehouse; CDC, orchestration, lineage/quality, and clear data contracts for ML readiness.
Set org standards: Contract-first APIs & event schemas, ADRs, SLOs (latency/MTTR/cost); lead design reviews and architecture spikes.
Modernize pragmatically: Guide adoption of Databricks, Kafka, Airflow, Kubernetes, Terraform, and modern observability- fit to purpose.
Lead by influence: Mentor Tech Leads, partner with Product/ML/Platform, and turn goals into resilient, measurable systems.
Requirements:
5+ years as a Software/Data/Solution Architect in AI-intensive or data-heavy environments; ~10+ years engineering overall.
Distributed systems depth: microservices, event-driven design, backpressure/idempotency, retries/DLQs; contract-first APIs.
Data platform expertise: streaming + batch + lakehouse, CDC, orchestration, governance/lineage, schema evolution.
AI systems fluency: LLMs, embeddings, vector stores, RAG; real-time production inference.
Hands-on: Python or TypeScript/Scala; Databricks, Airflow, Kafka, Kubernetes, Terraform; Prometheus/Grafana/Coralogix.
Cloud-first (AWS preferred), security-by-design, crisp writing and collaboration.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481848
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
In this role, youll own the engineering backbone that enables our data engineers & data scientists to experiment, innovate, and deploy production-ready models, ensuring our systems are robust, scalable, and future-proof.

What You'll Actually Do:

Lead and mentor a team of Data Engineers, fostering a culture of technical excellence, accountability, and collaboration.
Define and drive the teams technical roadmap, standards, and best practices for data modeling, performance, and reliability.
Design, build, and evolve scalable embedding pipelines and recommendation infrastructure, from algorithm tuning and training workflows to production deployment.
Manage and optimize vector db, ensuring efficient indexing strategies, search performance, and low-latency retrieval.
Lead the development of retrieval services leveraging Approximate Nearest Neighbor (ANN/KNN) techniques such as HNSW, IVF, and Product Quantization (PQ).
Ensure reliability, observability, and scalability across all real-time data systems powering our recommendation engine.
Collaborate with Data Science, Product, and Analytics to operationalize models, validate KPIs, and translate technical insights into actionable product improvements.
Requirements:
3+ years of experience leading data engineering teams.
5+ years of hands-on experience developing large-scale data and ML systems, with strong foundations in distributed computing, data pipelines, and algorithm development.
Strong programming skills in Python, with practical experience using modern data and ML frameworks such as Spark, Airflow, MLflow, or equivalent technologies.
Proven experience designing and maintaining embedding pipelines, feature stores, and model-serving infrastructure.
Excellent leadership and communication skills, with a passion for mentoring engineers and driving technical excellence.
Ability to translate complex technical challenges into scalable, reliable engineering solutions.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481846
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We seek an experienced and highly skilled Senior Engineer to join our Data Platform Team. This is an exciting opportunity to work on cutting-edge technologies, drive innovation, and play a key role in designing and implementing the companys data infrastructure and architecture.
What you'll do:

Database Infrastructure Development - Design, develop, and maintain scalable and reliable self-serve database infrastructure, including PostgreSQL, MongoDB, SingleStore, and AWS Aurora.


Big Data Infrastructure Development - Design, develop, and maintain scalable and reliable self-serve big data infrastructure, including cloud-agnostic data lakehouse, distributed databases, and platform-powered data pipelines.


End-to-End Ownership - Take responsibility for the entire lifecycle of data infrastructure, from DevOps (Terraform, Kubernetes) to application-level components (infrastructure libraries, core components in data pipelines).


Architecture Leadership: Collaborate with the Architecture group to define and maintain the companys core architectural vision.


Partner with development teams, providing technical guidance, best practices, and support from the design phase to production deployment.


Innovation and Exploration - Work on diverse and impactful projects across different layers of the tech stack, exploring new technologies and approaches to improve reliability, efficiency, and scalability.
Requirements:
Extensive Experience in software engineering and data infrastructure.
Extensive Expertise in the administration of OLTP and OLAP databases.
Strong knowledge of big data frameworks, including Apache Spark, Athena, Trino, and Iceberg.
Hands-on experience with DevOps tools such as Terraform, Kubernetes, and Cloud infrastructure.
Proficiency in building and managing data pipelines and core infrastructure components.
Strong problem-solving, communication, and leadership skills, with the ability to mentor and collaborate across teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8478335
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/12/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Senior Backend Engineer, you will design, build, and scale the core backend systems that power our security platform-directly shaping the safety of millions of Web3 users. Youll work closely with a team of world-class engineers to deliver highly reliable, performant, and secure infrastructure.



Your Chain of Impact:

Lead feature development end-to-end, from requirements to production.
Build systems that protect millions of users from fraud, scams, and hacks.
Contribute across the full software development lifecycle in an agile environment.
Drive technical innovation by staying ahead of emerging technologies.
Uphold the highest standards of code quality, scalability, and performance.
Take true ownership of our product, tech stack, and development processes.
Requirements:
810 years of backend-focused engineering experience, with a proven track record of building and scaling complex systems.
Success across 23 fast-paced startup environments, demonstrating adaptability and impact.
Strong proficiency in Python for backend development.
Deep understanding of data systems, including SQL/NoSQL databases and data warehouses.
Hands-on experience with cloud platforms (AWS/GCP), Kubernetes, and CI/CD pipelines.
Curiosity and eagerness to learn; background in cybersecurity, blockchain, or data analysis is a strong plus.
Experience designing and building scalable data pipelines and real-time processing systems.
Skilled with- ETL/ELT tools (Apache Airflow/dbt/Dagster) and streaming platforms (Kafka/Kinesis/RabbitMQ/..).
Familiar with real-time analytics frameworks such as Flink, Spark Streaming, or similar.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8468030
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/12/2025
מיקום המשרה: לוד
סוג משרה: משרה מלאה
פיתוח, תחזוקה ושיפור תהליכי ETL באמצעות IBM DataStage עבודה בסביבת Oracle כתיבה של שאילתות, פונקציות ו־Stored Procedures מורכבים ב־PL/SQL
דרישות:
פיתוח, תחזוקה ושיפור תהליכי ETL באמצעות IBM DataStage עבודה בסביבת Oracle כתיבה של שאילתות, פונקציות ו־Stored Procedures מורכבים ב־PL/SQL פיתוח פתרונות Data Warehouse ו־BI עבודה בצוותים חוצי ארגון ומתן פתרונות איכותיים ומדויקים הקפדה על איכות נתונים, ביצועים ועמידות תהליכים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8467791
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו