רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
כל מה שרציתם לדעת על מבחני המיון ולא העזתם לשאול
זומנתם למבחני מיון ואין לכם מושג לקראת מה אתם ה...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 21 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
חברת סייבר במרכז הארץ מגייסת data Engineer
במסגרת התפקיד: עבודה בצוות, הובלת פרויקטי פיתוח של שירותי data, תמיכה בלקוחות בכמויות גדולות של נתונים, עבודה בטכנולוגיות AI מתקדמות ועוד.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בעבודה ב-Spark
- ניסיון בפיתוח ב-Scala / Python
- ניסיון בעבודה עם Linux, Docker ו-Kubernetes
- ניסיון בפיתוח ב-NodeJS, TypeScript - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8438388
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בקונסיסט מערכות בע"מ
תיאור התפקיד:
- מנהל /ת מוצר מתחום תשתית דאטה בענן משלב הארכיטקטורה ועד מסירה אחריות מלאה להובלה, הקמה, פיתוח ויישום לפלטפורמת הדאטה הארגונית בענן  GCP
דרישות:
דרישות התפקיד:
*ניסיון של 4 שנים ומעלה בניהול מוצר-חובה!
* ניסיון  Hands on ב  data / - Engineering / בפיתוח / תשתיות-חובה!
*ניסיון בעבודה עם ענן חובה - יתרון לGCP
*הבנה עמוקה של עולם הדאטה: מסדי נתונים, ELT/ ETL, Modeling
*ניסיון עם BigQuery או מחסן נתונים גדול - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439438
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים בקבוצת יעל
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
אחריות כוללת על גיבוש אסטרטגיית Quality data וObservability data ארגונית, כולל הגדרת חזון, עקרונות ומדיניות לאיכות נתונים.
תעדוף תחומי מיקוד בהתאם להשפעה עסקית, רמת סיכון ותלות ארגונית.
בניית Framework Quality data מלא מנגנוני מניעה, זיהוי, טיפול ושיפור מתמשך.
הגדרת SLA data למקורות נתונים ולתהליכים קריטיים בארגון.
ניהול מוצר מקצה לקצה כולל ניהול Backlog של יכולות, תקלות ותעדופים בפלטפורמת DO/DQ.
כתיבת מסמכי אפיון למערכות, יכולות ניטור ואוטומציות.
הגדרת KPI למדידת איכות נתונים ומדדי Observability.
עבודה צמודה עם אנשי BI, data Engineering, data Science וData Governance.
הובלת פתרונות Quality data תכנון ובניית מנגנוני בדיקות בכל שכבות הדאטה.
הובלת פתרונות Observability data ניטור Freshness, ניטור ביצועים, אפיון Dashboards ותצוגות בריאות.
בניית אינטגרציות בין כלים (MSSQL, Control-M) לבין פלטפורמת הדאטה הארגונית.
עבודה שוטפת עם בעלי עניין, מיפוי צרכים עסקיים, הדרכה והטמעת פרקטיקות.
דרישות:
תואר אקדמי בהנדסה / מדעי המחשב או תואר אקדמי אחר, או הנדסאי תוכנה ובנוסף קורס בניהול מוצר בהיקף של 60 שעות לפחות
ניסיון של 8 שנים בניהול מוצר בתחום הדאטה
הבנה עמוקה בעולמות data Engineering, data Lake/ DWH וארכיטקטורות ETL /ELT
ניסיון בבניית מתודולוגיות עבודה ופיתוח דאטה בארגונים גדולים
ניסיון מוכח עם כלים בתחום data Quality או Observability
יכולת חקירה וניתוח נתונים SQL חובה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8430526
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בGtech
התפקיד כולל:
ניהול ואופטימיזציה של ביצועים - שימוש בכלי ניטור לזיהוי צווארי בקבוק וניתוח הסיבות שלהם, מעקב וטיפול בנעילות. מעקב צמוד אחר מדדי ביצועים קריטיים,CPU, זיכרון, חסימות, זמני שאילתות, הגדרת התראות ותיעדוף משימות במקרה נעילות תהליכים.
עיצוב ופיתוח בסיסי הנתונים - שמירה על זמינות הנתונים למשתמש.
תכנון ויצירה - אחריות על יצירה, תחזוקה וניהול של אובייקטים במסד הנתונים כגון טבלאות, אינדקסים, views, stored procedures, פונקציות, טריגרים ועוד.
תמיכה במפתחים - מתן ייעוץ ותמיכה למפתחי BI בכל הקשור למידול נתונים, כתיבת שאילתות יעילות ושימוש נכון במאפייני בסיס הנתונים.
אופטימיזציה של ETL - עבודה צמודה עם צוות הפיתוח
תכנון קיבולת וניהול צמיחה - מערכות BI נוטות לגדול במהירות הן בהיקף הנתונים והן בכמות המשתמשים. ה- DBA האפליקטיבי אחראי על:
1. ניתוח מגמות גידול: הערכת קצב גידול הנתונים והשימוש במערכות BI.
2. תכנון קיבולת: חיזוי צרכי החומרה (שטח אחסון, זיכרון, כוח עיבוד) ותוכנה עתידי
דרישות:
תואר ראשון במדעי המחשב/ בהנדסת מחשבים/ הנדסאי בוגר מגמת מחשבים/טכנולוגיה/קורסים מתקדמים בתחום - יתרון
ניסיון של 5 שנים כ DBA אפליקטיבי חובה (יתרון גדול לSQL SERVER)
ניסיון של 3 שנים בכתיבת SQL, פונקציות ופרוצדורות מורכבות לרבות ביצוע בדיקת קוד למפתחים - חובה
ניסיון של 3 שנים במתן תמיכה בתכנון ואפיון פתרונות ועבודה מול צוותי פיתוח חובה
ניסיון של 5 שנים בשיפור ביצועים של SQL חובה
ניסיון בתכנון ואפיון של מסדי נתונים לרבות אפיון והגדרת צרכים פונקציונאליים וטכניים- יתרון
ניסיון כ DBA תשתיתי Oracle יתרון
ניסיון עם מסדי נתונים No SQL - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405093
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת ITOPS integrator לחברה פיננסית מובילה במרכז!
הזדמנות לעבוד על פלטפורמות מתקדמות בעולמות Multichannel, Microservices, Kubernetes ו- salesforce, בסביבה טכנולוגית דינמית שמחברת בין העסקי לטכנולוגי.
דרישות:
היכרות עם אפליקציות SaaS בהיבטי תשתיות ואינטגרציה
ידע בכלי אינטגרציה : ETL / Kafka / APIM
ידע ברכיבי תקשורת: FW, F5, VIP, IP, Proxy, WAF
ניסיון במערכות ענן ותשתיות ענן + כלי הגנה
היכרות עם LDAP, AD, Kerberos, EntraID
יתרון משמעותי: ניסיון עם salesforce, עבודה עם Jira / Confluence, ועולמות Big Data המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8443939
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בפרוסיד
סוג משרה: משרה מלאה
Proceed מגייסת   BI Developer (Looker Focused)

במסגרת התפקיד:
פיתוח ותחזוקה של דשבורדים ופתרונות BI עבור לקוחות החברה.
עבודה בסביבת ענן (GCP) וכניסה מיידית לפרויקט המבוסס על Looker.
כתיבת קוד LookML, בניית מודלים וניהול שכבת הנתונים ב-Looker.
עבודה מול אפיונים עסקיים ותרגומם לפתרונות ויזואליים ודוחות.
כתיבת שאילתות SQL וטיוב נתונים לצורך הצגה בדשבורדים.

מה אנחנו מציעים:
הזדמנות לקחת חלק בצוות הליבה של תחום הדאטה וה AI בפרוסיד ולהשפיע ישירות על אסטרטגיית החברה.
עבודה עם לקוחות אסטרטגיים מהמובילים במשק בתחומי פיננסים, ממשלה, ביטחון ובריאות.
סביבת עבודה טכנולוגית מתקדמת, מבוססת ענן, עם חשיפה לכלים החדשניים ביותר בעולם הדאטה.
תרבות עבודה יזמית, שיתופית ודינמית מקום לצמיחה אישית ומקצועית אמיתית.
דרישות:
ניסיון של שנתיים ומעלה כמפתח/ת BI - חובה.
שליטה מלאה וניסיון מעשי ב-Looker (כולל LookML) - חובה.
שליטה טובה מאוד ב-SQL חובה.
ניסיון בעבודה בסביבת ענן  (GCP / AWS / Azure) חובה (יתרון לGCP)
הבנה טובה במודלים של דאטה (כגון  Star Schema)
יכולת עבודה עצמאית ותקשורת בין-אישית טובה לעבודה מול צוותים ולקוחות.
אנגלית טכנית ברמה טובה.
יתרונות:
היכרות עם כלי BI נוספים  (quicksight / Tableau) יתרון גדול לגיוון בין כלים
תואר אקדמי רלוונטי.
היכרות עם   Python. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8442736
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
דרושים בOne data
הזדמנות להשתלב בארגון גדול ודינמי, עם מאות משתמשים, הנמצא בתנופת עשייה ומעבר לטכנולוגיות חדשניות ומתקדמות!
הצטרף/י לצוות BI שאחראי על תפעול, פיתוח והובלת פרויקטים משמעותיים משלב האפיון ועד ליישום והטמעה מלאה של פתרונות דאטה ובינה עסקית.
במסגרת התפקיד:
אפיון דרישות עסקיות ומיפוי נתונים
הגדרת תהליכי ETL ותרשימי ERD
פיתוח ותחזוקת pipelines בסביבת data Lake
פיתוח דשבורדים ודוחות במערכות BI
מתן מענה שוטף לדרישות עסקיות, תקלות, ופרויקטים
עבודה עם טכנולוגיות מתקדמות בסביבת ענן
דרישות:
לפחות 8 שנות ניסיון בבניית ותחזוקת data Pipelines מקצה לקצה
ניסיון עם כלי SAP חובה
ניסיון עם Databricks ו-Snowflake חובה
שליטה מעמיקה ב-SQL (כולל stored procedures, Indexing, Performance Tuning)
ניסיון בפיתוח תהליכי שינוע נתונים בעולמות רלציוניים
ניסיון בכלי תשתית: SSIS, SAP -DI / SAP -DS, SQR
עבודה עם תהליכי CI/CD
ניסיון בעבודה בסביבת ענן AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8395320
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים בGotFriends
סוג משרה: משרה מלאה
החברה מפתחת תוכנה לניהול מרחוק של מחשבי קצה בארגונים גדולים.
החברה ממוקמת באזור המרכז- קו רכבת, משלבת מודל עבודה היברידי ומונה מאות עובדים.
מהות התפקיד: חלק מצוות, סטאק טכנולוגי: פיתוח ב- JAVA ומעט ב-Node, Kafka, Streaming Frameworks, Microservices, Cloud, AI-first Development Tools.
דרישות:
- 5 שנות ניסיון בפיתוח Big Data
- ניסיון בפיתוח ב- JAVA
- ניסיון בפיתוח ב-Kafka/Kafka Streams/Flink/Spark/Beam
- ניסיון בפיתוח עם Cloud המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8440558
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
דרושים במלם תים
מיקום המשרה: יבנה
לארגון בינלאומי מוביל דרוש/ה מפתח/ת Databricks מנוסה!
התפקיד כולל תכנון ופיתוח תהליכי נתונים רחבי היקף בסביבת AWS, בנייה ותחזוקה של תהליכי ETL, ופיתוח ממשקי API לצורך שילוב נתונים ממגוון מקורות. בנוסף, המפתח/ת יהיה/תהיה אחראי/ת על פיתוח דשבורדים אינטראקטיביים ב-Databricks לצורכי ניתוח נתונים ותמיכה בקבלת החלטות.
העבודה משלבת שיתוף פעולה עם צוותי BI, data Engineering ו- data Science, וכוללת זמינות לעבודה בשעות הערב מול ארה"ב.
דרישות:
- ניסיון מוכח בפיתוח ב-Databricks
- ידע מעמיק ב- Big Data ובטכנולוגיות ענן AWS
- שליטה ב- Python וב-SQL
- ניסיון בתהליכי ETL ופיתוח data Pipelines
- ניסיון בתחום FinOps המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8424965
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 18 שעות
מיקום המשרה: תל אביב יפו
דרוש/ה מפתח/ת מנועי חיפוש לתפקיד מעניין ומאתגר הכולל הגדרת ארכיטקטורה, פיתוח מנועי חיפוש, תמיכה בהיקפי מידע וביצועים מהירים.
דרישות:
תנאי סף
שלוש שנות ניסיון בתחום פיתוח BigData
שלוש שנות ניסיון ב troubleshooting ופתרון תקלות production
קריטריונים נוספים
ניסיון מוכח באחד או יותר מהתחומים הבאים: Solr, Elasticsearch ,Spark יתרון
ניסיון עבודה עם טכנולוגיות הבאות: Kafka, RabitMQ, OpenShift ודומות יתרון
יכולת למידה עצמית והתמודדות עם אתגרים טכנולוגיים מורכבים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8446414
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 18 שעות
מיקום המשרה: תל אביב יפו
דרוש/ה מפתח/ת DevOps בתחום תשתיות ואופרציות ביג דאטה לתפקיד הכולל ארכיטקטורה ניהול והקמת סביבות מבוססות טכנולוגיות לעיבוד מידע בהיקפים גדולים מאוד (Big-Data), תמיכה בתהליכי ניהול קוד ופיתוח תהליכי CI/CD.
דרישות:
תנאי סף
שלוש שנות ניסיון בעבודה עם תשתיות מבוססות Linux
שנתיים ניסיון פיתוח בלפחות אחת מהשפות JAVA ו Python
רקע מעשי בתחומי Data Lake, Data Warehouse
עבודה והכרות עם תשתיות OpenSource שונות (כגון kafka, elastic וכד')
קריטריונים נוספים
הכרות עם תשתיות CASSANDRA, TRINO, HADOOP יתרון
הכרות עם Dockers ו/או kubernetes בדגש על OpenShift יתרון
ניסיון בעבודה ופיתוח ענן (AWS, GCP, AZURE) יתרון
יכולת לימוד עצמית וכניסה מהירה לטכנולוגיות יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8446409
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Scientist to join our team.

The ideal candidate is a highly motivated and self-driven individual with strong analytical and problem-solving skills. The Data Scientist will be responsible for analyzing data and developing models to help inform decisions and strategies for new products and business initiatives.



Responsibilities:

Work closely with stakeholders to understand business requirements and develop predictive models to detect fraud.
Develop and implement statistical models, machine learning and deep learning algorithms to solve complex problems in a production environment.
Perform exploratory data analysis and data visualization to gain insights and communicate findings.
Collaborate with cross-functional teams, including data engineers and software developers, to design and implement end-to-end solutions that can be deployed in production.
Implement advanced analytics tools and technologies to enhance reporting capabilities.
Requirements:
Bachelor's or Master's degree in Computer Science, Mathematics, Statistics, or a related field.
Minimum of 5 years of experience as a Data Scientist or in a related field, with experience working in a production environment or PHD with relevant experience
Strong programming skills in Python and proficiency in SQL.
Deep understanding of statistical analysis, machine learning, deep learning and data visualization techniques.
Strong communication and collaboration skills to work effectively in a team environment.
Skills in developing AI agents, such as LLM-based assistants or autonomous workflows - advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8445732
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Backend Engineer to join our Data Engineering team and develop backend components and data-oriented infrastructure for large-scale data processing.

In this role, you will develop infrastructure that enables the generation and evolution of data entities and their reliable distribution across internal systems.

You will work closely with Data Science and Backend core teams to build scalable, cost-efficient, production-grade solutions in a data-heavy environment.



What you will do

Design and implement infrastructure that supports high-volume data processing
Continuously optimize performance, cost, and reliability at scale
Collaborate with Data Science and Backend core teams to define data contracts, interfaces, and integration patterns
Maintain high engineering standards testing, observability, clean code, CI/CD fundamentals
Requirements:
35 years of experience in backend development
Strong hands-on skills with Python


Advantages / Nice to Have

Experience with modern data platforms Snowflake / Delta Lake / Iceberg
Experience with distributed data processing (Databricks, PySpark, or similar)
Experience with cloud platforms Azure
Experience with leadership team management, project ownership, or task management
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8445724
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
Provide the direction of our data architecture. Determine the right tools for the right jobs. We collaborate on the requirements and then you call the shots on what gets built.
Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Optimize and monitor the team-related cloud costs.
Design and construct monitoring tools to ensure the efficiency and reliability of data processes.
Implement CI/CD for Data Workflows
Requirements:
5+ Years of Experience in data engineering and big data at large scales. - Must
Extensive experience with modern data stack - Must:
Snowflake, Delta Lake, Iceberg, BigQuery, Redshift
Kafka, RabbitMQ, or similar for real-time data processing.
Pyspark, Databricks
Strong software development background with Python/OOP and hands-on experience in building large-scale data pipelines. - Must
Hands-on experience with Docker and Kubernetes. - Must
Expertise in ETL development, data modeling, and data warehousing best practices.
Knowledge of monitoring & observability (Datadog, Prometheus, ELK, etc)
Experience with infrastructure as code, deployment automation, and CI/CD.
Practices using tools such as Helm, ArgoCD, Terraform, GitHub Actions, and Jenkins.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8445716
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
Join our team innovate in Data Management by designing, implementing, and managing advanced data platforms.
You will optimize relational or non-relational databases and big data systems, collaborate with cross-functional teams, and provide technical support.
Monitor performance, solve complex challenges and stay update on emerging technologies.
Requirements:
3+ years of experience with database systems (PostgreSQL - Oracle preferred)
Proficiency in Linux Unix, system architecture, Bash and Python.
Advantages
Familiarity with Airflow. Grafana and Atlassian tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443740
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
We are seeking an experienced Software Engineer to join a new and groundbreaking R&D team in the filed of cyber security with a focus on internet communication and cryptography.
The team specializes in researching and developing solutions in Cyber Security, Cryptography and Big Data
The team involves in a wide range of solutions for engineering and algorithmic challenges at high scale
A unique integration of Big Data, System Development, Cryptography, Networking and Cyber Security domains
The development process spans from technological ideation to the delivery of the final product .
Requirements:
Bachelors degree in Computer Science or a related field
+4 years of experience in developing complex systems and handling scalability challenges
Passion for advanced technologies entering new domains, creativity and thinking outside the box.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443669
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
Join our team and lead the design, implementation and maintaining cutting-edge Data Platforms and Big Data Solutions. In this position, you will have the unique opportunity to significantly impact intelligence processes, contribute to the counter terrorism efforts and leveraging advanced Big Data technologies.
Design, install, maintain and upgrade Big Data technologies
Monitor and optimize system performance, identifying areas for improving and implementing solutions
Provide technical support to internal teams and end users, ensuring seamless operations
Design and implement advanced infrastructure solutions using the Hadoop Ecosystem
Analyze user requirements, evaluate and recommend new technologies in the Big Data domain.
Requirements:
Experience: At least 5 years managing Big Data infrastructure solutions
Past experience as a DBA with focus on Oracle, Redis and MongoDB is a plus
Proven experience with Hadoop, Cloudera, Trino. Presto, Vertica or similar technologies
Strong ability to evaluate and recommend technology options
Ability to diagnose and resolve complex database issues
Proficiency in SQL, Spark, and Linux environments
Excellent communication and interpersonal skills with the ability to collaborate effectively in a team
Thrive in a fast-paced, dynamic environment with a creative problem- solving mindset
Advantages: Familiarity with Python or Ansible.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443662
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
We are looking for developers interested in joining exciting and innovative bigdata projects
This is a great opportunity for individuals seeking to develop solutions to the most challenging problems in the bigdata field, dealing with operational requirements while using cutting edge technologies.
Requirements:
Education:
BSc in Computer Science or equivalent advantage
Technical Requirements:
At least 3 years of proven experience in developing Bigdata processes in Python, Spark and SQL.
Understanding of Bigdata architecture and Hadoop stack including, Spark, Kafka, ELK and NoSQL databases.
Experienced in Greenplum or Postgres advantage.
Experienced in optimizing large scale ETL, Data Pipeline and Data processing.
Strong skills in coding, SQL and debugging.
Deep understanding applications performance tuning.
Working on Linux and Windows OS.
Experienced in Object oriented server-side developing advantage.
Experienced in with OCP or other K8S based containerization technologies.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443606
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructuresomeone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacksits about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakesdesigned for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Operate and debug object storebacked data lake infrastructure, enabling schema-on-read access, high-throughput ingestion, advanced searching strategies, and performance tuning for large-scale workloads.
Requirements:
24 years in software / solution or infrastructure engineering, with 24 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skillsyoull be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8442983
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Ra'anana
Job Type: Full Time
We are seeking a Senior Automation Engineer to join our Big Data team, where we build cutting-edge, AI-driven applications that empower the worlds largest financial institutions in the fight against financial crime.
Youll be part of a dynamic group responsible for the analytics and developer experience foundations, enabling software developers, data engineers, and data scientists to deliver scalable, high-quality analytics solutions quickly. In this role, youll ensure the quality, reliability, and performance of our intelligent cloud-based products through robust automated testing.
How will you make an impact?
Design, develop, and maintain automated tests for backend systems and data pipelines.
Implement and manage a scalable testing framework to support continuous integration and delivery.
Create test plans, and maintain detailed documentation of testing processes, results, and quality metrics.
Collaborate with developers and product managers to understand system architecture and business requirements.
Participate in requirements analysis, technical reviews, and test planning.
Identify, document, and track defects, drive resolution with development teams.
Monitor production environments, investigate anomalies, and push for timely fixes.
Ensure data health and correctness across systems.
Continuously improve QA processes, tools, and best practices.
Advocate for quality across the development lifecycle.
Requirements:
Sc. in Computer Science or related field (or equivalent experience).
5+ years of hands-on programming experience in Java, Python, JavaScript, C# or TypeScript.
Strong understanding of OOP/OOD principles and software design patterns.
Experience with AWS and cloud-native architectures.
Familiarity with unit testing, performance testing, and debugging techniques.
Hands-on experience with automation frameworks like Playwright, Selenium, or equivalent.
Proficiency with Git and collaborative development workflows.
Fast learner with excellent analytical and problem-solving skills.
Strong communication skills and a proactive, ownership-driven mindset.
Passion for building scalable, resilient systems in cloud environments.
Can-doer who can take a task from plan to completion
Team player, excellent communication, and presentation skills
What Would Make You Stand Out?
Experience with Big Data technologies such as Kafka, Flink, Spark
Exposure to DevOps practices and tools like Jenkins, Terraform
Background in data quality assurance and monitoring
Experience with test management tools such as Jira, X-Ray, or similar.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8441100
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Netanya
Job Type: Full Time
we are a global pioneer of RADAR systems for active military protection, counter-drone applications, critical infrastructure protection, and border surveillance.
Were seeking a Data Tech Lead to drive technical excellence in data engineering and analytics. As the go-to expert, youll set the technical direction, optimize data pipelines, and tackle programming challengesclosing knowledge gaps, solving data-related questions, and streamlining operations. Youll also design scalable architectures, manage ETL workflows, and enhance data processing efficiency.
Key Responsibilities:
Oversee the technical aspects of data projects by making architectural and design decisions.
Streamline existing operations and implement improvements with the teams collaboration.
Guiding team members in technical matters, and supervising system modifications.
Conducting Code reviews for data analysts, BI Analysts and data engineers.
Bridge technical knowledge gaps within the data team, answering critical product-related questions.
Requirements:
5+ years of experience in data engineering & Big Data Analytics.
Data Engineering & Automation: Building robust, production-ready data pipelines using SQL, Python, and PySpark, while managing ETL workflows and orchestrating data processes with Airflow (unmanaged) and Databricks.
Big Data Analysis & Distributed Processing: Expertise in Databricks (Spark, etc.) for handling large-scale data analytics with optimized efficiency.
Cloud Infrastructure: Proficient in Cloud Services (preferably Azure) for data storage and processing.
Data Architecture: Expertise in data architecture to ensure best practices in scaling, cost efficiency, and performance optimization.
If youre passionate about building scalable data solutions and thrive in a fast-paced environment, wed love to hear from you!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8439946
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
This role provides the opportunity to lead end-to-end design & implementation of advanced server-side features using a wide range of technologies: Apache Spark, Apache Airflow, Scala, k8s, Node.js (JS/Typescript) with MongoDB, Redis, Kafka, Dockers and Flink (Big Data Stream Processing)

If you are up for the challenge and you have the XM factor, come and join us!
Requirements:
5+ years of experience in software development with proven ability to take full responsibility and lead advanced software projects that require team collaboration.
Capable of facing a wide range of cutting edge technologies and challenging development tasks, designing new features from scratch and diving into existing infrastructure.
2+ years experience of spark with scala/Python - Must.
Experience in server-side development with APIs, Microservices Architecture (Docker), databases, caches, queues.
Experience in delivering fully tested production-level code using CI/CD pipeline and maintaining large-scale production systems.
Highly motivated leader with a can-do approach and strong interpersonal skills that thrives in a fast-paced startup environment.
Relevant Cyber Security experience - Advantage
Experience in cloud development (AWS / Azure / GCP) - Advantage
Experience with k8s operator, spark and airflow - Big Advantage
Experience with Node.js (JS/Typescript) - Advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8437855
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Were looking for a Big Data Engineer who loves turning massive, messy datasets into scalable, reliable systems. Youll design and maintain data pipelines, ensure data quality, and collaborate with data scientists and product managers to bring new insights to life.

What youll do:
Design, build, and optimize scalable data pipelines and ETL processes
Own data products from design to production.
Ensure data accuracy, integrity, and performance across large datasets.
Collaborate with data scientists and engineers to deliver production-grade experiment.
Requirements:
What you have:
B.Sc. in computer science or an equivalent.
3+ years in Big Data engineering.
Strong programming skills (Scala, Python, Java).
Hands-on experience with Spark or similar distributed frameworks.
Skilled in SQL and data modeling.
Experience with cloud platforms (AWS / GCP).
A pragmatic, ownership-driven mindset.

Bonus points:
Experience with data warehousing (BigQuery, Redshift, Snowflake).
Exposure to A/B testing or marketing measurement.
Recommended by our employee.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8435997
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
26/11/2025
סוג משרה: משרה מלאה
ארגון ביטחוני באזור המרכז מגייס DBA
התפקיד כולל: עבודה עם פיתוח תשתיות ותחזוקת מערכות מידע בארגון, פתרון בעיות, אופטימיזציה של ביצועים, ביצוע גיבויים ושחזורים, וכן תמיכה שוטפת במסדי נתונים ובמערכות תומכות ועוד.
דרישות:
- 3 שנות ניסיון כ- DBA
- ניסיון נרחב עם MongoDB, כולל ניהול, אופטימיזציה ותחזוקה של מסדי נתונים NoSQL
- היכרות עם קונטיינרים ומיקרו-שירותים בסביבות Kubernetes
- ניסיון בניהול גיבויים של מסדי נתונים, שיחזור נתונים ופתרון בעיות
- היכרות עם Helm המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8425853
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו