רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון פיננסי באזור המרכז מגייס data Engineer
התפקיד כולל: בנייה והובלה של תשתיות דאטה מתקדמות לצורך פיתוח, אימון והסקה של מודלים, פיתוח תהליכי ETL /ELT ועבודה עם Snowflake, יצירת data Pipelines ופאנלים דינמיים, חיבור למקורות מידע ארגוניים וניתוח נתונים, עבודה שוטפת עם data Scientists, אנליסטים וצוותי MLOps, הובלת תהליכי דאטה מקצה לקצה בסביבה טכנולוגית מתקדמת ועוד.
דרישות:
- 3 שנות ניסיון כ- data Engineer
- ניסיון ב-SQL וכתיבה אופטימלית לביצועים
- ניסיון בפיתוח תהליכי ETL /ELT ובניית data Pipelines
- ניסיון בעבודה עם Snowflake
- ניסיון עם DBT או Feature Store - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8582116
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בQpoint Technologies
ארגון מוביל מגייס data Engineer להשתלבות בצוות דאטה מתקדם, לעבודה על מערכות מורכבות ועשירות נתונים בסביבת Big Data.

תיאור התפקיד:

פיתוח, ניהול ועיבוד נתונים בהיקפים גדולים בסביבת Big Data

פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Python ו-SQL

עבודה עם ElasticSearch כולל היבטי DevOps

פיתוח שירותים ותהליכים בסביבת OpenShift

כתיבת קוד ופתרונות data מתקדמים ב- Python

כתיבת שאילתות מורכבות ואופטימיזציה של ביצועים

עבודה שוטפת מול צוותי BI, data Science ופיתוח מערכות מידע
דרישות:
דרישות חובה:

ניסיון של 3+ שנים כ- data Engineer

ניסיון משמעותי בפיתוח Python לעיבוד נתונים ובניית data Flows

ניסיון בעבודה עם ELK / ElasticSearch

שליטה מלאה ב-SQL

הבנה בארכיטקטורת נתונים וסביבות Big Data

יתרונות:

ניסיון עם MongoDB וכתיבת Aggregation Pipelines

ניסיון בעבודה עם Kafka

ניסיון בפיתוח בסביבת Microservices ו-OpenShift

ניסיון עם כלי BI (SSAS, DataStage)

ניסיון בפיתוח מודולי AI / LLM ושילובם בפתרונות דאטה

היכרות עם כלי ניהול תצורה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8584961
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בCal כרטיסי אשראי לישראל
מיקום המשרה: בני ברק
אחריות על ניתוחים אנליטיים בתחומי ניהול סיכונים (אשראי, שימוש בכרטיסים, הונאות ועוד)
תחקור בסיסי נתונים בסביבות DataWareHouse ו- Big Data
פיתוח ותחזוקת מערך דוחות אנליטיים ודשבורדים ניהוליים עבור המדור
ניתוח סיכונים בתחום האשראי וביצוע בקרה על אופן טיפולם
סקירת פרופיל הסיכון של החברה ומתן חוות דעת על איכות ואופן ניהולו
הובלת תהליכים רוחביים לזיהוי, הערכה והפחתת סיכונים
ביצוע תיקוף סטטיסטי למודלים שונים בחברה
ליווי תהליך הטמעה וניהול שוטף של מערכת לניהול סיכוני מודלים
דרישות:
ניסיון של שנתיים לפחות כאנליסט/ data Scientist
ניסיון בכתיבת שאילתות מורכבות ב-SQL ושליטה בכלי BI
תואר ראשון רלוונטי- יתרון
יכולת ניתוח ותחקור נתונים ובניית דשבורדים
יכולת עבודה בלוחות זמנים צפופים ו-Multi-Tasking
יכולת למידה עצמית גבוהה מאוד ויכולת עבודה בצוות
ניסיון בפיתוח מודלים- יתרון
הבנה עסקית, הכרות עם עולמות האשראי וניהול סיכונים- יתרון
הכרות עם העולם הרגולטורי בסביבה הבנקאית- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527541
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בקבוצת נישה
סוג משרה: משרה מלאה
- אפיון וניתוח צרכים עסקיים ופתרונות BI בחטיבות שונות בחברה

- פיתוח מודלים חדשים ותחזוקת מודלים קיימים בחברה

- עבודה מול גורמים בכירים בקבוצה
דרישות:
- כשנתיים ניסיון ב Qliksense

- הבנת תהליכי ETL

- ניסיון בעבודה עם salesforce - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8493117
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: ראשון לציון
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת מפתח/ת QlikSense לארגון פיננסי בשפלה
פיתוח ותחזוקת אפליקציות QlikSense, בניית דשבורדים מתקדמים ואינטראקטיביים, עבודה מול בסיסי נתונים וכתיבת SQL, בסביבה מקצועית ודאטהאוריינטד.
דרישות:
2-3 שנות ניסיון בפיתוח QlikSense - חובה
שליטה טובה בSQL
חשיבה אנליטית ויכולת פתרון בעיות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8572798
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
ארגון רפואי באזור השרון מגייס מפתח/ת BI ומהנדס/ת data
התפקיד כולל: עבודה עם פיתוח ותחזוקה של דשבורדים במערכת Qlik Cloud ו-Qlik Sense עבור צוותים עסקיים וקליניים, פיתוח תהליכי ETL מורכבים ממקורות מידע מגוונים, הכנה ועיבוד נתונים לצרכים אנליטיים, ליווי מחקרים קליניים כולל הגדרת אוכלוסיות ובניית מודלים סטטיסטיים, התאמת תשתיות נתונים ופתרונות BI לדרישות משתנות של גורמים עסקיים וחוקרים, השתתפות בפרויקטים מתקדמים בתחום הדאטה והאנליטיקה ועוד.
דרישות:
- 3 שנות ניסיון בפיתוח Qlik Cloud או Qlik Sense
- 3 שנות ניסיון בעבודה עם SQL
- 3 שנות ניסיון בתהליכי ETL מורכבים וPreprocessing
- שנה ניסיון עם שפת Python המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8572127
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים באלעד מערכות
מיקום המשרה: בני ברק
אלעד מערכות מגייסת Head of data לארגון פיננסי מוביל!
אחריות כוללת על ניהול, פיתוח והובלה של תחום הדאטה בארגון, כולל data Engineering, data Platforms ו- BI.
התפקיד כולל הובלת צוות רב-תחומי, בניית אסטרטגיית דאטה ארגונית, והקמה ותחזוקה של תשתיות מודרניות כגון data Lake, DWH ו-Lakehouse.
עבודה מול הנהלה וצוותים עסקיים וטכנולוגיים, אחריות על פיתוח ופריסה של תהליכי ETL /ELT וסטרימינג בזמן אמת, הקמת תשתיות בענן (AWS/Azure), הובלת אסטרטגיית BI (Tableau, semantic models), ויצירת ערך עסקי באמצעות אנליטיקה.
בנוסף, ניהול ממשל נתונים, ניטור, SLA, אבטחת מידע ושיתופי פעולה עם DevOps ויחידת ה-AI.
דרישות:
דרישות תפקיד
ניסיון של 5+ שנים בתחומי data / BI / data Engineering
ניסיון מוכח בניהול צוותים טכנולוגיים
היכרות עמוקה עם ארכיטקטורות דאטה מודרניות: DWH, data Lake, Lakehouse
ניסיון בענן: AWS/Azure כולל הרשאות, אבטחה ו-cost optimization
ניסיון עם Snowflake / Tableau / BigQuery / DBT או מקבילים
שליטה ב-SQL ברמה גבוהה
ניסיון בהובלת data Governance
יכולת ניהול פרויקטים וממשקים מרובים בארגון גדול
ניסיון מארגון פיננסי/רגולטורי - יתרון
ניסיון ב- Python לעולמות data Engineering/ Machine Learning - יתרון
ניסיון עם כלים מתקדמים ל-ML ו-AI Generative - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8451290
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה פיננסית במרכז הארץ מגייסת מפתח/ת Informatica / ETL
התפקיד כולל: עבודה עם תהליכי אינטגרציית נתונים מורכבים בארגונים גדולים, פיתוח מקצה לקצה משלב איסוף הדרישות ועד להעלאה לייצור, פיתוח ותחזוקה של תהליכי ETL מתקדמים ב-Informatica בענן, עבודה עם ממשקים לבסיסי נתונים שונים, קבצי XML ו-CSV, מערכות תורים, תהליכי CDC ועוד.
דרישות:
- 3 שנות ניסיון עם SQL וידע בכתיבת שאילתות וניהול נתונים
- שנתיים ניסיון בפיתוח Informatica Power Center / IICS
- ניסיון בהובלת תהליכי פיתוח מורכבים מקצה לקצה
- ניסיון בעבודה בסביבת ענן AWS - יתרון
- היכרות עם Microservices ו- salesforce - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8576852
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון ממשלתי באזור ירושלים מגייס אחראי/ת בסיסי נתונים
התפקיד כולל: עבודה עם מערכות נתונים גדולות ומורכבות, תפעול ותחזוקה של בסיסי נתונים ומחסני נתונים, עבודה עם Vertica בסביבת On-Prem ו-BigQuery ב-GCP, ביצוע מיגרציות וטיוב ביצועים, ניטור עומסים וייעול שאילתות ופרוצדורות ב-MSSQL, פיתוח ותחזוקת סקריפטים אוטומטיים, עבודה עם כלי CDC ורפליקציה, טיפול בתקלות מורכבות ותמיכה בפעילות הארגונית, עבודה מול צוותי DBA תשתיתי, פיתוח, BI ו- data Science, יישום נהלי אבטחת מידע, ניהול הרשאות תכנון תהליכי DR ו-High Availability ועוד
דרישות:
- 5 שנות ניסיון כ- DBA
- שנתיים ניסיון בניהול צוות מקצועי
- ניסיון בעבודה עם בסיסי נתונים גדולים, כתיבת שאילתות מורכבות, Performance
Tuning, Indexing וניתוח Execution Plans
- ניסיון בכתיבת סקריפטים ב- t-sql ו/או PL/SQL
- ניסיון ב-Troubleshooting מורכב ובהטמעת תהליכי DR ו-High Availability המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8574512
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Jerusalem
Job Type: Full Time
We're in search of an experienced and skilled Senior Data Engineer to join our growing data team. As part of our data team, you'll be at the forefront of crafting a groundbreaking solution that leverages cutting-edge technology to combat fraud. The ideal candidate will have a strong background in designing and implementing large-scale data solutions, with the potential to grow into a leadership role. This position requires a deep understanding of modern data architectures, cloud technologies, and the ability to drive technical initiatives that align with business objectives.

Our ultimate goal is to equip our clients with resilient safeguards against chargebacks, empowering them to safeguard their revenue and optimize their profitability. Join us on this thrilling mission to redefine the battle against fraud.

Your Arena

Design, develop, and maintain scalable, robust data pipelines and ETL processes
Architect and implement complex data models across various storage solutions
Collaborate with R&D teams, data scientists, analysts, and other stakeholders to understand data requirements and deliver high-quality solutions
Ensure data quality, consistency, security, and compliance across all data systems
Play a key role in defining and implementing data strategies that drive business value
Contribute to the continuous improvement of our data architecture and processes
Champion and implement data engineering best practices across the R&D organization, serving as a technical expert and go-to resource for data-related questions and challenges
Participate in and sometimes lead code reviews to maintain high coding standards
Troubleshoot and resolve complex data-related issues in production environments
Evaluate and recommend new technologies and methodologies to improve our data infrastructure
Requirements:
5+ years of experience in data engineering, with specific, strong proficiency in Python & software engineering principles - Must
Extensive experience with GraphDB - MUST
Extensive experience with AWS, GCP, Azure and cloud-native architectures - Must
Deep knowledge of both relational (e.g., PostgreSQL) and NoSQL databases - Must
Designing and implementing data warehouses and data lakes - Must
Strong understanding of data modeling techniques - Must
Expertise in data manipulation libraries (e.g., Pandas) and big data processing frameworks - Must
Experience with data validation tools such as Pydantic & Great Expectations - Must
Proficiency in writing and maintaining unit tests (e.g., Pytest) and integration tests - Must
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8585533
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Merkaz
Job Type: Full Time
abra professional services is seeking for an senior data engineer. We are seeking a Senior Data Engineer to lead the technical development of our Data Fabric within a military program. This role involves technical leadership in building contextual data pipelines, working with big data lakehouse architectures, and driving data pipeline automation.
Requirements:
MUST HAVE Requirements: 5+ years of hands-on experience as a Big Data Engineer
* Proven ability to design and deploy Big Data & AI solutions using frameworks and tools such as:
* Apache NiFi
* Kafka
* Spark
* Graph DB
* NoSQL databases Strong coding proficiency in Python and Bash
* Experience building large-scale data pipelines for data processing, transformation, and analytics
* Ability to define and manage metadata schemas
* Experience developing data workflows (e.g., metadata generation, auto-extraction, validation, format conversion)
* Experience developing tools for data observability and compliance analytics
* Ability to analyze and report on complex datasets and results
* Experience working with big data lakehouse architectures
* Ability to explore, enhance, and manage data fusion from multiple data sources
* Experience developing analytics tools, algorithms, and programs
* Technical leadership of data structure design for contextual pipelines
* Collaboration experience with Data Scientists and Architects
* Strong ability to work independently, learn new technologies, and apply innovative solutions
* Excellent interpersonal skills and ability to work as part of a team MSc in Computer Science or Data Science Advantages:
* Experience with managing metadata and taxonomy concepts alongside big data objects
* Experience working with public cloud Big Data & AI services
* Familiarity with machine learning concepts
* Strong technical skills
* Independent, hands-on developer
* Curious, open-minded, fast learner, and a strong team player
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8503268
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As our Senior Data Engineer you will handle Big Data in real time, and become the owner and gatekeeper of all data and data flows within the company. You will bring data ingenuity and technological excellence while gaining a deep business understanding.

This is an amazing opportunity to join a multi-disciplinary A-team while working in a fast-paced, modern cloud, data-oriented environment.



What Youll Do:

Implement robust, reliable and scalable data pipelines and data architecture.
Own and develop DWH (Petabytes of data!).
Own the entire data development process, including business knowledge, methodology, quality assurance, and monitoring.
Collaborate with cross-functional teams to define, design, and ship new features.
Continuously discover, evaluate, and implement new technologies to maximize development efficiency.
Develop tailormade solutions as part of our data pipelines.
Lead complex Big Data projects and build data platforms from scratch.
Work on a high-scale, real-time, real-world business-critical data stores and data endpoints.
Implement data profiling to identify anomalies and maintain data integrity.
Work in a results-driven, high-paced, rewarding environment.
Requirements:
5+ years experience as a Data Engineer.
Good working knowledge of Google Cloud Platform (GCP).
Experience using AI-assisted tools or automation to improve data development, monitoring, or debugging workflows.
Strong experience in SQL and Python.
Experience with high volume ETL/ELTs tools and methodologies - both batch and real-time processing.
Understanding of how to build robust and reliable solutions.
The ability to understand the business impact of the data engineering tasks.
Hands-on experience in writing complex queries and optimizing them for performance.
Able to understand complex data and data flows.
Have a strong analytical mind with proven problem-solving abilities.
Ability to manage multiple tasks and drive them to completion.
Independent and proactive.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8576179
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8572794
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/03/2026
Location: Rishon Letsiyon
Job Type: Full Time and Hybrid work
Were looking for an experienced Data Engineer to join our DEX Platform and help drive the next stage of our growth. In this role, youll design, build, and scale data infrastructure and advanced processing pipelines that power real-time insights and intelligent automation across our platform.

As a senior data engineer, youll own the full service lifecycle-from architecture and development to deployment, monitoring, and scaling-while ensuring data quality, reliability, and compliance. Youll work closely with backend, AI, and data teams to deliver robust, production-ready systems that support our AI-first strategy and our mission to make the workplace run itself.
Requirements:
5+ years of backend/data engineering experience.
Proficiency with Java (Vert.x, Spring or similar) - a must.
Hands-on experience with Kafka and streaming frameworks like Kafka Streams, Flink, Spark, or Beam - a must.
Solid understanding of microservices architecture and cloud platforms (Azure/AWS/GCP).
Familiarity with AI-first development tools (GitHub Copilot, Cursor) - an advantage.
Experience working in production-aware, observability-driven environments - monitoring troubleshooting, and optimizing.
Knowledge of Postgres, Redis, MySQL or similar, Clickhouse.
Experience in Node.js (NestJS/Express) - a big advantage.
Strong foundation in object-oriented design, design patterns, and clean code practices.
Comfortable designing, deploying, and maintaining backend services and data flows.
Passion for learning, experimenting with new tech, and building reliable systems at scale.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8572510
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for a talented and experienced big data engineer to join our cyber defence group to take over a cutting-edge data solution.

The successful candidate should have hands-on experience with big data processing technologies and architectures.

The candidate will join our growing team of analysts, developers, data scientists, and architects who design and develop innovative solutions to the most critical needs of our customers.

Responsibilities:
Designing, architecting, implementing, and supporting our data pipelines and processing flows.
Collaborate with analytics department to analyze and understand data sources.+
Provide insights and guidance on database technology and data modelling best practices.
Insure the maintenance of data integrity, managing data and analysis flows with attention to detail and high responsibility.
Implementing algorithms with our data scientists.
Requirements:
Requirements:
BSc/BA in Computer Science or similar.
At least 5 years proven experience as a Big Data Engineer.
At least 3 years of experience with Python.
Experience with both SQL and NoSQL databases, including Elastic Search, Splunk, MongoDB.
Experience with processing of large data sets.
Experience with Linux environment.
Experience with software design and development in a test-driven environment.

Advantages:
Previous experience in the cybersecurity industry or in elite technology units in IDF.
Experience with OpenShift, S3, AWS, Docker, Kubernetes, Java and TypeScript.
Experience working with CI/CD software (Jenkins, GitLab).
Experience with AirFlow.
Experience with Nifi.

Personal skills:
Good communication skills, excellent organisational and time management skills, accuracy and attention to details, high responsibility, independent, self-learner, highly motivated, open minded, problems resolver, team player.

Nice to know:
We have a very strong culture of work-life balance.
You will contribute to amazing projects that do the unbelievable daily.
You will join a great team with good vibes and a can-do approach.
Apply for this position
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566407
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
As a Cloud Architect, you will serve as a technical focal point, driving strategic architectural decisions that shape the future of our globally distributed platform.
Platform & Scale Leadership: Lead the architectural efforts to modernize and significantly scale the companys infrastructure across multiple geographies and heterogeneous cloud providers.
Cross-Organizational Influence: Work with other groups in the organization to deeply understand their needs and translate them into concrete, production-ready capabilities and platform offerings.
Multi-Cloud Data Strategy: Define and champion a comprehensive, petabyte-scale multi-cloud data strategy, ensuring optimal data governance, security, and cost-efficient flow for streaming ingestion, data lakes, and advanced analytics workloads across environments.
Microservices Design & Resilience: Provide high-level architectural oversight for the multi-cloud design patterns of our microservices, focusing on cross-cloud resilience, global traffic management, data locality, and failure domain isolation.
AI Transformation Leadership: Lead the AI transformation initiatives aimed at radically enhancing the developer experience, introducing intelligent automation, and leveraging generative AI models to accelerate software delivery, testing, and operational efficiency.
Strategic Alignment: Foster cross-group alignment and build consensus among engineering leaders and business stakeholders for strategic platform projects, translating complex technical roadmap items into clear, measurable business outcomes.
Architecture Definition: Help define the technical vision, architecture, and long-term directions of the Cloud Platform group and the wider R&D organization.
Engineering Excellence: Be a champion for engineering excellence, setting high standards, mentoring engineers across the group to foster solid architectural principles, and supporting their professional growth.
Architect Forum Participation: Be a key member of the companys architect forum, participate in complex technical discussions, and facilitate effective, org-wide decision-making processes.
Requirements:
10+ years of software development and platform engineering experience, with at least 5 years in technical leadership positions within a large-scale SaaS or distributed systems environment.
Expert-level proficiency in AWS Cloud, with a proven track record of designing, building, and operating scalable, global, high-availability infrastructure.
Deep Multi-Cloud Expertise: Significant, demonstrable experience in designing and implementing systems that span at least two major cloud providers (AWS, GCP, or Azure).
Expert-level knowledge and understanding of Kubernetes internals (operators, controllers, networking, security).
Data Experience: Proven experience designing and optimizing large-scale data platforms, including streaming architectures (Kafka/Kinesis), data warehousing, and distributed file systems.
Deep understanding of CI/CD concepts and their advanced implementations (e.g., GitOps, progressive delivery, from testing to production).
A people person, optimistic, and visionary, with a can-do approach and the ability to lead complex and sensitive decision-making processes in an effective manner while creating a positive, collaborative, and pleasant atmosphere.
Proven experience mentoring and coaching high-potential engineers to develop new skills and grow professionally.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8564988
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for an Experienced Big Data Engineer who loves solving complex problems at an extreme scale. In this role, you arent just building "internal pipelines"-you are developing the actual product our clients interact with. You will write high-performance code, optimize your own Spark processes for client freshness, and own features end-to-end. We need a "problem solver by nature, optimizer in their soul" who brings both technical depth and a great personality to a high-speed, deep technical team.

What youll do
Build Client-Facing Features: Design and implement high-scale product features for premium clients - from architecture to production deployment.
Performance Engineering: Optimize scalable data pipelines and distributed processes to meet strict client SLAs. Every millisecond of freshness matters.
System Integrity: Ensure uncompromising data accuracy and performance across massive, complex datasets.
Strategic Collaboration: Partner with upstream data providers, client-side teams, and Product Managers to turn raw events into production-grade features.
Requirements:
The Foundation: B.Sc. in Computer Science or an equivalent.
Relevant Track Record: 3+ years in Big Data Engineering (Backend experience is a plus, provided youve worked at scale).
Spark Mastery: 1+ years of deep, hands-on experience with Spark (or equivalent). You should understand "under the hood" complexities like memory management and execution plans.
Engineering Craft: Strong programming skills (Ideally Scala) with a deep understanding of distributed programming paradigms. You write clean, production-ready code that is optimized for execution across large-scale clusters.
The Scale Mindset: A natural obsession with high-scale problem solving and system optimization.
The Right DNA: A pragmatic, ownership-driven mindset with a personality that thrives in a collaborative environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8564986
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
26/02/2026
Location: Jerusalem
Job Type: Full Time
We're looking for a Data Engineer with 4+ year experience to join our Data Engineering team and help us build and scale our production-grade data platform. You'll work on high-performance systems built on self-hosted ClickHouse, optimize complex data pipelines, and collaborate closely with Product, Analytics, and Infrastructure teams to deliver reliable, fast, and scalable data solutions.

This is a hands-on technical role where you'll have a significant impact on how we ingest, model, store, and serve data that powers our analytics and AI-driven products.
Youll play a key role in shaping the direction of our data platform and have meaningful ownership over critical components of our architecture.

What You'll Do:
Data Modeling & Architecture
Design and evolve data models that reflect business logic and support analytical use cases
Collaborate with the BI and Analytics teams to understand data requirements and translate them into efficient schemas
Performance Optimization
Optimize ClickHouse schemas, partitioning strategies, indexing, and compression
Profile and tune slow queries to improve performance and reduce costs
Implement systems that ensure data quality, consistency, and operational efficiency (e.g., deduplication, validation, anomaly detection)
Monitor pipeline health, data freshness, and query performance with appropriate alerting mechanisms
SQL Compiler Development
Develop and maintain the SQL Compiler layer that translates high-level queries into optimized ClickHouse execution plansImplement query optimization and rewriting strategies to improve performanceDebug and resolve compiler issues to ensure accurate and efficient query translation

Data Pipeline Development & Collaboration
Review and advise the Integration team on pipeline architecture, performance, and best practices.
Provide guidance on data modeling, schema design, and optimization for new data sources.
Troubleshoot and maintain existing pipelines when issues arise or optimization is needed
Ensure data freshness, reliability, and quality across all ingestion pipelines.
Collaboration & Support
Work closely with the Integration team to ensure smooth data ingestion from new sources.
Partner with Infrastructure to support high availability and disaster recovery
Support other teams across the company in accessing and using data effectively.
Requirements:
Excellent communication and collaboration skills
English at a high level, written and spoken required
Ability to work from our Jerusalem office (located in the Central Bus Station next to the train) 2 times a week (Monday & Wednesday) is required
Strong attention to detail, ownership mentality, and ability to work independently
Quick learner who can dive into new codebases, technologies, and systems independently
Hands-on mentality - not afraid to roll up your sleeves, dig into unfamiliar code, and work across the stack (including backend when needed)
4+ years of experience as a Data Engineer
Strong problem-solving skills for complex data challenges at scale - ability to debug performance issues, data inconsistencies, and system bottlenecks in high-volume environments
Experience with data modeling and schema design for analytical workloads
Strong proficiency in SQL and experience with complex analytical queries
Hands-on experience building and maintaining data pipelines (ETL/ELT)
Ability to troubleshoot and optimize systems handling large data volumes (millions+ rows, complex queries, high throughput)
Knowledge of query optimization techniques and execution planning
Familiarity with columnar databases (ClickHouse, BigQuery, Redshift, Snowflake, or similar). Columnar DB experience is a big plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8563430
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
25/02/2026
Location: Ra'anana
Job Type: Full Time
We are looking for a talented and self-motivated Annotation Specialist to join our Annotation team and work closely with our Algorithms department.
This is a unique opportunity to make a real impact in a meaningful, safety-critical industry.
Responsibilities:
Be responsible for the ground truth annotation and tagging and channel accurate visual data to the deep learning pipeline.
Work with various imagery sensors such as RGB, Thermal and visual geographical data.
Work closely with internal teams to understand their requirements for annotated data.
Suggest methods for improving work efficiency.
Requirements:
At least two years of experience with visual data annotation and tagging.
Excellent attention to detail and organizational skills.
Ability to perform repetitive work for long periods while preserving high quality output.
Good interpersonal skills, and a team player.
Ability to learn and absorb quickly.
Ability to work independently within a growing team.
Advantages
Hands-on experience with Adobe After Effects
Background in video editing and post-production workflows
Experience working with Blender
Familiarity with scripting languages such as Python and JavaScript.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8562053
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Join a core team of experts responsible for developing innovative cyber-attack techniques for Cloud-based environments (AWS, Azure, GCP, Kubernetes) that integrate into fully automated attack simulation.
This role provides the opportunity to lead end-to-end design & implementation of advanced server-side features using a wide range of technologies: Apache Spark, Apache Airflow, Scala, k8s, Node.js (JS/Typescript) with MongoDB, Redis, Kafka, Dockers and Flink (Big Data Stream Processing)
If you are up for the challenge and you have , come and join us!
Requirements:
5+ years of experience in software development with proven ability to take full responsibility and lead advanced software projects that require team collaboration.
Capable of facing a wide range of cutting edge technologies and challenging development tasks, designing new features from scratch and diving into existing infrastructure.
2+ years experience of spark with scala/Python - Must.
Experience in server-side development with APIs, Microservices Architecture (Docker), databases, caches, queues.
Experience in delivering fully tested production-level code using CI/CD pipeline and maintaining large-scale production systems.
Highly motivated leader with a can-do approach and strong interpersonal skills that thrives in a fast-paced startup environment.
Relevant Cyber Security experience - Advantage
Experience in cloud development (AWS / Azure / GCP) - Advantage
Experience with k8s operator, spark and airflow - Big Advantage
Experience with Node.js (JS/Typescript) - Advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8559949
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ramat Gan
Job Type: Full Time
We are seeking engineers with hands-on experience in developing and managing distributed systems and microservices in a production environment. The ideal candidate should have a solid background in infrastructure and operations.
The team builds high-throughput ingestion and processing pipelines, efficient storage on object stores, and systems for data governance, usage reporting, and routing data to multiple physical locations.
You will work on cloud-native, production systems written in Rust and Scala, operating at scale with Kafka, Postgres, Redis, and object storage, run on Kubernetes and operate in a multi-cloud environment.
Responsibilities:
Develop and operate distributed systems in production
Build Kafka-based ingestion and processing pipelines
Design systems for data governance, retention, deletion, and usage reporting
Work with Postgres and Redis, requiring solid database design and operational knowledge
Implement efficient persistence using column-oriented data formats and object storage
Requirements:
Located in Israel
5+ years of software development experience
Production experience with large-scale Apache Kafka or comparable distributed data streaming platforms
Strong understanding of distributed systems, databases, and production operations
Experience with Scala or Rust
B.Sc. in Computer Science or an equivalent field
Advantages:
Experience with Kafka Streams or similar frameworks
Experience with column-oriented data formats and large-scale analytical storage systems
Experience with Apache Arrow and DataFusion
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8559418
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for an Algo-Dev Engineer to join one of our research teams. You will be working closely with our researchers, assisting them in achieving their research objective while developing tools and optimizing models in both offline and online environments.
Areas of responsibility include data-handling, deep dive into algo code, design, implementation, and deployment of technologies designed to enable innovative algo-trading projects and support existing and ongoing initiatives.
In this role you will :
Contribute to the continuous evolution and optimization of our internal deep algorithms, bridging the gap between theoretical research and production-ready implementations
Requirements:
At least 5 years experience of SW development experience working in a high-scale environment
Familiarity with common machine learning algorithms
Proficient in Python
Experienced with Big Data and Machine learning / AI technologies stack
Have the resilience to solve complex difficult problems.
Independent, focused, well organized, and capable of prioritizing and multitasking
Be proactive and detail-oriented, yet comfortable working in a dynamic environment with fast paced deliveries and changing requirements
B.Sc with honor from a leading University
Advantages:
Proficient in one or more general-purpose programming languages C/C++/Rust
Data science experience
Soft skills:
Eager to learn and teach others
Open-minded in search of great ideas
Team player, with strong feeling of responsibility on teams products / solutions
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8547677
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Big Data Software Engineer to join our growing team. In this role, you will be responsible to design and development of our big data processing engine.

Responsibilities
Design and development of high-quality big data processing engineer

Identify and proactively address potential product risks and challenges and ensuring success

Work closely with stakeholders to transform requirements into technical specifications

Ensure that the code is consistent with industry coding standards and best practices

Take a deep dive into the technical details and provide expert advice and solutions
Requirements:
3+ years of experience in Data Engineering

1+ years of hands-on experience with Java / Scala

1+ years of experience with SQL and Non-SQL DBs

Experience in Spark, Hadoop, Airflow - a big plus

Experience with Spring Framework - Advantage

Experience with microservice architecture - Advantage

Experience of working with DevOps and working with CI/CD practices - Advantage

Deep understanding of Agile principles, practices and values

Solid understanding of design patterns, software development techniques, and clean code practices

Team player, strong communication skills, and a positive attitude

Fast learner, self-starter, broad-minded with a can do approach

Advanced English written and verbal communication skills

Bachelors, BScs or Masters degree in Computer Science or Engineering fields from leading academic school
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8546145
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו