רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 17 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
חברת סייבר במרכז הארץ מגייסת data Engineer
במסגרת התפקיד: עבודה בצוות, הובלת פרויקטי פיתוח של שירותי data, תמיכה בלקוחות בכמויות גדולות של נתונים, עבודה בטכנולוגיות AI מתקדמות ועוד.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בעבודה ב-Spark
- ניסיון בפיתוח ב-Scala / Python
- ניסיון בעבודה עם Linux, Docker ו-Kubernetes
- ניסיון בפיתוח ב-NodeJS, TypeScript - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8438388
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בקונסיסט מערכות בע"מ
תיאור התפקיד:
- מנהל /ת מוצר מתחום תשתית דאטה בענן משלב הארכיטקטורה ועד מסירה אחריות מלאה להובלה, הקמה, פיתוח ויישום לפלטפורמת הדאטה הארגונית בענן  GCP
דרישות:
דרישות התפקיד:
*ניסיון של 4 שנים ומעלה בניהול מוצר-חובה!
* ניסיון  Hands on ב  data / - Engineering / בפיתוח / תשתיות-חובה!
*ניסיון בעבודה עם ענן חובה - יתרון לGCP
*הבנה עמוקה של עולם הדאטה: מסדי נתונים, ELT/ ETL, Modeling
*ניסיון עם BigQuery או מחסן נתונים גדול - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439438
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בקבוצת יעל
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
אחריות כוללת על גיבוש אסטרטגיית Quality data וObservability data ארגונית, כולל הגדרת חזון, עקרונות ומדיניות לאיכות נתונים.
תעדוף תחומי מיקוד בהתאם להשפעה עסקית, רמת סיכון ותלות ארגונית.
בניית Framework Quality data מלא מנגנוני מניעה, זיהוי, טיפול ושיפור מתמשך.
הגדרת SLA data למקורות נתונים ולתהליכים קריטיים בארגון.
ניהול מוצר מקצה לקצה כולל ניהול Backlog של יכולות, תקלות ותעדופים בפלטפורמת DO/DQ.
כתיבת מסמכי אפיון למערכות, יכולות ניטור ואוטומציות.
הגדרת KPI למדידת איכות נתונים ומדדי Observability.
עבודה צמודה עם אנשי BI, data Engineering, data Science וData Governance.
הובלת פתרונות Quality data תכנון ובניית מנגנוני בדיקות בכל שכבות הדאטה.
הובלת פתרונות Observability data ניטור Freshness, ניטור ביצועים, אפיון Dashboards ותצוגות בריאות.
בניית אינטגרציות בין כלים (MSSQL, Control-M) לבין פלטפורמת הדאטה הארגונית.
עבודה שוטפת עם בעלי עניין, מיפוי צרכים עסקיים, הדרכה והטמעת פרקטיקות.
דרישות:
תואר אקדמי בהנדסה / מדעי המחשב או תואר אקדמי אחר, או הנדסאי תוכנה ובנוסף קורס בניהול מוצר בהיקף של 60 שעות לפחות
ניסיון של 8 שנים בניהול מוצר בתחום הדאטה
הבנה עמוקה בעולמות data Engineering, data Lake/ DWH וארכיטקטורות ETL /ELT
ניסיון בבניית מתודולוגיות עבודה ופיתוח דאטה בארגונים גדולים
ניסיון מוכח עם כלים בתחום data Quality או Observability
יכולת חקירה וניתוח נתונים SQL חובה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8430526
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים באלעד מערכות
מיקום המשרה: בני ברק
אלעד מערכות מגייסת Head of data לארגון פיננסי מוביל!
אחריות כוללת על ניהול, פיתוח והובלה של תחום הדאטה בארגון, כולל data Engineering, data Platforms ו- BI.
התפקיד כולל הובלת צוות רב-תחומי, בניית אסטרטגיית דאטה ארגונית, והקמה ותחזוקה של תשתיות מודרניות כגון data Lake, DWH ו-Lakehouse.
עבודה מול הנהלה וצוותים עסקיים וטכנולוגיים, אחריות על פיתוח ופריסה של תהליכי ETL /ELT וסטרימינג בזמן אמת, הקמת תשתיות בענן (AWS/Azure), הובלת אסטרטגיית BI (Tableau, semantic models), ויצירת ערך עסקי באמצעות אנליטיקה.
בנוסף, ניהול ממשל נתונים, ניטור, SLA, אבטחת מידע ושיתופי פעולה עם DevOps ויחידת ה-AI.
דרישות:
דרישות תפקיד
ניסיון של 5+ שנים בתחומי data / BI / data Engineering
ניסיון מוכח בניהול צוותים טכנולוגיים
היכרות עמוקה עם ארכיטקטורות דאטה מודרניות: DWH, data Lake, Lakehouse
ניסיון בענן: AWS/Azure כולל הרשאות, אבטחה ו-cost optimization
ניסיון עם Snowflake / Tableau / BigQuery / DBT או מקבילים
שליטה ב-SQL ברמה גבוהה
ניסיון בהובלת data Governance
יכולת ניהול פרויקטים וממשקים מרובים בארגון גדול
ניסיון מארגון פיננסי/רגולטורי - יתרון
ניסיון ב- Python לעולמות data Engineering/ Machine Learning - יתרון
ניסיון עם כלים מתקדמים ל-ML ו-AI Generative - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8451290
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת ITOPS integrator לחברה פיננסית מובילה במרכז!
הזדמנות לעבוד על פלטפורמות מתקדמות בעולמות Multichannel, Microservices, Kubernetes ו- salesforce, בסביבה טכנולוגית דינמית שמחברת בין העסקי לטכנולוגי.
דרישות:
היכרות עם אפליקציות SaaS בהיבטי תשתיות ואינטגרציה
ידע בכלי אינטגרציה : ETL / Kafka / APIM
ידע ברכיבי תקשורת: FW, F5, VIP, IP, Proxy, WAF
ניסיון במערכות ענן ותשתיות ענן + כלי הגנה
היכרות עם LDAP, AD, Kerberos, EntraID
יתרון משמעותי: ניסיון עם salesforce, עבודה עם Jira / Confluence, ועולמות Big Data המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8443939
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
דרושים במלם תים
מיקום המשרה: יבנה
לארגון בינלאומי מוביל דרוש/ה מפתח/ת Databricks מנוסה!
התפקיד כולל תכנון ופיתוח תהליכי נתונים רחבי היקף בסביבת AWS, בנייה ותחזוקה של תהליכי ETL, ופיתוח ממשקי API לצורך שילוב נתונים ממגוון מקורות. בנוסף, המפתח/ת יהיה/תהיה אחראי/ת על פיתוח דשבורדים אינטראקטיביים ב-Databricks לצורכי ניתוח נתונים ותמיכה בקבלת החלטות.
העבודה משלבת שיתוף פעולה עם צוותי BI, data Engineering ו- data Science, וכוללת זמינות לעבודה בשעות הערב מול ארה"ב.
דרישות:
- ניסיון מוכח בפיתוח ב-Databricks
- ידע מעמיק ב- Big Data ובטכנולוגיות ענן AWS
- שליטה ב- Python וב-SQL
- ניסיון בתהליכי ETL ופיתוח data Pipelines
- ניסיון בתחום FinOps המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8424965
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בפרוסיד
סוג משרה: משרה מלאה
Proceed מגייסת   BI Developer (Looker Focused)

במסגרת התפקיד:
פיתוח ותחזוקה של דשבורדים ופתרונות BI עבור לקוחות החברה.
עבודה בסביבת ענן (GCP) וכניסה מיידית לפרויקט המבוסס על Looker.
כתיבת קוד LookML, בניית מודלים וניהול שכבת הנתונים ב-Looker.
עבודה מול אפיונים עסקיים ותרגומם לפתרונות ויזואליים ודוחות.
כתיבת שאילתות SQL וטיוב נתונים לצורך הצגה בדשבורדים.

מה אנחנו מציעים:
הזדמנות לקחת חלק בצוות הליבה של תחום הדאטה וה AI בפרוסיד ולהשפיע ישירות על אסטרטגיית החברה.
עבודה עם לקוחות אסטרטגיים מהמובילים במשק בתחומי פיננסים, ממשלה, ביטחון ובריאות.
סביבת עבודה טכנולוגית מתקדמת, מבוססת ענן, עם חשיפה לכלים החדשניים ביותר בעולם הדאטה.
תרבות עבודה יזמית, שיתופית ודינמית מקום לצמיחה אישית ומקצועית אמיתית.
דרישות:
ניסיון של שנתיים ומעלה כמפתח/ת BI - חובה.
שליטה מלאה וניסיון מעשי ב-Looker (כולל LookML) - חובה.
שליטה טובה מאוד ב-SQL חובה.
ניסיון בעבודה בסביבת ענן  (GCP / AWS / Azure) חובה (יתרון לGCP)
הבנה טובה במודלים של דאטה (כגון  Star Schema)
יכולת עבודה עצמאית ותקשורת בין-אישית טובה לעבודה מול צוותים ולקוחות.
אנגלית טכנית ברמה טובה.
יתרונות:
היכרות עם כלי BI נוספים  (quicksight / Tableau) יתרון גדול לגיוון בין כלים
תואר אקדמי רלוונטי.
היכרות עם   Python. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8442736
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת תוכניתן/ית STAGE data מנוסה לחברה פיננסית מובילה במרכז!
עבודה בסביבת Oracle, כתיבת פונקציות ושאילתות מורכבות, וכניסה עמוקה לעולמות data ו- BI בארגון מוביל.
דרישות:
מינימום 3 שנות ניסיון בעבודה עם STAGE data בסביבת Oracle חובה
ניסיון בכתיבת PL/SQL ושאילתות מורכבות
רקע ב- DWH / BI
ניסיון במערכות פיננסיות / בנקאיות יתרון משמעותי
ניסיון בניתוח מערכות יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8448580
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: לוד
סוג משרה: משרה מלאה
חברת Comblack מגייסת data Scientist מנוסה!
אם את/ה חי/ה ונושם/ת דאטה, נהנה/ית מלבנות מודלים מתקדמים ורוצה להשתלב בצוות חדשני בסביבה טכנולוגית זו ההזדמנות שלך
דרישות:
תואר ראשון במדעי הנתונים / מתמטיקה / סטטיסטיקה / מדעי המחשב חובה
לפחות 3 שנות ניסיון בפיתוח מודלי Machine Learning חובה
ניסיון ב-GenAI יתרון
ניסיון מעשי בבניית מודלים: Regression, Classification, Supervised/Unsupervised
שליטה ב- Python (Pandas, NumPy, Scikit-learn) ו-SQL
היכרות עם עולם הפיננסים/פינטק יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8448596
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Rishon Letsiyon
Job Type: Full Time
We're looking for a DataOps Engineer to join our DataOps team, part of the DevOps & Infrastructure group. In this role, you will ensure the performance, reliability, and scalability of our large-scale (multi-terabyte) database systems that underpin the platform. You will be implementing best practices for database infrastructure, improving complex query performance, security, and maintenance. If you are passionate about data, building complex infrastructure and collaboration in a fast-paced environment, this role will be a great fit for you.
How Youll Spend Your Day
Manage, maintain and monitor our ClickHouse, Microsoft SQL Server, PostgreSQL, and OpenSearch databases, ensuring HA, backups, and proper security measures to protect data integrity
Use scripting tools (Python, Bash, PowerShell) to automate regular database and CI/CD tasks.
Collaborate closely with R&D, Security, and Product teams to enhance data infrastructure
Help plan migrations or deployments of database systems to the cloud when needed
Requirements:
3+ years Experience as a DataOps Engineer
Experience with NoSQL databases (OpenSearch, Mongo, ClickHouse) - a must
Experience with RDBMS (MSSQL, PostgreSQL) on cloud environments (Azure, AWS)
Proven experience in managing and optimizing large-scale databases (hundreds of GB to multi-terabyte)
Strong background in database infrastructure, architecture and schema design
Proficiency in at least one scripting language or tool (Bash, PowerShell, or Python)
Experience with CI/CD tools such as Azure DevOps, Liquibase
Ability to work independently and off standard hours when required
Hands-on experience creating or supporting BI reports using SQL
Strong communication and teamwork skills
Experience with linux systems and Docker - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450580
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Rishon Letsiyon
Job Type: Full Time
Were looking for an experienced Data Engineer to join our DEX Platform and help drive the next stage of our growth. In this role, youll design, build, and scale data infrastructure and advanced processing pipelines that power real-time insights and intelligent automation across our platform.
As a senior data engineer, youll own the full service lifecyclefrom architecture and development to deployment, monitoring, and scalingwhile ensuring data quality, reliability, and compliance. Youll work closely with backend, AI, and data teams to deliver robust, production-ready systems that support our AI-first strategy and our mission to make the workplace run itself.
Requirements:
5+ years of backend/data engineering experience
Proficiency with Java (Vert.x, Spring or similar) - a must
Hands-on experience with Kafka and streaming frameworks like Kafka Streams, Flink, Spark, or Beam - a must
Solid understanding of microservices architecture and cloud platforms (Azure/AWS/GCP)
Familiarity with AI-first development tools (GitHub Copilot, Cursor) an advantage
Experience working in production-aware, observability-driven environments - monitoring troubleshooting, and optimizing
Knowledge of Postgres, Redis, MySQL or similar, Clickhouse
Experience in Node.js (NestJS/Express) - a big advantage
Strong foundation in object-oriented design, design patterns, and clean code practices
Comfortable designing, deploying, and maintaining backend services and data flows
Passion for learning, experimenting with new tech, and building reliable systems at scale
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450571
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Data Engineering Lead to own and scale data platform infrastructure

Build our new data Lakehouse to support various product and business needs
Support cutting-edge AI Agents and cybersecurity use cases
Be part of the Data and AI Algorithms group
Collaborate closely with dev teams, AI/ML engineers, security researchers and business teams
Ensure the availability, reliability and quality of our data infrastructure
Help define best practices for data modeling and orchestration at scale
Requirements:
6+ years of hands-on experience in building, modelling and managing data warehouse at scale - Must
Production experience with big-data distributed systems such as Apache Spark, Ray or similar - Must
Hands-on with modern data lakes and open table formats (Delta Lake, Apache Iceberg) - Must
Experience in batch and streaming processing pipelines - Must
Strong coding skills in Python. Strong CI/CD and infrastructure-as-code capabilities.
Experience with cloud-native data services (e.g., AWS EMR, Athena, Azure Data Explorer etc.).
Familiarity with orchestration tools like Airflow, Kubeflow, Dagster or similar
Excellent communication skills, ownership mindset, and problem-solving capabilities
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8448818
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for engineers with proven experience working with large-scale datasets and distributed systems, who are passionate about data quality, performance, and system reliability.

Responsibilities:

Design and implement scalable, fault-tolerant ETL pipelines using Apache Spark for high-throughput, real-time and batch data processing.
Develop and manage CI/CD pipelines, testing strategies, and data quality frameworks to ensure robust data workflows.
Collaborate with data scientists, analysts, and product teams to build data models, maintain data lineage, and surface insights that drive business value.
Evaluate and integrate new technologies to enhance performance, scalability, and cost-efficiency in our data ecosystem.
Own and evolve critical components of our data infrastructure, with a deep understanding of both technical architecture and business context.
Requirements:
6+ years of hands-on experience as a Data Engineer or Backend Engineer, with a strong focus on data-intensive systems.
Mandatory: Proven, production-grade experience with Apache Spark at scale (tens of terabytes daily or more).
3+ years of experience python.
Experience with cloud-native architectures, especially AWS (e.g., S3, EMR, Athena, Glue).
Expertise in designing and maintaining ETL pipelines using orchestration tools like Airflow (or similar).
Strong analytical skills and proficiency in SQL.
Experience working in distributed environments and optimizing performance for large-scale data workloads.
Ability to lead initiatives and work independently in a fast-paced environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8448694
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Youll design and optimize the architecture that keeps our data reliable, accessible, and ready for advanced analytics and AI-driven features. At OX Security, were continuously expanding our Application Security capabilities and with AI at the core of our evolution, were reimagining how data is structured, stored, and leveraged across the organization.





Responsibilities
What Youll Be Doing

Design and implement scalable data architecture solutions.
Collaborate with engineers and Research analysts to meet organizational data needs.
Ensure data integrity and quality in all data processes.
Develop and maintain data models and schemas.
Optimize existing data systems for performance and scalability.
Requirements:
Bachelor's degree in Computer Science, Information Technology, or a related field.
Minimum of 5 years of experience in data architecture and data modeling.
Strong knowledge of database management systems such as SQL, NoSQL, and cloud-based solutions.
Experience with big data technologies
Proficiency in data warehousing solutions and ETL processes.
Excellent communication and problem-solving skills.
Ability to work in a fast-paced, dynamic environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8448601
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Lod
Job Type: Full Time
We are looking for a data Analyst / Analytical Project Manager. The role includes writing complex SQL queries, conducting analytical controls and investigations, building and maintaining Power BI /Tableau reports and dashboards, developing automations, day-to-day work with databases, leading end-to-end analytical projects requirements gathering, specification, development, testing, and implementation as well as supporting AI-related projects and technologies. Full-time position in Lod, SundayThursday.
Requirements:
* At least three years of experience in data analysis required
* At least three years of experience performing complex queries required
* Proven background in managing complex analytical projects required
* Experience in credit risk and banking required
* Full proficiency in Excel required
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8448466
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
מיקום המשרה: תל אביב יפו
דרוש/ה מפתח/ת מנועי חיפוש לתפקיד מעניין ומאתגר הכולל הגדרת ארכיטקטורה, פיתוח מנועי חיפוש, תמיכה בהיקפי מידע וביצועים מהירים.
דרישות:
תנאי סף
שלוש שנות ניסיון בתחום פיתוח BigData
שלוש שנות ניסיון ב troubleshooting ופתרון תקלות production
קריטריונים נוספים
ניסיון מוכח באחד או יותר מהתחומים הבאים: Solr, Elasticsearch ,Spark יתרון
ניסיון עבודה עם טכנולוגיות הבאות: Kafka, RabitMQ, OpenShift ודומות יתרון
יכולת למידה עצמית והתמודדות עם אתגרים טכנולוגיים מורכבים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8446414
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
מיקום המשרה: תל אביב יפו
דרוש/ה מפתח/ת DevOps בתחום תשתיות ואופרציות ביג דאטה לתפקיד הכולל ארכיטקטורה ניהול והקמת סביבות מבוססות טכנולוגיות לעיבוד מידע בהיקפים גדולים מאוד (Big-Data), תמיכה בתהליכי ניהול קוד ופיתוח תהליכי CI/CD.
דרישות:
תנאי סף
שלוש שנות ניסיון בעבודה עם תשתיות מבוססות Linux
שנתיים ניסיון פיתוח בלפחות אחת מהשפות JAVA ו Python
רקע מעשי בתחומי Data Lake, Data Warehouse
עבודה והכרות עם תשתיות OpenSource שונות (כגון kafka, elastic וכד')
קריטריונים נוספים
הכרות עם תשתיות CASSANDRA, TRINO, HADOOP יתרון
הכרות עם Dockers ו/או kubernetes בדגש על OpenShift יתרון
ניסיון בעבודה ופיתוח ענן (AWS, GCP, AZURE) יתרון
יכולת לימוד עצמית וכניסה מהירה לטכנולוגיות יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8446409
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Scientist to join our team.

The ideal candidate is a highly motivated and self-driven individual with strong analytical and problem-solving skills. The Data Scientist will be responsible for analyzing data and developing models to help inform decisions and strategies for new products and business initiatives.



Responsibilities:

Work closely with stakeholders to understand business requirements and develop predictive models to detect fraud.
Develop and implement statistical models, machine learning and deep learning algorithms to solve complex problems in a production environment.
Perform exploratory data analysis and data visualization to gain insights and communicate findings.
Collaborate with cross-functional teams, including data engineers and software developers, to design and implement end-to-end solutions that can be deployed in production.
Implement advanced analytics tools and technologies to enhance reporting capabilities.
Requirements:
Bachelor's or Master's degree in Computer Science, Mathematics, Statistics, or a related field.
Minimum of 5 years of experience as a Data Scientist or in a related field, with experience working in a production environment or PHD with relevant experience
Strong programming skills in Python and proficiency in SQL.
Deep understanding of statistical analysis, machine learning, deep learning and data visualization techniques.
Strong communication and collaboration skills to work effectively in a team environment.
Skills in developing AI agents, such as LLM-based assistants or autonomous workflows - advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8445732
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Backend Engineer to join our Data Engineering team and develop backend components and data-oriented infrastructure for large-scale data processing.

In this role, you will develop infrastructure that enables the generation and evolution of data entities and their reliable distribution across internal systems.

You will work closely with Data Science and Backend core teams to build scalable, cost-efficient, production-grade solutions in a data-heavy environment.



What you will do

Design and implement infrastructure that supports high-volume data processing
Continuously optimize performance, cost, and reliability at scale
Collaborate with Data Science and Backend core teams to define data contracts, interfaces, and integration patterns
Maintain high engineering standards testing, observability, clean code, CI/CD fundamentals
Requirements:
35 years of experience in backend development
Strong hands-on skills with Python


Advantages / Nice to Have

Experience with modern data platforms Snowflake / Delta Lake / Iceberg
Experience with distributed data processing (Databricks, PySpark, or similar)
Experience with cloud platforms Azure
Experience with leadership team management, project ownership, or task management
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8445724
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Provide the direction of our data architecture. Determine the right tools for the right jobs. We collaborate on the requirements and then you call the shots on what gets built.
Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Optimize and monitor the team-related cloud costs.
Design and construct monitoring tools to ensure the efficiency and reliability of data processes.
Implement CI/CD for Data Workflows
Requirements:
5+ Years of Experience in data engineering and big data at large scales. - Must
Extensive experience with modern data stack - Must:
Snowflake, Delta Lake, Iceberg, BigQuery, Redshift
Kafka, RabbitMQ, or similar for real-time data processing.
Pyspark, Databricks
Strong software development background with Python/OOP and hands-on experience in building large-scale data pipelines. - Must
Hands-on experience with Docker and Kubernetes. - Must
Expertise in ETL development, data modeling, and data warehousing best practices.
Knowledge of monitoring & observability (Datadog, Prometheus, ELK, etc)
Experience with infrastructure as code, deployment automation, and CI/CD.
Practices using tools such as Helm, ArgoCD, Terraform, GitHub Actions, and Jenkins.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8445716
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
Join our team innovate in Data Management by designing, implementing, and managing advanced data platforms.
You will optimize relational or non-relational databases and big data systems, collaborate with cross-functional teams, and provide technical support.
Monitor performance, solve complex challenges and stay update on emerging technologies.
Requirements:
3+ years of experience with database systems (PostgreSQL - Oracle preferred)
Proficiency in Linux Unix, system architecture, Bash and Python.
Advantages
Familiarity with Airflow. Grafana and Atlassian tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443740
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
We are seeking an experienced Software Engineer to join a new and groundbreaking R&D team in the filed of cyber security with a focus on internet communication and cryptography.
The team specializes in researching and developing solutions in Cyber Security, Cryptography and Big Data
The team involves in a wide range of solutions for engineering and algorithmic challenges at high scale
A unique integration of Big Data, System Development, Cryptography, Networking and Cyber Security domains
The development process spans from technological ideation to the delivery of the final product .
Requirements:
Bachelors degree in Computer Science or a related field
+4 years of experience in developing complex systems and handling scalability challenges
Passion for advanced technologies entering new domains, creativity and thinking outside the box.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443669
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
Join our team and lead the design, implementation and maintaining cutting-edge Data Platforms and Big Data Solutions. In this position, you will have the unique opportunity to significantly impact intelligence processes, contribute to the counter terrorism efforts and leveraging advanced Big Data technologies.
Design, install, maintain and upgrade Big Data technologies
Monitor and optimize system performance, identifying areas for improving and implementing solutions
Provide technical support to internal teams and end users, ensuring seamless operations
Design and implement advanced infrastructure solutions using the Hadoop Ecosystem
Analyze user requirements, evaluate and recommend new technologies in the Big Data domain.
Requirements:
Experience: At least 5 years managing Big Data infrastructure solutions
Past experience as a DBA with focus on Oracle, Redis and MongoDB is a plus
Proven experience with Hadoop, Cloudera, Trino. Presto, Vertica or similar technologies
Strong ability to evaluate and recommend technology options
Ability to diagnose and resolve complex database issues
Proficiency in SQL, Spark, and Linux environments
Excellent communication and interpersonal skills with the ability to collaborate effectively in a team
Thrive in a fast-paced, dynamic environment with a creative problem- solving mindset
Advantages: Familiarity with Python or Ansible.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443662
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
We are looking for developers interested in joining exciting and innovative bigdata projects
This is a great opportunity for individuals seeking to develop solutions to the most challenging problems in the bigdata field, dealing with operational requirements while using cutting edge technologies.
Requirements:
Education:
BSc in Computer Science or equivalent advantage
Technical Requirements:
At least 3 years of proven experience in developing Bigdata processes in Python, Spark and SQL.
Understanding of Bigdata architecture and Hadoop stack including, Spark, Kafka, ELK and NoSQL databases.
Experienced in Greenplum or Postgres advantage.
Experienced in optimizing large scale ETL, Data Pipeline and Data processing.
Strong skills in coding, SQL and debugging.
Deep understanding applications performance tuning.
Working on Linux and Windows OS.
Experienced in Object oriented server-side developing advantage.
Experienced in with OCP or other K8S based containerization technologies.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443606
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו