רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
כל מה שרציתם לדעת על מבחני המיון ולא העזתם לשאול
זומנתם למבחני מיון ואין לכם מושג לקראת מה אתם ה...
קרא עוד >
לימודים
עומדים לרשותכם
חברות מגייסות
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בIngima
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
לארגון מוביל דרוש תוכניתן data STAGE מנוסה
פיתוח במערכות גדולות ומורכבות
דרישות:
תוכניתן/ית מנוסה בעבודה ב- data STAGE בסביבת אורקל -חובה
לפחות 3 שנות ניסיון בDATASTAGE
ניסיון בכתיבת פונקציות ושאילתות מורכבות בשפת DWH / PL חובה
התמחות בתחום ה- DWH / BI - חובה
ניסיון בעבודה במערכות בתחום הפיננסי/בנקאי יתרון משמעותי
ניסיון בניתוח מערכת - יתרון
הסמכות /השכלה אקדמית רלוונטיים יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8459582
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לארגון מוביל בת"א דרוש/ה data Engineer לתפקיד פיתוח תהליכי שינוע נתונים באמצעות Talend
פיתוח שירותי Near Real-Time לסנכרון מידע במערכת salesforce
קריאת נתונים ממקורות data שונים: data Lake, Kafka, MongoDB
פיתוח ותחקור נתונים באמצעות SQL
ביצוע בדיקות Unit / Integration
עבודה בסביבה מרובת מפתחים מול Artifactory
פיתוח data Pipelines לפלטפורמת salesforce
דרישות:
מעל שנתיים ניסיון בעולמות Big Data, בדגש על Hive
יכולת כתיבה וקריאה של שאילתות SQL מורכבות
היכרות עם עולם הDWH, data Lake ותהליכי ETL / ELT
ניסיון בעבודה בתהליכי CI/CD
ניסיון בעבודה מול Control-M

יתרון משמעותי
ניסיון בעבודה עם Talend
היכרות עם salesforce
היכרות עם Quilliup המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8458162
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים באלעד מערכות
מיקום המשרה: בני ברק
אלעד מערכות מגייסת Head of data לארגון פיננסי מוביל!
אחריות כוללת על ניהול, פיתוח והובלה של תחום הדאטה בארגון, כולל data Engineering, data Platforms ו- BI.
התפקיד כולל הובלת צוות רב-תחומי, בניית אסטרטגיית דאטה ארגונית, והקמה ותחזוקה של תשתיות מודרניות כגון data Lake, DWH ו-Lakehouse.
עבודה מול הנהלה וצוותים עסקיים וטכנולוגיים, אחריות על פיתוח ופריסה של תהליכי ETL /ELT וסטרימינג בזמן אמת, הקמת תשתיות בענן (AWS/Azure), הובלת אסטרטגיית BI (Tableau, semantic models), ויצירת ערך עסקי באמצעות אנליטיקה.
בנוסף, ניהול ממשל נתונים, ניטור, SLA, אבטחת מידע ושיתופי פעולה עם DevOps ויחידת ה-AI.
דרישות:
דרישות תפקיד
ניסיון של 5+ שנים בתחומי data / BI / data Engineering
ניסיון מוכח בניהול צוותים טכנולוגיים
היכרות עמוקה עם ארכיטקטורות דאטה מודרניות: DWH, data Lake, Lakehouse
ניסיון בענן: AWS/Azure כולל הרשאות, אבטחה ו-cost optimization
ניסיון עם Snowflake / Tableau / BigQuery / DBT או מקבילים
שליטה ב-SQL ברמה גבוהה
ניסיון בהובלת data Governance
יכולת ניהול פרויקטים וממשקים מרובים בארגון גדול
ניסיון מארגון פיננסי/רגולטורי - יתרון
ניסיון ב- Python לעולמות data Engineering/ Machine Learning - יתרון
ניסיון עם כלים מתקדמים ל-ML ו-AI Generative - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8451290
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת COMBLACK מגייס/ת מנהל /ת פלטפורמת Jira ומדדים ארגוניים (KPIs) לארגון פיננסי מוביל במרכז!

תפקיד הובלה בתוך חטיבה של כ-1600 איש, שמשלב בעלות מוצרית על Jira ברמת אנטרפרייז עם ניהול מתודולוגיית מדידה ארגונית (KPIs/OKRs/SLAs), והטמעת דשבורדים שמשרתים הנהלה וצוותי פיתוח.
דרישות:
ניסיון בהובלת COE / Product / data Analytics בארגון גדול
שליטה מעשית ב-Jira/Confluence ברמת אנטרפרייז כולל Governance ו-backlog
ניסיון בהגדרת ויישום KPIs/OKRs/SLAs והטמעתם בשגרות ניהול
היכרות עם Agile ומדדי פיתוח (Lead Time, Cycle Time, Defects)
יכולת ניהול Stakeholders והובלת שינוי רוחבי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8457441
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בפרוסיד
סוג משרה: משרה מלאה
Proceed מגייסת   BI Developer (Looker Focused)

במסגרת התפקיד:
פיתוח ותחזוקה של דשבורדים ופתרונות BI עבור לקוחות החברה.
עבודה בסביבת ענן (GCP) וכניסה מיידית לפרויקט המבוסס על Looker.
כתיבת קוד LookML, בניית מודלים וניהול שכבת הנתונים ב-Looker.
עבודה מול אפיונים עסקיים ותרגומם לפתרונות ויזואליים ודוחות.
כתיבת שאילתות SQL וטיוב נתונים לצורך הצגה בדשבורדים.

מה אנחנו מציעים:
הזדמנות לקחת חלק בצוות הליבה של תחום הדאטה וה AI בפרוסיד ולהשפיע ישירות על אסטרטגיית החברה.
עבודה עם לקוחות אסטרטגיים מהמובילים במשק בתחומי פיננסים, ממשלה, ביטחון ובריאות.
סביבת עבודה טכנולוגית מתקדמת, מבוססת ענן, עם חשיפה לכלים החדשניים ביותר בעולם הדאטה.
תרבות עבודה יזמית, שיתופית ודינמית מקום לצמיחה אישית ומקצועית אמיתית.
דרישות:
ניסיון של שנתיים ומעלה כמפתח/ת BI - חובה.
שליטה מלאה וניסיון מעשי ב-Looker (כולל LookML) - חובה.
שליטה טובה מאוד ב-SQL חובה.
ניסיון בעבודה בסביבת ענן  (GCP / AWS / Azure) חובה (יתרון לGCP)
הבנה טובה במודלים של דאטה (כגון  Star Schema)
יכולת עבודה עצמאית ותקשורת בין-אישית טובה לעבודה מול צוותים ולקוחות.
אנגלית טכנית ברמה טובה.
יתרונות:
היכרות עם כלי BI נוספים  (quicksight / Tableau) יתרון גדול לגיוון בין כלים
תואר אקדמי רלוונטי.
היכרות עם   Python. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8442736
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת ITOPS integrator לחברה פיננסית מובילה במרכז!
הזדמנות לעבוד על פלטפורמות מתקדמות בעולמות Multichannel, Microservices, Kubernetes ו- salesforce, בסביבה טכנולוגית דינמית שמחברת בין העסקי לטכנולוגי.
דרישות:
היכרות עם אפליקציות SaaS בהיבטי תשתיות ואינטגרציה
ידע בכלי אינטגרציה : ETL / Kafka / APIM
ידע ברכיבי תקשורת: FW, F5, VIP, IP, Proxy, WAF
ניסיון במערכות ענן ותשתיות ענן + כלי הגנה
היכרות עם LDAP, AD, Kerberos, EntraID
יתרון משמעותי: ניסיון עם salesforce, עבודה עם Jira / Confluence, ועולמות Big Data המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8443939
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: לוד
סוג משרה: משרה מלאה
חברת Comblack מגייסת data Scientist מנוסה!
אם את/ה חי/ה ונושם/ת דאטה, נהנה/ית מלבנות מודלים מתקדמים ורוצה להשתלב בצוות חדשני בסביבה טכנולוגית זו ההזדמנות שלך
דרישות:
תואר ראשון במדעי הנתונים / מתמטיקה / סטטיסטיקה / מדעי המחשב חובה
לפחות 3 שנות ניסיון בפיתוח מודלי Machine Learning חובה
ניסיון ב-GenAI יתרון
ניסיון מעשי בבניית מודלים: Regression, Classification, Supervised/Unsupervised
שליטה ב- Python (Pandas, NumPy, Scikit-learn) ו-SQL
היכרות עם עולם הפיננסים/פינטק יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8448596
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Herzliya
Job Type: Full Time
At Infinidat, we help enterprises and service providers empower their data-driven competitive advantage at scale. We are a leading provider of enterprise-class storage solutions. The company’s software-focused architecture delivers sub-millisecond latency, 100% availability, and scalability with a significantly lower total cost of ownership than competing storage technologies. We’re looking for passionate and bright individuals who wish to take part in the design, development, and all technical aspects of INFINIDAT’s Big Data team. The selected candidate will be part of a professional team that develops various applications - from massive infrastructure, through complicated distributed systems, to plug-ins for 3rd-party enterprise applications. Most development is in Python and some other languages as well, while using a wide range of operating systems, technologies, and architectures. Our big data solutions are cloud-based with secure access allowing predictive analytics (trends, anomaly detection, planning, etc.), early issues detection while analyzing a massive stream of events, and much more. You can be part of it!



Responsibilities:

* Design and develop using Python in a Big Data environment.
* Integrate solutions with existing systems and technologies.
* Troubleshoot and debug existing solutions.
* Write and maintain documentation for solutions.
* Participate in code reviews, providing feedback and suggestions for improvement.
Requirements:
* 4+ years of strong backend programming and design skills in Python
* Experience in designing REST APIs (s.t. Flask, Django, FastAPI).
* Database knowledge - PostgreSQL, Redis
* Strong understanding of OOP principles and design patterns
* Experience in Linux and Docker
* Excellent teamwork and interpersonal communication skills Preferred Qualifications:
* Development of data pipelines and distributed systems (microservices - advantage)
* Web development and experience with JavaScript
* Used RabbitMQ as a communication broker in one of your projects
* Familiar with Kubernetes - advantage
* Cloud environments (AWS - advantage)
* Experience with ClickHouse - advantage
About Infinidat Award-winning Infinidat is a global provider of enterprise storage platforms and solutions. Installed in Global Fortune 500 companies around the world supporting various applications and use cases, our software-defined storage architecture delivers microsecond latency, autonomous automation, robust cyber storage resilience, 100% guaranteed availability, and dramatically reduces enterprise storage CAPEX and OPEX. The company’s portfolio has been named a Leader for five consecutive years in the Gartner® Magic Quadrant™ for primary storage and has received numerous other awards from the storage analyst and storage press community. Our success continues to be based on the talent, experience, and motivation of employees who leverage their skills and abilities to make a real impact in the industry. If you have the power to be the best of the best, we would love to have you join the Infinidat family and make a mark as an essential player in our company’s growth.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8458240
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/12/2025
Location: Rishon Letsiyon
Job Type: Full Time
We're looking for a DataOps Engineer to join our DataOps team, part of the DevOps & Infrastructure group. In this role, you will ensure the performance, reliability, and scalability of our large-scale (multi-terabyte) database systems that underpin the platform. You will be implementing best practices for database infrastructure, improving complex query performance, security, and maintenance. If you are passionate about data, building complex infrastructure and collaboration in a fast-paced environment, this role will be a great fit for you.
How Youll Spend Your Day
Manage, maintain and monitor our ClickHouse, Microsoft SQL Server, PostgreSQL, and OpenSearch databases, ensuring HA, backups, and proper security measures to protect data integrity
Use scripting tools (Python, Bash, PowerShell) to automate regular database and CI/CD tasks.
Collaborate closely with R&D, Security, and Product teams to enhance data infrastructure
Help plan migrations or deployments of database systems to the cloud when needed
Requirements:
3+ years Experience as a DataOps Engineer
Experience with NoSQL databases (OpenSearch, Mongo, ClickHouse) - a must
Experience with RDBMS (MSSQL, PostgreSQL) on cloud environments (Azure, AWS)
Proven experience in managing and optimizing large-scale databases (hundreds of GB to multi-terabyte)
Strong background in database infrastructure, architecture and schema design
Proficiency in at least one scripting language or tool (Bash, PowerShell, or Python)
Experience with CI/CD tools such as Azure DevOps, Liquibase
Ability to work independently and off standard hours when required
Hands-on experience creating or supporting BI reports using SQL
Strong communication and teamwork skills
Experience with linux systems and Docker - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450580
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/12/2025
Location: Rishon Letsiyon
Job Type: Full Time
Were looking for an experienced Data Engineer to join our DEX Platform and help drive the next stage of our growth. In this role, youll design, build, and scale data infrastructure and advanced processing pipelines that power real-time insights and intelligent automation across our platform.
As a senior data engineer, youll own the full service lifecyclefrom architecture and development to deployment, monitoring, and scalingwhile ensuring data quality, reliability, and compliance. Youll work closely with backend, AI, and data teams to deliver robust, production-ready systems that support our AI-first strategy and our mission to make the workplace run itself.
Requirements:
5+ years of backend/data engineering experience
Proficiency with Java (Vert.x, Spring or similar) - a must
Hands-on experience with Kafka and streaming frameworks like Kafka Streams, Flink, Spark, or Beam - a must
Solid understanding of microservices architecture and cloud platforms (Azure/AWS/GCP)
Familiarity with AI-first development tools (GitHub Copilot, Cursor) an advantage
Experience working in production-aware, observability-driven environments - monitoring troubleshooting, and optimizing
Knowledge of Postgres, Redis, MySQL or similar, Clickhouse
Experience in Node.js (NestJS/Express) - a big advantage
Strong foundation in object-oriented design, design patterns, and clean code practices
Comfortable designing, deploying, and maintaining backend services and data flows
Passion for learning, experimenting with new tech, and building reliable systems at scale
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8450571
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
08/12/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Data Engineering Lead to own and scale data platform infrastructure

Build our new data Lakehouse to support various product and business needs
Support cutting-edge AI Agents and cybersecurity use cases
Be part of the Data and AI Algorithms group
Collaborate closely with dev teams, AI/ML engineers, security researchers and business teams
Ensure the availability, reliability and quality of our data infrastructure
Help define best practices for data modeling and orchestration at scale
Requirements:
6+ years of hands-on experience in building, modelling and managing data warehouse at scale - Must
Production experience with big-data distributed systems such as Apache Spark, Ray or similar - Must
Hands-on with modern data lakes and open table formats (Delta Lake, Apache Iceberg) - Must
Experience in batch and streaming processing pipelines - Must
Strong coding skills in Python. Strong CI/CD and infrastructure-as-code capabilities.
Experience with cloud-native data services (e.g., AWS EMR, Athena, Azure Data Explorer etc.).
Familiarity with orchestration tools like Airflow, Kubeflow, Dagster or similar
Excellent communication skills, ownership mindset, and problem-solving capabilities
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8448818
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for engineers with proven experience working with large-scale datasets and distributed systems, who are passionate about data quality, performance, and system reliability.

Responsibilities:

Design and implement scalable, fault-tolerant ETL pipelines using Apache Spark for high-throughput, real-time and batch data processing.
Develop and manage CI/CD pipelines, testing strategies, and data quality frameworks to ensure robust data workflows.
Collaborate with data scientists, analysts, and product teams to build data models, maintain data lineage, and surface insights that drive business value.
Evaluate and integrate new technologies to enhance performance, scalability, and cost-efficiency in our data ecosystem.
Own and evolve critical components of our data infrastructure, with a deep understanding of both technical architecture and business context.
Requirements:
6+ years of hands-on experience as a Data Engineer or Backend Engineer, with a strong focus on data-intensive systems.
Mandatory: Proven, production-grade experience with Apache Spark at scale (tens of terabytes daily or more).
3+ years of experience python.
Experience with cloud-native architectures, especially AWS (e.g., S3, EMR, Athena, Glue).
Expertise in designing and maintaining ETL pipelines using orchestration tools like Airflow (or similar).
Strong analytical skills and proficiency in SQL.
Experience working in distributed environments and optimizing performance for large-scale data workloads.
Ability to lead initiatives and work independently in a fast-paced environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8448694
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
08/12/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
Youll design and optimize the architecture that keeps our data reliable, accessible, and ready for advanced analytics and AI-driven features. At OX Security, were continuously expanding our Application Security capabilities and with AI at the core of our evolution, were reimagining how data is structured, stored, and leveraged across the organization.





Responsibilities
What Youll Be Doing

Design and implement scalable data architecture solutions.
Collaborate with engineers and Research analysts to meet organizational data needs.
Ensure data integrity and quality in all data processes.
Develop and maintain data models and schemas.
Optimize existing data systems for performance and scalability.
Requirements:
Bachelor's degree in Computer Science, Information Technology, or a related field.
Minimum of 5 years of experience in data architecture and data modeling.
Strong knowledge of database management systems such as SQL, NoSQL, and cloud-based solutions.
Experience with big data technologies
Proficiency in data warehousing solutions and ETL processes.
Excellent communication and problem-solving skills.
Ability to work in a fast-paced, dynamic environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8448601
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
08/12/2025
Location: Lod
Job Type: Full Time
We are looking for a data Analyst / Analytical Project Manager. The role includes writing complex SQL queries, conducting analytical controls and investigations, building and maintaining Power BI /Tableau reports and dashboards, developing automations, day-to-day work with databases, leading end-to-end analytical projects requirements gathering, specification, development, testing, and implementation as well as supporting AI-related projects and technologies. Full-time position in Lod, SundayThursday.
Requirements:
* At least three years of experience in data analysis required
* At least three years of experience performing complex queries required
* Proven background in managing complex analytical projects required
* Experience in credit risk and banking required
* Full proficiency in Excel required
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8448466
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
07/12/2025
מיקום המשרה: תל אביב יפו
דרוש/ה מפתח/ת מנועי חיפוש לתפקיד מעניין ומאתגר הכולל הגדרת ארכיטקטורה, פיתוח מנועי חיפוש, תמיכה בהיקפי מידע וביצועים מהירים.
דרישות:
תנאי סף
שלוש שנות ניסיון בתחום פיתוח BigData
שלוש שנות ניסיון ב troubleshooting ופתרון תקלות production
קריטריונים נוספים
ניסיון מוכח באחד או יותר מהתחומים הבאים: Solr, Elasticsearch ,Spark יתרון
ניסיון עבודה עם טכנולוגיות הבאות: Kafka, RabitMQ, OpenShift ודומות יתרון
יכולת למידה עצמית והתמודדות עם אתגרים טכנולוגיים מורכבים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8446414
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
07/12/2025
מיקום המשרה: תל אביב יפו
דרוש/ה מפתח/ת DevOps בתחום תשתיות ואופרציות ביג דאטה לתפקיד הכולל ארכיטקטורה ניהול והקמת סביבות מבוססות טכנולוגיות לעיבוד מידע בהיקפים גדולים מאוד (Big-Data), תמיכה בתהליכי ניהול קוד ופיתוח תהליכי CI/CD.
דרישות:
תנאי סף
שלוש שנות ניסיון בעבודה עם תשתיות מבוססות Linux
שנתיים ניסיון פיתוח בלפחות אחת מהשפות JAVA ו Python
רקע מעשי בתחומי Data Lake, Data Warehouse
עבודה והכרות עם תשתיות OpenSource שונות (כגון kafka, elastic וכד')
קריטריונים נוספים
הכרות עם תשתיות CASSANDRA, TRINO, HADOOP יתרון
הכרות עם Dockers ו/או kubernetes בדגש על OpenShift יתרון
ניסיון בעבודה ופיתוח ענן (AWS, GCP, AZURE) יתרון
יכולת לימוד עצמית וכניסה מהירה לטכנולוגיות יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8446409
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Scientist to join our team.

The ideal candidate is a highly motivated and self-driven individual with strong analytical and problem-solving skills. The Data Scientist will be responsible for analyzing data and developing models to help inform decisions and strategies for new products and business initiatives.



Responsibilities:

Work closely with stakeholders to understand business requirements and develop predictive models to detect fraud.
Develop and implement statistical models, machine learning and deep learning algorithms to solve complex problems in a production environment.
Perform exploratory data analysis and data visualization to gain insights and communicate findings.
Collaborate with cross-functional teams, including data engineers and software developers, to design and implement end-to-end solutions that can be deployed in production.
Implement advanced analytics tools and technologies to enhance reporting capabilities.
Requirements:
Bachelor's or Master's degree in Computer Science, Mathematics, Statistics, or a related field.
Minimum of 5 years of experience as a Data Scientist or in a related field, with experience working in a production environment or PHD with relevant experience
Strong programming skills in Python and proficiency in SQL.
Deep understanding of statistical analysis, machine learning, deep learning and data visualization techniques.
Strong communication and collaboration skills to work effectively in a team environment.
Skills in developing AI agents, such as LLM-based assistants or autonomous workflows - advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8445732
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Backend Engineer to join our Data Engineering team and develop backend components and data-oriented infrastructure for large-scale data processing.

In this role, you will develop infrastructure that enables the generation and evolution of data entities and their reliable distribution across internal systems.

You will work closely with Data Science and Backend core teams to build scalable, cost-efficient, production-grade solutions in a data-heavy environment.



What you will do

Design and implement infrastructure that supports high-volume data processing
Continuously optimize performance, cost, and reliability at scale
Collaborate with Data Science and Backend core teams to define data contracts, interfaces, and integration patterns
Maintain high engineering standards testing, observability, clean code, CI/CD fundamentals
Requirements:
35 years of experience in backend development
Strong hands-on skills with Python


Advantages / Nice to Have

Experience with modern data platforms Snowflake / Delta Lake / Iceberg
Experience with distributed data processing (Databricks, PySpark, or similar)
Experience with cloud platforms Azure
Experience with leadership team management, project ownership, or task management
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8445724
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Provide the direction of our data architecture. Determine the right tools for the right jobs. We collaborate on the requirements and then you call the shots on what gets built.
Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Optimize and monitor the team-related cloud costs.
Design and construct monitoring tools to ensure the efficiency and reliability of data processes.
Implement CI/CD for Data Workflows
Requirements:
5+ Years of Experience in data engineering and big data at large scales. - Must
Extensive experience with modern data stack - Must:
Snowflake, Delta Lake, Iceberg, BigQuery, Redshift
Kafka, RabbitMQ, or similar for real-time data processing.
Pyspark, Databricks
Strong software development background with Python/OOP and hands-on experience in building large-scale data pipelines. - Must
Hands-on experience with Docker and Kubernetes. - Must
Expertise in ETL development, data modeling, and data warehousing best practices.
Knowledge of monitoring & observability (Datadog, Prometheus, ELK, etc)
Experience with infrastructure as code, deployment automation, and CI/CD.
Practices using tools such as Helm, ArgoCD, Terraform, GitHub Actions, and Jenkins.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8445716
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
Join our team innovate in Data Management by designing, implementing, and managing advanced data platforms.
You will optimize relational or non-relational databases and big data systems, collaborate with cross-functional teams, and provide technical support.
Monitor performance, solve complex challenges and stay update on emerging technologies.
Requirements:
3+ years of experience with database systems (PostgreSQL - Oracle preferred)
Proficiency in Linux Unix, system architecture, Bash and Python.
Advantages
Familiarity with Airflow. Grafana and Atlassian tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443740
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
We are seeking an experienced Software Engineer to join a new and groundbreaking R&D team in the filed of cyber security with a focus on internet communication and cryptography.
The team specializes in researching and developing solutions in Cyber Security, Cryptography and Big Data
The team involves in a wide range of solutions for engineering and algorithmic challenges at high scale
A unique integration of Big Data, System Development, Cryptography, Networking and Cyber Security domains
The development process spans from technological ideation to the delivery of the final product .
Requirements:
Bachelors degree in Computer Science or a related field
+4 years of experience in developing complex systems and handling scalability challenges
Passion for advanced technologies entering new domains, creativity and thinking outside the box.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443669
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
Join our team and lead the design, implementation and maintaining cutting-edge Data Platforms and Big Data Solutions. In this position, you will have the unique opportunity to significantly impact intelligence processes, contribute to the counter terrorism efforts and leveraging advanced Big Data technologies.
Design, install, maintain and upgrade Big Data technologies
Monitor and optimize system performance, identifying areas for improving and implementing solutions
Provide technical support to internal teams and end users, ensuring seamless operations
Design and implement advanced infrastructure solutions using the Hadoop Ecosystem
Analyze user requirements, evaluate and recommend new technologies in the Big Data domain.
Requirements:
Experience: At least 5 years managing Big Data infrastructure solutions
Past experience as a DBA with focus on Oracle, Redis and MongoDB is a plus
Proven experience with Hadoop, Cloudera, Trino. Presto, Vertica or similar technologies
Strong ability to evaluate and recommend technology options
Ability to diagnose and resolve complex database issues
Proficiency in SQL, Spark, and Linux environments
Excellent communication and interpersonal skills with the ability to collaborate effectively in a team
Thrive in a fast-paced, dynamic environment with a creative problem- solving mindset
Advantages: Familiarity with Python or Ansible.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8443662
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו