משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
כל מה שרציתם לדעת על מבחני המיון ולא העזתם לשאול
זומנתם למבחני מיון ואין לכם מושג לקראת מה אתם ה...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בהמרכז הרפואי תל אביב (איכילוב)
סוג משרה: משרה מלאה
תנאים נוספים:קרן השתלמות
למרכז הרפואי ת"א (איכילוב) דרוש.ה מפתח.ת דאטה ו BI.
רקע על פעילות היחידה:
הזדמנות להשתלב בעולם מרתק של דאטה קליני ולקחת חלק בפרויקטים משמעותיים המשפיעים ישירות על תהליכי קבלת ההחלטות והעשייה הרפואית בארגון רפואי מוביל.
היחידה נמצאת בעיצומה של טרנספורמציה טכנולוגית רחבת היקף, הכוללת בחירה, הטמעה והכשרה של כלים מודרניים בסביבת ענן, וזו הזדמנות לקחת חלק מרכזי בתהליך, ולהשפיע על עתיד הדאטה בארגון.

תיאור התפקיד:
הובלת פרויקטי דאטה מקצה לקצה - משלב האפיון והניתוח, דרך הפיתוח והיישום ועד לעלייה לאוויר
ניתוח מערכות ואפיון פתרונות דאטה מורכבים מול לקוחות עסקיים וגורמים קליניים
פיתוח תהליכי ETL ומודלי DWH
פיתוח backend ו- frontend בעולמות ה- BI והדאטה
עבודה בסביבות Microsoft ובענן (AWS)
השתלבות בצוות פיתוח של אנשי/נשות BI ו- data Engineers
התפקיד מתאים לאיש BI מנוסה, בעל/ת יכולת הובלה ועצמאות מקצועית, המסוגל/ת לקחת אחריות מלאה על משימות ופרויקטים ולהוות גורם מקצועי מוביל בצוות.
דרישות:
לפחות 5 שנות ניסיון בפיתוח BI (כולל פיתוח בכלי ETL )
לפחות 3 שנות ניסיון משמעותי בניתוח מערכות ואפיון פתרונות דאטה
ניסיון במידול DWH והובלת פרויקטי דאטה מקצה לקצה ( backend ו- frontend )
ניסיון בעבודה עם כלי Microsoft: Power BI, SSIS, SSRS - חובה
ניסיון בעבודה בסביבות פיתוח מודרניות ובענן - יתרון משמעותי
יכולת עבודה עצמאית, הובלה מקצועית וראייה מערכתית רחבה

היקף משרה:
משרה מלאה, א'-ה'. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8587596
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: פתח תקווה
data + Product + Tech? זה השילוב שאנחנו מחפשים
חברת מוצר מגייסת Technical data Product Manager
אם יצא לך לעבוד עם דאטה בשירות הצבאי, לכתוב אפיונים טכניים ולהגדיר איך דאטה זורם במערכות - זה בול בשבילך.

מה בתפקיד?
כתיבת אפיונים טכניים כולל S2T
הגדרת לוגיקות דאטה וכתיבת לוגים וטבלאות backend
עבודה Hands-On עם SQL ותחקור דאטה
תכנון זרימות דאטה, data Pipelines ו- ETL /ELT
עבודה צמודה עם צוותי פיתוח, data Engineers ו- QA
דרישות:
-ניסיון של 2-3 שנים לפחות בניתוח מערכות / Technical Product בעולמות הדאטה
-ניסיון מוכח בכתיבת S2T - חובה
-שליטה ב-SQL וניסיון בתחקור דאטה
-ניסיון בהגדרת לוגיקות דאטה / עבודה עם טבלאות ולוגים ב- backend
-ניסיון בעולמות Big Data, ETL /ELT ו- data Modeling
-ניסיון בעבודה מול צוותי פיתוח ודאטה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8587592
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בתבל מטרו בע"מ
סוג משרה: משרה מלאה
התפקיד כולל תכנון, ניתוח ובקרה של לוחות זמנים רכבתיים ותפעוליים, בהתאם לצרכים הארגוניים, הנחיות רגולטוריות ודרישות השטח. התפקיד דורש תיאום בין גורמים פנים-ארגוניים וחיצוניים, הפקת דוחות ביצוע, ניהול תרחישי חירום והובלת תהליכי אופטימיזציה לשיפור היעילות התפעולית.

- בניית לוחות זמנים רכבתיים בהתאם לדרישות תפעוליות, תשתיות מסילה ושעות עומס/שפל.
- תיאום ואישור לוחות זמנים מול גורמים פנים-ארגוניים, רגולטוריים (כגון משרד התחבורה) ובעלי עניין נוספים.
- הפצת לוחות הזמנים לגורמי התפעול: נהגים, מרכז בקרת תנועה, תחזוקה ועוד.
- בניית סידורי עבודה לנהגים בהתאם ללוחות הזמנים ולתקנות עבודה ומנוחה.
- ניתוח דוחות ביצוע, עמידה בזמנים ושיפור מתמיד של תהליכי התכנון.
- ניהול שינויים ותרחישי חירום - עבודות תשתית, שיבושים או אירועים חריגים.
- שיתוף פעולה שוטף עם מחלקות הנהגים, הבקרה והתחזוקה.
דרישות:
- ניסיון בתכנון לוחות זמנים בתחבורה ציבורית / רכבות - יתרון משמעותי.
- ניסיון בעבודה עם מערכות מידע תחבורתיות- יתרון משמעותי.
- היכרות עם מערכות תכנון ובקרה מתקדמות.
- הבנה ברגולציה ובתקנות עבודה בענף התחבורה הציבורית.
- רקע בהנדסת תחבורה / לוגיסטיקה / מערכות תנועה.
- יכולת אנליטית גבוהה, ירידה לפרטים וחשיבה מערכתית.
- שליטה בExcel, Power BI או כלי ניתוח נתונים אחרים.
- ניסיון בעבודה עם ממשקים מרובים ויכולת תיאום בין גורמים.
- יחסי אנוש מעולים, אחריות ויכולת עבודה עצמאית.
- עברית ואנגלית ברמה טובה מאוד. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8588884
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בקומפאי טכנולוגיות בע"מ
סוג משרה: משרה מלאה
לארגון מוביל דרוש/ה data Scientist להצטרפות לצוות פיתוח מודלים.
התפקיד כולל פיתוח והטמעה של מודלים מתקדמים ב-AI ו-ML, ניתוח מידע טבלאי ומגוון נתונים, הפקת תובנות עסקיות אסטרטגיות והצגתן למקבלי החלטות.
העבודה כוללת אחריות על פתרונות אלגוריתמיים לאתגרים מורכבים בתחומי הבנקאות והפיננסים, בסביבת עבודה חדשנית ומתקדמת.
דרישות:
- לפחות 5 שנות ניסיון כ- data Scientist, כולל פיתוח מודלים למידת מכונה (Classification / Regression) - חובה
- ניסיון מוכח בעבודה עם מידע טבלאי ובניתוח נתונים והכנתם למודלים.
- ניסיון בפיתוח ויישום מודלים בסביבות ענן (AWS יתרון).
- שליטה ב- Python ויכולת לתרגם דרישות עסקיות לפתרונות טכניים וניתוחיים.
- ניסיון בתעשייה הפיננסית / בנקאית - יתרון משמעותי
- ניסיון בפיתוח יישומים מבוססי Generative AI - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8588746
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
06/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Senior Data Scientist you will be handed a business problem and will be asked to provide an end to end solution - Unpack and thoroughly understand the business problem, define the strategy to deal with it and develop & deploy your solution along with relevant support.

What you'll be doing
Design and implement end-to-end solutions - from business needs all the way to live deployment
Monitor and own models in production
Model, design, and implement machine learning and data mining algorithms
Perform deep data analysis to evaluate performance and recommend improvements
Help, guide and support our business partners to allow for scale and accuracy while adopting your solutions
Requirements:
At least 5 years of experience as data scientist /researcher, combining excellent hands-on SQL and Python skills
At least 5 years of experience applying ML algorithms to solve real world business problems (e.g., Logistic Regression, Gradient Boosting Machines, Neural Networks, and unsupervised clustering)
B.Sc in Computer Science, Statistics, Operations Research or equivalent
Solid background with data lake and data warehouse technologies
Great communication skills, Hands-On, independent and out of the box thinker
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569983
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
We're seeking talented data engineers to join our rapidly growing team, which includes senior software and data engineers. Together, we drive our data platform from acquisition and processing to enrichment, delivering valuable business insights. Join us in designing and maintaining robust data pipelines, making an impact in our collaborative and innovative workplace.

Responsibilities
Design, implement, and optimize scalable data pipelines for efficient processing and analysis.
Build and maintain robust data acquisition systems to collect, process, and store data from diverse sources.
Take part in developing agentic capabilities.
Mentor, support, and guide junior team members, sharing expertise and fostering their professional development.
Collaborate with DevOps, Data Science, and Product teams to understand needs and deliver tailored data solutions.
Monitor data pipelines and production environments proactively to detect and resolve issues promptly.
Apply and be responsible for best practices in data security, integrity, and performance across all systems.
Requirements:
6+ years of experience in data or backend engineering, with strong proficiency in Python for data tasks.
Proven track record in designing, developing, and deploying complex data applications.
Hands-on experience with orchestration and processing tools such as Apache Airflow and Apache Spark.
Deep experience with public cloud platforms, and expertise in cloud-based data storage and processing.
Experience working with Docker and Kubernetes.
Hands-on experience with CI tools such as GitHub Actions.
Bachelors degree in Computer Science, Information Technology, or a related field - or equivalent practical experience.
Ability to perform under pressure and make strategic prioritization decisions in fast-paced environments.
Excellent communication skills and a strong team player, capable of working cross-functionally.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569768
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
we are a data driven company, the data Engineering team is the bridge between raw data and impactful business insights. You will lead a team of talented engineers to architect, build, and maintain the data infrastructure of our company. Your mission is to ensure our data is reliable, secure, and ready for everything from standard BI reporting to cutting-edge Generative AI applications. Youll act as a key partner to our business teams, translating high-level needs into technical reality and driving a massive impact on our bottom line. In addition youll spend time mentoring your team as well as tackling high-level architecture decisions, pushing technical strategy and contributing to the codebase.
What am I going to do?:

* Lead a team that designs and scales Real-Time data pipelines processing millions of events hourly.
* Utilize cutting-edge technologies to build scalable and high performant data infrastructure.
* Influence and drive architecture and data strategy decisions.
* Work closely with other stakeholders such as data Developers, Analysts, data Science and R&D.
* Hands-on development of data infrastructure tools (~50% of the time).
* Lead and mentor the team talent.
* Finops and governance of data infrastructure domains.
Equal opportunities:
At our company, we prioritize diversity. We celebrate difference and embed it into every aspect of our workplace and product, as well as our community. we are proud and committed to providing equal opportunity employment to all individuals regardless of race, color, religion, sex, sexual orientation, citizenship, national origin, disability, Veteran status, or any other characteristic protected by law. In addition, we will provide accommodation to individuals with disabilities or a special need.
Requirements:
* 5+ years of hands-on experience in data engineering, with at least 2 years in a team leadership role.
* Strong programming skills in Python.
* Experience with relevant technologies such as BigQuery, Airflow/Prefect, DBT, Kafka, Athena, BI Tools.
* Proven track record of design and implementation of highly scalable distributed data pipelines.
* Deep understanding of data modeling, ETL and Real-Time analytics.
* Great 360 collaboration with excellent communication skills.
* MSc./BSc. in Computer Sciences from a top university. At our company, were not about checklists. If you dont meet 100% of the requirements for this role but still feel passionate about the position and think you have the right skills and qualifications to excel at it, we want to hear from you.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569534
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Join global data team building the infrastructure that powers analytics and AI-driven insights across the organization. As a Data Engineer, you'll design and maintain scalable data pipelines and systems that enable product analytics, business intelligence, and AI applications in our high-growth fintech environment.
What you'll do:
Design, build, and maintain robust batch and streaming pipelines and orchestration across our modern stack (AWS, DBT, Airbyte, Airflow, Snowflake) to support AI-driven data products.
Develop and optimize data models in Snowflake, ensuring data quality, consistency, and performance at scale.
Collaborate with Product Analysts and AI specialists to implement data solutions for customer segmentation, ranking systems, and predictive models.
Partner with cros-functional teams to translate technical requirements into scalable data architecture.
Implement end-to-end observability (data quality checks, monitoring, alerting) and cost/performance optimization in Snowflake and AWS.
Requirements:
6+ years of experience as a Data Engineer or similar role.
Expert proficiency in SQL and hands-on experience with modern data warehouse platforms (Snowflake - advantage).
Strong experience building ETL/ELT pipelines using tools like DBT, Airflow, or similar orchestration frameworks.
Proficiency in Python or another programming language for data processing.
Solid understanding of data modeling techniques (dimensional modeling, Data Vault, etc).
Experience with cloud platforms, preferably AWS.
Proven ability to design and maintain reliable, scalable data systems with a strong focus on data quality.
Strong communication skills and the ability to work effectively with both technical and business stakeholders.
Experience with fintech, financial services, or cryptocurrency/blockchain - advantage.
Familiarity with real-time data processing or streaming technologies - advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569095
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a highly enthusiastic Data Engineer to join our group on the journey of leveraging Big Data to revolutionize our offering, business operations and decision making across the companys ecosystem.


Job Responsibilities:

Design, build & deploy backend data solutions to prod, starting from research and design to development and testing.
Work closely with data engineers, product, architects and other R&D teams to deliver the best solutions to the business.
Monitor the solutions in production to make sure they are fully stable, scalable and performant at all times.
Work closely with data sciences experts
Requirements:
Profile and Experience:

At least 3 Years of proven hands on experience with big data solutions and frameworks in production (Spark, Flink) - mandatory
Proven ability of writing complex SQL queries - mandatory
Strong analytical and problem-solving skills with attention to details - mandatory
Production grade experience of writing spark applications using Scala or Java - mandatory
Experience with Apache Airflow and AWS tools (EMR, Glue, Athena) - a big advantage
Solid knowledge in Python and Linux operating systems - a big advantage
Experience with Clickhouse - a big advantage
Familiarity with the Ad Tech industry and RTB - an advantage
Extensive experience in Functional programming, Unit testing/TDD, continuous Deployment - an advantage
Familiarity with NodeJS - an advantage
Fluent verbal and written English skills required
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8569028
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
מיקום המשרה: מרכז
סוג משרה: משרה מלאה
דרוש/ה Pre-Sale ברעננה להובלת תהליכי מכירה של פתרונות data בתחומי אינטגרציית נתונים, איכות נתונים, ממשל נתונים ואינטגרציית API.
לשיתוף פעולה עם מנהלי לקוחות וממשקים פנימיים, והובלת ההיבט הטכנולוגי בתהליך המכירה מול לקוחות קיימים ופוטנציאליים.
תחומי אחריות:
זיהוי צרכים עסקיים והתאמתם לפתרונות הדאטה והאנליטיקה של החברה (כגון Talend, Qlik Sense).
הצגת הערך המוסף והובלת תהליכי הוכחת יכולת (POC) ומעקב אחריהם.
ליווי תהליכי המכירה מההיבט הטכנולוגי לכל אורך הדרך, תוך שיתוף פעולה צמוד עם צוותי המכירה.
ביצוע הכשרות טכנולוגיות שוטפות לצוותי המכירות ולעובדים חדשים.
שמירה על עדכניות מקצועית והיכרות עם חידושי טכנולוגיה ומוצר.
ביצוע הדרכות וכשירויות לאנשי המכירות.
שכר 28-32 K
דרישות:
ניסיון 2+ שנים בתפקידי data Pre-Sale, או בתפקידי data Engineer המעוניינים בתפקיד Pre-Sale - חובה
תואר ראשון רלוונטי או הכשרה מקצועית רלוונטית - חובה.
הבנה חזקה של השוק העסקי הישראלי ויכולת חשיבה עסקית.
כושר ורבלי גבוה, יכולת שכנוע והצגת פתרונות טכנולוגיים מול לקוחות.
אנגלית ברמה גבוהה מאוד (קריאה וכתיבה).
יכולת הדרכה טובה.
יתרונות:
ניסיון בפיתוח תהליכי ETL ו- data Pipelines.
שליטה ב-SQL ובשפת תכנות אחת לפחות: Python / Scala / JAVA.
ניסיון בעבודה עם טכנולוגיות כגון: Spark, Kafka, Talend.
ניסיון עם פתרונות ענן (AWS, Azure, GCP).
ניסיון בתהליכי POC. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
8568741
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/03/2026
Job Type: Full Time
Welcome to Chargeflow Chargeflow is at the forefront of fintech + AI innovation, backed by leading venture capital firms. Our mission is to build a fraud-free global commerce ecosystem by leveraging the newest technology, freeing online businesses to focus on their core ideas and growth. We are building the future, and we need you to help shape it. Who We're Looking For - The Dream Maker We're in search of an exceptional hands-on Data Scientist who can bridge data infrastructure, fraud analytics, and machine learning to enhance our fraud detection capabilities. This role requires someone who can drive projects from ideation to implementation , leading these efforts while thinking strategically about how we detect and prevent fraud at scale. Our ultimate goal is to equip our clients with resilient safeguards against chargebacks, empowering them to safeguard their revenue and optimize their profitability. Join us on this thrilling mission to redefine the battle against fraud. Your Arena
* Develop and enhance fraud detection models from concept to production, focusing on data normalization, network analysis, and risk scoring
* Take ownership to identify, analyze, and implement solutions for fraud patterns and behavioral anomalies.
* Design, build and maintain data science pipelines and fraud intelligence systems to improve detection accuracy.
* Collaborate with product, engineering, and risk teams to implement fraud prevention strategies.
* Own projects end-to-end - balancing short-term wins with long-term strategy.
Requirements:
What It Takes 4+ years of hands-on experience in fraud analytics, data science, or risk modeling - Must Proven experience in the Fintech/Fraud Prevention Domain - Must
* Proven ability to take projects from A to Z in building data infrastructure, anomaly detection, and graph-based fraud detection solutions - Must
* Strong practical proficiency in Python, SQL, MLOps and fraud-related data tools - Must
* Strong background in e-commerce or payments - Advantage
* A self-starter mentality someone who identifies opportunities, takes initiative, and drives improvements with minimal direction. Our Story Chargeflow is a leading force in fintech innovation, tackling the pervasive issue of chargeback fraud that undermines online businesses. Born from a deep passion for technology and a commitment to excel in eCommerce and fintech, we've developed an AI-driven solution aimed at combating the frustrations of credit card disputes. Our diverse expertise in fintech, eCommerce, and technology positions us as a beacon for merchants facing unjust chargebacks, supported by a unique success-based approach. Backed by $49M led by Viola Growth, OpenView, Sequoia Capital and other top tier global investors, Chargeflow has embarked on a product-led growth journey. Today, we represent a tight-knit community of passionate individuals and entrepreneurs, united in our mission to revolutionize eCommerce and fight against chargeback fraud, marking us as pioneers in protecting online business revenues.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8476557
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Engineer to join our growing team!
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
Our success has been built through intense innovation, a customer-first mentality and a team of fearless who leverage their skills & experiences to make real market impact. This is an opportunity to be a key contributor at a pivotal time in our companys growth and at a pivotal point in computing history.
In this role, you will be responsible for:
Designing, building, and maintaining scalable data pipeline architectures
Developing ETL processes to integrate data from multiple sources
Creating and optimizing data models for efficient storage and retrieval
Implementing data quality controls and monitoring systems
Collaborating with data scientists and analysts to deliver data solutions
Building and maintaining data warehouses and data lakes
Performing in-depth data analysis and providing insights to stakeholders
Taking full ownership of data quality, documentation, and governance processes
Building and maintaining comprehensive reports and dashboards
Ensuring data security and regulatory compliance
Requirements:
Bachelor's degree in Computer Science, Engineering, or related field
3+ years experience in data engineering
Strong proficiency in SQL and Python
Experience with ETL tools and data warehousing solutions
Knowledge of big data technologies (Hadoop, Spark, etc.)
Experience with cloud platforms (AWS, Azure, or GCP)
Understanding of data modeling and database design principles
Familiarity with data visualization tools - Tableau, Sisense
Strong problem-solving and analytical skills
Excellent communication and collaboration abilities
Experience with version control systems (Git).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8568224
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
03/03/2026
Location: Herzliya
Job Type: Full Time
The Security Models Training team builds and operates the large‑scale AI training and adaptation engines that power Security products, turning cutting‑edge research into reliable, production‑ready capabilities.
As Lead Applied Scientist, you will own end‑to‑end model development for security scenarios, set technical strategy across multiple model efforts and teams, including developing new model architectures, continual pre‑training, task‑focused fine‑tuning, reinforcement learning, and objective, benchmark‑driven evaluation.
You will drive training efficiency and reliability on distributed GPU systems, deepen model reasoning and tool‑use capabilities, and embed Responsible AI, privacy, and compliance into every stage of the workflow. The role is hands‑on and impact‑focused, partnering closely with engineering and product to translate innovations into shipped, measurable outcomes, defining quality gates and readiness criteria across teams, and mentoring senior scientists and engineers to scale results across globally distributed teams.

You will combine strong coding, experimentation, and debugging skills with a systems mindset to accelerate iteration cycles, improve throughput and cost‑effectiveness, and help shape the next generation of secure, trustworthy AI for our customers.
Responsibilities:
Youll work as part of an Applied Science team on high-impact, technically ambitious AI projects that directly shape the future of AI in Cyber security, with ownership for taking advanced research through to production impact.
Technical Leadership & Ownership: set technical direction for major security domain initiatives and align roadmaps across multiple teams; lead security model programs spanning pre‑training, task tuning, reinforcement learning, and evaluation; translate cutting‑edge research into production‑ready capabilities. This role influences portfolio‑level technical tradeoffs, investment prioritization, and long‑term architecture decisions for security models.
Advanced Model Design - Building and customizing deep learning model architectures (e.g., modifying transformer blocks, attention/memory modules, etc.) at the SLM/LLM scale; making principled architectural tradeoffs to improve reliability, robustness, and security‑specific behavior.
Advanced Model Training - Apply deep expertise in pre-training, post-training, and reinforcement learning (RL) for both language and other modalities, including time-series. 
Design & Evaluate Datasets - Build high-quality datasets and benchmarks; define objective evaluation frameworks and quality gates; run ablation studies to measure impact and optimize data and training effectiveness to support confident product decisions.
Develop Data Infrastructure - Create and maintain scalable pipelines for ingestion, preprocessing, filtering, and annotation of large, complex datasets, with attention to privacy, governance, and long‑term reuse across security scenarios. 
Research & Innovation - Collaborate with cross-functional teams to push research and product boundaries, delivering models that make a real-world impact. 
דרישות:
M.Sc. / Ph.D. in Computer Science, Information Systems, Electrical or Computer Engineering or Data Science (Ph.D. strongly preferred). Candidates with M.Sc. / Ph.D. in related fields with proven industry experience or a strong publication record in the areas of LLM, Information Retrieval, Machine Learning, Natural Language Processing, Time Series Forecasting and Deep Learning are considered as well.  
Proven hands-on experience of at least 8 years (including post-grad work) in building and deploying Machine Learning products. Key areas of expertise include Natural Language Processing and Large Language Models, along with an understanding of concepts su המשרה מיועדת לנשים ולגברים כאחד.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8567239
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
03/03/2026
Location: Herzliya
Job Type: Full Time
As a Principal/Senior Applied Scientist, you will own end‑to‑end model development for security scenarios, including developing new model architectures, continual pre‑training, task‑focused fine‑tuning, reinforcement learning, and objective, benchmark‑driven evaluation.
You will drive training efficiency and reliability on distributed GPU systems, deepen model reasoning and tool‑use capabilities, and embed Responsible AI, privacy, and compliance into every stage of the workflow. The role is hands‑on and impact‑focused, partnering closely with engineering and product to translate innovations into shipped, measurable outcomes, defining quality gates and readiness criteria, and mentoring scientists and engineers to scale results across globally distributed teams.
You will combine strong coding, experimentation, and debugging skills with a systems mindset to accelerate iteration cycles, improve throughput and cost‑effectiveness, and help shape the next generation of secure, trustworthy AI for our customers.
Responsibilities:
Youll work as part of an Applied Science team on high-impact, technically ambitious AI projects that directly shape the future of AI in Cyber security, with ownership for taking advanced research through to production impact.
Technical Leadership & Ownership: set technical direction for major security domain initiatives; lead security model programs spanning pre‑training, task tuning, reinforcement learning, and evaluation; translate cutting‑edge research into production‑ready capabilities.
Advanced Model Design - Building and customizing deep learning model architectures (e.g., modifying transformer blocks, attention/memory modules, etc.) at the SLM/LLM scale; making principled architectural tradeoffs to improve reliability, robustness, and security‑specific behavior.
Advanced Model Training - Apply deep expertise in pre-training, post-training, and reinforcement learning (RL) for both language and other modalities, including time-series.
Design & Evaluate Datasets - Build high-quality datasets and benchmarks; define objective evaluation frameworks and quality gates; run ablation studies to measure impact and optimize data and training effectiveness to support confident product decisions.
Develop Data Infrastructure - Create and maintain scalable pipelines for ingestion, preprocessing, filtering, and annotation of large, complex datasets, with attention to privacy, governance, and long‑term reuse across security scenarios.
Research & Innovation - Collaborate with cross-functional teams to push research and product boundaries, delivering models that make a real-world impact.
דרישות:
M.Sc. / Ph.D. in Computer Science, Information Systems, Electrical or Computer Engineering or Data Science (Ph.D. strongly preferred). Candidates with M.Sc. / Ph.D. in related fields with proven industry experience or a strong publication record in the areas of LLM, Information Retrieval, Machine Learning, Natural Language Processing, Time Series Forecasting and Deep Learning are considered as well.
Proven hands-on experience of at least 5 years (including post-grad work) in building and deploying Machine Learning products. Key areas of expertise include Natural Language Processing and Large Language Models, along with an understanding of concepts such as Privacy and Responsible AI. Candidates are expected to demonstrate a strong history of successfully translating applied research into production-ready solutions, along with a proven track record of delivering projects within large-scale production environments.
Proven expertise in the LLM and/or time-series forecasting domain, demonstrating comprehensive knowledge of relevant concepts in the domain. Ideal applicants should be proficient in areas such as LLMs pre and post training, including CPT, SFT and RL, LLM benchmarking, agentic flows, and model alignment.
Hands-on המשרה מיועדת לנשים ולגברים כאחד.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8567226
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Senior Data Scientist to lead strategic research initiatives focusing on our Auto loans asset class. This individual will be at the forefront of research, working hands-on to advance our models while also mentoring and collaborating with data scientists across the department.
Responsiilities:
Spearhead strategic research of new cutting edge Machine Learning models
Mentor and advise data scientists.
Design solutions for the companys core mission using Data Science methodologies from various domains
Work in a short life-cycle research and development environment
Generate and test working hypotheses in unexplored territory
Requirements:
5+ years of experience in Machine Learning, working with tabular data on predictive modeling
Track record of translating research into business impact
MSc or PhD in a related field- Math/EE/CS/Physics/Stats
Great interpersonal skills, and strong collaborator
Good applied statistics skills, such as distributions, statistical testing, regression, etc.
Proficient in Python and the Data Science Stack
Independent and fast learner that can work alone and in teams
Ability to learn and explore new fields of expertise
Knowledge in some of the following can be an advantage: optimization, risk and finance
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8567051
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
02/03/2026
Location: Tel Aviv-Yafo and Ra'anana
Job Type: Full Time
Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566447
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Experienced Data Engineer? Excellent team player?

Come join a great team to overcome meaningful cyber challenges!

Our Data Solutions Group is looking for an exceptional Python developer with Data Engineering experience.
Requirements:
Requirements:
Excellent team player.
Excellent Python developer.
BSc Computer Science or similar.
2+ years of experience with big data frameworks such as Spark or Hadoop.
2+ years of experience in managing ETLs in AirFlow or similar, multi-source data flows and processing of large data sets.
3+ years of experience with SQL.
Attention to details, high responsibility and open minded.
Ability to take initiative with a self-motivated attitude and reliability.
Critical thinker and problem-solving skills.

Advantages:
Proven capabilities in data analysis and data-driven conclusions.
Experience with the ElasticSearch suite.
Java development experience.
Experience with Linux environment.
Background in the cyber domain.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566408
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Responsibilities:
Provide the direction of our data architecture. Determine the right tools for the right jobs. We collaborate on the requirements and then you call the shots on what gets built.
Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Optimize and monitor the team-related cloud costs.
Design and construct monitoring tools to ensure the efficiency and reliability of data processes.
Implement CI/CD for Data Workflows.
Requirements:
5+ Years of Experience in data engineering and big data at large scales. - Must
Extensive experience with modern data stack - Must:
1. Snowflake, Delta Lake, Iceberg, BigQuery, Redshift.
2.Kafka, RabbitMQ, or similar for real-time data processing.
3.Pyspark, Databricks.
Strong software development background with Python/OOP and hands-on experience in building large-scale data pipelines. - Must.
Hands-on experience with Docker and Kubernetes. - Must.
Expertise in ETL development, data modeling, and data warehousing best practices.
Knowledge of monitoring & observability (Datadog, Prometheus, ELK, etc).
Experience with infrastructure as code, deployment automation, and CI/CD.
Practices using tools such as Helm, ArgoCD, Terraform, GitHub Actions, and Jenkins.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566263
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
02/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
M:AD Growth is looking for an experienced Delivery Leader to head our analytics and data engineering team. You will be responsible for the end-to-end execution of complex data projects, ensuring technical excellence and driving measurable impact for our enterprise clients. This role is ideal for a leader with a strong background in Digital or Product Analytics, experienced in measuring and optimizing user behavior across large-scale digital products and ecommerce platforms. This role is ideal for a builder-manager who can translate high-level strategy into high-performance data operations while leading, mentoring, and developing a team of analysts and data engineers.

Responsibilities:

* Lead and develop a multidisciplinary data team. Manage and grow a team of Analysts Data Engineers and while driving advanced AI methodologies and analytical standards.
* Measure and optimize digital user journeys across enterprise websites, applications, and ecommerce platforms. Define tracking strategies and analytical frameworks for key digital processes such as acquisition flows, onboarding journeys, service requests, and ecommerce funnels.
* Drive data-driven optimization by identifying performance gaps, user friction points, and growth opportunities through behavioral data and funnel analysis.
* Own the full analytics lifecycle, from building robust data foundations and tracking architectures to delivering dashboards, deep analyses, predictive models, and automated insights.

* Define and enforce analytics architecture standards for GA4 tracking, BigQuery data modeling, and Looker Studio reporting.
Requirements:
* 8+ years of experience in Marketing Analytics, Product Analytics, or Digital Analytics.
* Strong experience analyzing digital products and user behavior, including measuring and improving processes such as onboarding flows, ecommerce funnels, lead generation, or service journeys.
* Proven experience managing a team of 5 or more direct reports within a large enterprise organization, global agency, or high-growth consultancy.
* Deep hands-on expertise in GA4 and the Google Cloud ecosystem including BigQuery, Looker Studio, and ideally Vertex AI.
* A strong track record of leading complex analytics and data initiatives and translating data insights into measurable business impact.
* Experience helping organizations evolve from static reporting environments to fast, data-driven decision making.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566235
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו