משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.
This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
35 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS-based data technologies.

Experience in building and maintaining advanced data pipelines from various data sources.

Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI, Tableau.
Experience with scripting/coding languages such as Python.
Ability to work independently, with attention to detail and strong initiative.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8629743
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 2 שעות
דרושים בלוגיקה IT
מיקום המשרה: מספר מקומות
מחפשים את מי שיוביל את מערכות ה- data וה-GenAI שלנו קדימה
מנהל /ת מערכת למערכות data ו-GenAI לארגון גדול ומוביל 

על התפקיד
התפקיד משלב אחריות תפעולית מלאה עם מעורבות עמוקה בארכיטקטורה ובטכנולוגיות מתקדמות, בלב העשייה של מערך הדאטה הארגוני.
המנהל/ת יהיה/תהיה אחראי/ת על תפעול, תחזוקה, יציבות ואמינות של מערכות ה- data, ה-AI וה-GenAI - בסביבות פיתוח וייצור, בענן וב-On-Prem.

זהו תפקיד מפתח עם השפעה רחבה, עבודה מול מגוון גורמים טכנולוגיים והובלה של תהליכים ואירועים קריטיים.

תחומי אחריות מרכזיים
אחריות כוללת על זמינות, יציבות ותקינות של מערכות data, AI ו-GenAI

ניהול שוטף של סביבות Dev / QA / Prod

היכרות ושליטה מלאה בארכיטקטורה מקצה לקצה: תשתיות, מודלים, data Pipelines, אבטחה, APIs ואינטגרציות

הקמה ותחזוקה של מערך ניטור והתראות (ביצועים, עומסים, זמינות, Latency ועוד)

טיפול ותחקור תקלות מורכבות, כולל Root Cause Analysis והובלת פתרון בזמן אמת
דרישות:
ניסיון ומקצועיות

3-5 שנות ניסיון בניהול מערכות מורכבות ואינטגרטיביות

ניסיון בעבודה עם data Pipelines ומאגרי נתונים (SQL / NoSQL)

היכרות עם מערכות AI, מודלי שפה ו-GenAI

ניסיון בעבודה בסביבות ענן (AWS / GCP / Azure)

ידע ב-Docker, Kubernetes ותהליכי Deployment

ניסיון בעבודה עם APIs

יתרון לניסיון בכלי ניטור (CloudWatch, Datadog) ולוגים (ELK / Splunk)

השכלה

תואר במדעי המחשב / הנדסת תעשייה וניהול בהתמחות מערכות מידע
או קורסים מתקדמים רלוונטיים

כישורים אישיים
יכולת הובלה, יוזמה והשפעה

ראייה מערכתית ויכולת עבודה מקצה לקצה

יכולת עבודה עצמאית בסביבה דינמית ומורכבת

התמודדות מצוינת עם מצבי לחץ וריבוי משימות

יחסי אנוש מעולים ועבודה מול ממשקים רבים

סקרנות טכנולוגית ויכולת למידה מהירה של עולמות חדשים

למה כדאי להצטרף?
תפקיד משמעותי בלב העשייה של עולם ה- data וה-GenAI

עבודה עם טכנולוגיות מתקדמות וחדשניות

השפעה אמיתית על מערכות קריטיות בארגון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8629634
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים בG-NESS
מיקום המשרה: ירושלים
לארגון ממשלתי בירושלים דרוש/ה data Scientist.
התפקיד כולל פיתוח ויישום פתרונות תוכנה מבוססי data, אינטגרציה של מודלים במערכות הארגון,
כולל פיתוח API ושכבות שירות, עבודה מול מסדי נתונים רלציוניים ולא רלציוניים, העשרת מאגרי הנתונים של הארגון, הערכת ביצועים ואופטימיזציה של מודלים עבודה הן בסביבת ענן והן בסביבת On-Premise.
***משרה היברידית
דרישות:
3 שנות ניסיון בתחום
ניסיון ב- Python עם התמחות ב- data Science / AI
ניסיון בעבודה עם ספריות ומסגרות learn-scikit,PyTorch,TensorFlow] ML/AI ועוד]
ניסיון בעבודה עם מסדי נתונים ( SQL server ועוד)
ניסיון בעבודה עם פתרונות ענן ו-On Premise
יכולת עבודה עצמאית
יכולת למידה מהירה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8613586
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים בOne DatAI
Location: Ramat Gan and Petah Tikva
Job Type: Full Time and Hybrid work
What youll do:
Lead design and delivery of enterprise data platforms
Own end-to-end pipelines from ingestion to serving
Architect scalable lakehouse solutions on Databricks
Drive best practices across Spark, Python, and SQL
Lead and mentor data engineers across projects
Work closely with stakeholders to define solutions
Optimize performance, cost, and reliability of pipelines
Implement data governance, quality, and monitoring
Requirements:
What were looking for:
5+ years of experience as a data Engineer
Proven experience leading large data projects
Strong hands-on experience with Databricks (must)
Deep knowledge of Spark, Python, and SQL
Experience designing lakehouse architectures
Strong understanding of batch and streaming pipelines
Experience with data modeling and large-scale data processing
Ability to translate business needs into technical solutions
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8614034
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים במלם תים
מיקום המשרה: מודיעין מכבים רעות
ארגון מוביל בתחום הבריאות מחפש מפתח/ת BI מנוסה להשתלבות בצוות דאטה מקצועי, לעבודה עם טכנולוגיות מתקדמות והשפעה ישירה על תהליכי קבלת החלטות בארגון
אם יש לך תשוקה לדאטה, יכולת פיתוח תהליכים מורכבים ורצון להשפיע על עתיד הרפואה בישראל מקומך איתנו!

מה בתפקיד?
פיתוח תהליכי ETL /ELT מורכבים מקצה לקצה בסביבת DWH מודרנית, תוך עבודה בארכיטקטורת Medallion (Bronze, Silver, Gold).
התפקיד כולל אפיון צרכים עסקיים מול גורמים שונים בארגון ותרגומם לפתרונות BI ודאטה, בניית מודלים אנליטיים ושכבות נתונים, ופיתוח דשבורדים מתקדמים.
בנוסף, עבודה הכוללת תחקור נתונים מעמיק (Deep Dive), אופטימיזציה של תהליכים קיימים ופיתוח פתרונות חדשים, תוך מעבר מניתוח תיאורי לניתוח סיבתי וחיזוי מגמות.
דרישות:
- ניסיון של 4+ שנים בפיתוח BI, כולל עבודה בסביבות DWH
- שליטה גבוהה מאוד ב-SQL כולל שאילתות מורכבות, פרוצדורות
- ניסיון בפיתוח תהליכי ETL /ELT (Batch ו-Streaming) עם כלים כגון dbt / Informatica / Python וכתיבת APIs
- הבנה מעמיקה ב- data Modelling וארכיטקטורת DWH, כולל עבודה עם Snowflake ו/או Microsoft Fabric
- ניסיון בפיתוח דשבורדים (Power BI / Business Objects) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8608514
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בOne DatAI
Location: Ra'anana
Job Type: Full Time and Hybrid work
We are looking for a data Manager to lead data initiatives across projects and clients. This role combines leadership, governance, and hands-on understanding of data platforms. You will define data strategies, ensure data quality and governance, and manage teams delivering data solutions end to end.

Responsibilities
Lead data projects from design to delivery
Define data strategy aligned with business goals
Own data governance, quality, and standards
Manage data teams including engineers and analysts
Work with stakeholders to translate business needs into data solutions
Oversee data architecture and platform decisions
Ensure scalability, security, and compliance of data systems
Drive best practices across data modeling, pipelines, and BI
Requirements:
5+ years of experience in data roles ( BI, data Engineering, or Analytics)
2+ years in a leadership or management role
Strong SQL and data modeling skills
Experience managing data pipelines and ETL processes
Experience with modern data platforms (Databricks, Snowflake, or similar)
Strong understanding of data governance and data quality frameworks
Proven ability to work with business stakeholders
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8613991
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
מיקום המשרה: רמלה
למערך טכנולוגי מוביל בענף אגמים (פיקוד העורף), דרוש/ה data Engineer להשתלבות בצוות ליבה בפרויקט בעל חשיבות לאומית.
התפקיד כולל עבודה Hands-on מקצה לקצה על תשתיות נתונים - החל משלב ה-Ingestion ממקורות מגוונים, דרך פיתוח וניהול תהליכי ETL /ELT ועד תכנון והקמה של data Warehouse ( DWH ) מתקדם.
העבודה מתבצעת בסביבה טכנולוגית מתקדמת וברשתות מסווגות, תוך שימוש בכלים מודרניים והשפעה ישירה על פרויקטים משמעותיים.
משרה מלאה, ללא היברדיות ברמלה.
דרישות:
לפחות שנתיים ניסיון כ- data Engineer (גם ג'וניור עם ניסיון מעשי) - חובה.
ניסיון בעבודה עם Airflow ו-Azure data Factory - חובה.
ניסיון בתהליכי Ingestion ובניית DWH - חובה.
שליטה גבוהה ב-SQL - חובה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589963
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בקבוצת Aman
אנחנו מגייסים data Scientist מנוסה להצטרף לפרויקט ממשלתי אסטרטגי בירושלים פרויקט INSIGHT להקמת פלטפורמה מרכזית לניתוח מידע וקבלת החלטות מבוססות דאטה. הפלטפורמה תכלול אגם מידע אגפי מבוסס נימבוס, חיבור למקורות מידע ממשלתיים, אנליטיקה מתקדמת, מודלים של ML/AI, יכולות self-service ודשבורדים לשימוש משרדי ממשלה.
דרישות:
ניסיון של 7+ שנים בתחום הדאטה, מתוכן 3+ שנים ב- data Science
ניסיון ושליטה ב- Python ו-SQL
ניסיון מוכח בבניית מודלים ויישומם בסביבות ייצור
היכרות עם Big Data, ענן וטכנולוגיות מתקדמות
יכולת הובלה עצמאית של פרויקטי data End-to-End
ניסיון עם מסדי נתונים רלציוניים/לא-רלציוניים
היכרות עם תהליכי DQA
שליטה בכלי ויזואליזציה ודיווח
רקע בפיננסים/ממשל
תואר שני ומעלה בתחומים רלוונטיים (מדעי המחשב, סטטיסטיקה, חקר ביצועים, מתמטיקה, הנדסה ) או תואר שלישי + ניסיון רלוונטי של 9 שנים ומעלה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8131003
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 4 שעות
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: ירושלים
הצטרפו לפרויקט לאומי פורץ דרך!

מחפש/ת תפקיד עם משמעות אמיתית? זה הזמן לקחת חלק בהקמה ותפעול של מערכת קריטית ברמה הלאומית.
מה בתפקיד?
פיתוח, הקמה ותפעול של מערכת מידע מתקדמת
עבודה עם דאטה מורכב וניתוח נתוני נוסעים
שיתוף פעולה עם צוותי תשתיות, סייבר, אינטגרציה ודאטה
השתלבות בפרויקט טכנולוגי רחב היקף עם השפעה ביטחונית ואזרחית
דרישות:
ניסיון בפיתוח ותפעול תשתיות דאטה ( data Engineering)
ניסיון בעבודה עם Big Data ועיבוד נתונים בהיקפים גדולים
ניסיון בפיתוח תהליכי ETL / data Pipelines
עבודה עם מסדי נתונים רלציוניים ולא רלציוניים
היכרות עם כלי אינטגרציה ועבודה בסביבה מרובת ממשקים
יכולת עבודה בצוות וראייה מערכתית
נכונות לעבודה בשעות נוספות וכוננויות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621407
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 4 שעות
דרושים בG-NESS
למשרד ממשלתי מוביל בירושלים דרוש/ה מנהל /ת פרוייקטים
דרישות:
ניסיון של לפחות 5 שנים בניהול פרויקטים טכנולוגים חוצי ארגון - יתרון
ניסיון בעבודה בפרויקטי data מורכבים ובעלי ממשקים מתודולוגיים
ניסיון בעבודה עם מערכות ענן, מערכות מבוזרות ואינטגרציה בין מערכות
ניסיון בניהול פרויקטים תקציביים גדולים (15 מיליון ומעלה)
ניסיון בפרויקטים עם שימוש ב-AI - יתרון
ניסיון בעבודה מול ספקים חיצוניים וניהול צוותי פיתוח יתרון.
4 שנות ניסיון + תואר / תואר וקורסים / הנדסאי/ת בוגר/ת מגמת מחשבים/טכנולוגיה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8315805
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a BI team leader - either an experienced team lead or a senior BI professional ready to step into a leadership role.
This is a hands-on leadership role focused on leading BI activities, working closely with customers and executives to ensure successful adoption, ongoing value, and measurable business impact.
Responsibilities
Lead and grow a BI team focused on implementation and maintenance
Act as a strategic partner to customers and C -level stakeholders
Ensure ongoing value of BI and AI models
Manage customer escalations and resolve conflicts effectively
Oversee system improvements and continuous optimization
Translate business needs into data -driven insights
Requirements:
Requirements
2+ years of experience as a BI Developer - Must
Strong experience with ETL processes and DWH systems
Proven experience in data modeling and dashboards
Strong analytical skills and high proficiency with BI tools
Experience in business process analysis
Leadership experience or strong leadership potential
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8578434
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 5 שעות
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בשירותי תקשוב ערדום
מיקום המשרה: יטבתה
אחריות על Platform Operations של Cloud-based data Platform הפועלת על גבי Google Cloud, כולל Ownership תפעולי מלא של המערכת בסביבת ה Production, התפקיד כולל אחריות על יציבות זמינות וביצועי המערכת, ניטור שוטף של data Pipelines ו data Freshness, שמירה על רמת data Quality גבוהה, אינטגרציה והטמעה שוטפת של data Sources נוספים, ניהול הרשאות ו Access Control וכן עבודה שוטפת מול גורמים פנימיים וספקים חיצוניים, תוך עמידה ב SLA ויישום נהלי תפעול וGovernance
דרישות:
Key Responsibilities:

אחריות על Day-to-Day Operations של הפלטפורמה ב-GCP.
אחריות על אינטגרציה והטמעה שוטפת של data Sources נוספים.
ניטור data Pipelines, Processing Jobs ו- data Freshness SLAs.
טיפול בתקלות תפעוליות, Schema Drift ו- data Anomalies.
ניהול IAM, Secrets Management, Access Control ו- data Governance.
עבודה שוטפת מול Stakeholders פנימיים וספקים.
תחזוקת Dashboards, APIs ו-Analytics Outputs.

Requirements
ניסיון של 3+ שנים כ data Engineer
היכרות מעשית עם Google Cloud Platform
הבנה בתהליכי data Ingestion, ELT, data Quality
ניסיון פיתוח ב Python
הבנה של עקרונות Security, IAM, data Governance
ניסיון בעבודה עם ספקים חיצונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8617410
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 6 שעות
דרושים בTechTalent
ארגון מוצר מתקדם מעולמות ה-Fintech מגייס data Engineer בכיר/ה להשתלבות במערך טכנולוגי מוביל.
הזדמנות לקחת חלק בפיתוח פתרונות data מתקדמים בסביבה חדשנית ובקבוצה מקצועית בחזית הטכנולוגיה.

תחומי אחריות:
תכנון ובנייה של פתרונות data מתקדמים
עבודה Hands-on בפיתוח באמצעות Python
שימוש והטמעה של תהליכי data Pipelines תוך עבודה עם Airflow
עבודה עם כלים מתקדמים בעולמות ה- data
שיתוף פעולה עם ממשקים טכנולוגיים כחלק מצוות מוביל
דרישות:
תואר ראשון בתחום טכנולוגי
לפחות 6 שנות ניסיון בעולמות ה- data
ניסיון מעשי בפיתוח ב- Python
ניסיון בעבודה עם Airflow
ניסיון בכלי data נוספים
אנגלית ברמה גבוהה מאוד
רקע קודם בפיתוח backend - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בOne DatAI
מיקום המשרה: שוהם
בתפקיד זה תהיה לך הזדמנות להוביל את פיתוח מוצרי הדאטה של הארגון - החל מניתוח הצורך העסקי, דרך פיתוח תהליכי עיבוד דאטה בסביבת Databricks,  ועד יצירת שכבות נתונים ופתרונות  BI  שמונגשים לביזנס בPowerBI
תחומי אחריות:
פיתוח מקצה לקצה של  data Products  ופתרונות דאטה עבור יחידות עסקיות שונות
הבנה ותרגום של צרכים עסקיים לתהליכי דאטה ישימים - כולל אפיון לוגיקות עסקיות, מודלים אנליטיים, תמיכה שוטפת ועובדה מול גורמים שונים בחברה
פיתוח תהליכי עיבוד נתונים ( ETL /ELT) בסביבת Databricks / PySpark על בסיס מקורות דאטה קיימים
יצירת שכבות נתונים אנליטיות ו?semantic layers עבור  BI  ומערכות תפעוליות
עבודה צמודה עם   data Engineering לשדרוג תהליכים קיימים והתאמתם לצרכים עסקיים
פיתוח דוחות ודשבורדים ב? Power BI
אחריות על איכות, דיוק, זמינות ותיעוד תהליכי הדאטה והמוצרים
זיהוי הזדמנויות לייעול ואוטומציה של תהליכים עסקיים באמצעות דאטה
הובלת ביקורות ושיפורים במוצרי הדאטה לאורך מחזור חייהם
דרישות:
דרישות תפקיד

2-4 שנות ניסיון בפיתוח פתרונות דאטה   BI / data Product / data Analyst
ניסיון מעשי ב?SQL  ברמה גבוהה - חובה
ניסיון מעשי ב? Python   אוPySpark   - חובה
הבנה טובה בפיתוח מודלים ו?semantic layers ל?Power BI  - חובה
ניסיון בעבודה מול משתמשים עסקיים ואפיון צרכים -  חובה
ניסיון מוכח ב  Databricks  -  יתרון משמעותי
ניסיון בעבודה עם Microsoft Azure - - יתרון משמעותי
הבנה עסקית במוצרי צריכה FMCG - יתרון
אנגלית ברמה גבוהה - קריאה, כתיבה ודיבור המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628715
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
19/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking a Mid to Senior Data Engineer to join our Cloud Identity & Perimeter, a critical component of CrowdStrike's security infrastructure. Our team develops and maintains complex data pipelines that process billions of records daily, analyzing identity-related security patterns, effective permissions, internet exposure, and attack paths. We're at the forefront of securing enterprise identities and delivering actionable security insights at scale.

What You'll Do:

Design and implement high-performance, distributed data processing pipelines handling petabytes of security data.

Architect complex data transformations using Apache Spark for large-scale batch and stream processing.

Be part of shaping new products while collaborating with product teams, customers, and sales.

Build and optimize real-time data streaming solutions using Kafka for identity analytics.

Develop and maintain scalable ETL processes that handle billions of daily events.

Create efficient data models for complex security analytics queries.

Collaborate with cross-functional teams to deliver high-impact security features.

Optimize query performance and data storage patterns for large-scale distributed systems.

Participate in system design discussions and architectural decisions.
Requirements:
What You'll Need:

5+ years of experience in data engineering or similar roles.

Strong programming skills in Go and/or Java.

Extensive experience with big data technologies (Apache Spark, Kafka).

Proven track record working with distributed databases (Cassandra, Elasticsearch).

Experience building and maintaining production-grade data pipelines.

Strong understanding of data modeling and optimization techniques.

Excellent problem-solving skills and attention to detail.

BS/MS in Computer Science or related field, or equivalent experience.


Bonus Points:

Experience with identity and access management concepts.

Knowledge of security analytics and threat detection.

Contributions to open-source projects.

Experience with cloud platforms (AWS, GCP, Azure).

Background in cybersecurity or security analytics.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616036
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Required Senior Business Analyst
The Senior Business Analyst will lead strategic and tactical initiatives across the organization, translating complex data into actionable insights and measurable business outcomes. This role requires strong ownership, independent execution, and close collaboration with cross-functional stakeholders.
Key Responsibilities:
Own and lead end-to-end analytical projects tied to core business processes, with direct impact on revenue growth, cost efficiency, and profitability.
Analyze business performance across products, channels, and customer segments, and translate insights into clear recommendations for strategic and tactical decision-making.
Build, maintain, and continuously improve reports, dashboards, and KPIs to support business monitoring and executive decision-making.
Partner with stakeholders across Strategy, Marketing, Product, Operations, and Finance to drive execution and ensure alignment with business objectives.
Conduct deep customer analysis, including segmentation, lifetime value, profitability, behavioral trends, and cohort analysis.
Work with large, complex datasets and develop scalable analytical tools to streamline processes and improve operational efficiency.
Deliver ad-hoc analyses under tight timelines to support fast-paced business decisions.
Ideal Candidate Profile:
A proactive, hands-on business analyst who takes full ownership of initiatives from problem definition through execution and measurable impact.
Strong commercial mindset with the ability to connect data insights to P&L drivers, growth levers, and profitability optimization.
Comfortable operating independently in a fast-growing, dynamic environment, while influencing stakeholders without formal authority.
Highly analytical, detail-oriented, and driven by turning data into clear actions and results.
Requirements:
Bachelors degree in a highly quantitative field (Economics, Statistics, Mathematics, Accounting, or similar) from a leading university - a must.
Exceptional Excel skills - a must.
Proven expertise in business analysis - a must.
Fluent English, written and verbal.
Strong project ownership skills with the ability to lead initiatives end-to-end with minimal guidance.
Excellent communication skills and the ability to present insights clearly to both technical and non-technical stakeholders.
Advantages:
Internship or experience at a Big 4 accounting or consulting firm.
Experience in eCommerce or an internet-based company.
Experience working with databases and large datasets, including SQL.
Experience with business intelligence, analytics, and data visualization tools (Tableau).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8612430
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
12/04/2026
Location: Herzliya
Job Type: Full Time and Hybrid work
We are looking for an AI Enablement Tech Lead to lead the development of AI-native data capabilities and drive the adoption of AI across analytics workflows.
This role is part of the Analytics & AI Enablement group within the data department and is responsible for establishing the foundational data and AI capabilities that support advanced use cases, including chat with data, autonomous analytics, and AI-driven decision-making.
You will act as a technical and strategic bridge between data, engineering, and AI platform teams - owning the design of AI-ready data layers, and taking a significant part in the specification and orchestration of data-ready agent solutions and analytical workflows, from ideation to production.
You are a hands-on builder and a transformation leader, with proven experience delivering AI solutions and a strong foundation in data and analytics.
Hybrid
Full-time
What youll do: 
Define and build AI-ready data foundations, including semantic layers optimized for LLM and AI consumption
Design and standardize AI-native analytics workflows, combining data modeling, LLMs, and orchestration frameworks
Partner with Data Engineering and AI platform teams to shape infrastructure, tooling, and data interfaces for AI use
Drive experimentation with new AI capabilities and rapidly iterate from POC to scalable solutions
Establish best practices for AI usage in analytics, including prompt design, evaluation, monitoring, and governance
Act as a technical leader and mentor, driving AI knowledge and adoption across the analytics community.
Requirements:
5+ years of experience in data roles (Analytics / BI / Data Modeling or similar)
Proven hands-on experience building and deploying AI solutions (GenAI, LLMs, agents, or ML systems)
Strong understanding of how data modeling and semantic layers support AI applications
Experience designing end-to-end AI workflows, including data preparation, orchestration, and production deployment
Familiarity with modern AI stack (LLMs, vector databases, embeddings, orchestration frameworks)
Experience taking AI initiatives from POC/MVP to scalable production systems
Strong problem-solving skills and ability to translate business needs into AI-driven solutions
Excellent collaboration skills, working across Data, Engineering, and AI teams
Comfortable operating in ambiguity and driving innovation in a fast-evolving space
Advantage: Experience building data solutions tailored for agent-based consumption (e.g., chat with your data use cases), including preparing structured, reliable, and accessible data layers for AI agents.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8605519
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a Senior Data Engineer to join our Platform group in the Data Infrastructure team.
Youll work hands-on to design and deliver data pipelines, distributed storage, and streaming services that keep our data platform performant and reliable. As a senior individual contributor you will lead complex projects within the team, raise the bar on engineering best-practices, and mentor mid-level engineers - while collaborating closely with product, DevOps and analytics stakeholders.
About the Platform group
The Platform Group accelerates our productivity by providing developers with tools, frameworks, and infrastructure services. We design, build, and maintain critical production systems, ensuring our platform can scale reliably. We also introduce new engineering capabilities to enhance our development process. As part of this group, youll help shape the technical foundation that supports our entire engineering team.
Job responsibilities:
Code & ship production-grade services, pipelines and data models that meet performance, reliability and security goals
Lead design and delivery of team-level projects - from RFC through rollout and operational hand-off
Improve system observability, testing and incident response processes for the data stack
Partner with Staff Engineers and Tech Leads on architecture reviews and platform-wide standards
Mentor junior and mid-level engineers, fostering a culture of quality, ownership and continuous improvement
Stay current with evolving data-engineering tools and bring pragmatic innovations into the team.
Requirements:
5+ years of hands-on experience in backend or data engineering, including 2+ years at a senior level delivering production systems
Strong coding skills in Python, Kotlin, Java or Scala with emphasis on clean, testable, production-ready code
Proven track record designing, building and operating distributed data pipelines and storage (batch or streaming)
Deep experience with relational databases (PostgreSQL preferred) and working knowledge of at least one NoSQL or columnar/analytical store (e.g. SingleStore, ClickHouse, Redshift, BigQuery)
Solid hands-on experience with event-streaming platforms such as Apache Kafka
Familiarity with data-orchestration frameworks such as Airflow
Comfortable with modern CI/CD, observability and infrastructure-as-code practices in a cloud environment (AWS, GCP or Azure)
Ability to break down complex problems, communicate trade-offs clearly, and collaborate effectively with engineers and product partners
Bonus Skills:
Experience building data governance or security/compliance-aware data platforms
Familiarity with Kubernetes, Docker, and infrastructure-as-code tools
Experience with data quality frameworks, lineage, or metadata tooling
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8602206
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Netanya
Job Type: Full Time and Hybrid work
Required Senior Data Engineer - Core Data Platform Team
Our Core Data Platform team
We're a leading force in the ad tech industry, revolutionizing how brands connect with their audiences. Our platform processes billions of ad impressions daily, generating massive datasets that drive our core business. We thrive on innovation and seek a Senior Data Engineer to help us build and scale the data infrastructure that powers our insights and analytics. This is a unique opportunity to work with cutting-edge technologies and make a direct impact on our products.
What will you do?
As a Senior Data Engineer, you'll be a key part of our data platform team, responsible for designing, building, and maintaining robust and scalable data pipelines. You'll work closely with data scientists, analysts, and server side engineers to ensure our data is reliable, accessible, and ready for analysis. Your expertise will be crucial in expanding our data warehouse and data lake capabilities, enabling us to deliver next-generation ad tech solutions.
Your mission will be to:
Develop and Optimize Data Pipelines: Design, build, and maintain ETL/ELT pipelines using Apache Spark to ingest, process, and transform large-scale datasets from various sources.
Manage Cloud Infrastructure: Architect and manage our data infrastructure primarily on Google Cloud Platform (GCP) or Amazon Web Services (AWS). This includes services like BigQuery, S3, GCS, EMR, and AirFlow.
Enhance Data Storage: Improve and manage our data warehouse and data lake solutions, ensuring data quality, consistency, and accessibility for business intelligence and machine learning applications.
Collaborate and Innovate: Partner with cross-functional teams to understand data needs and implement solutions that support new product features and business initiatives.
Ensure Data Integrity: Implement monitoring, alerting, and logging systems to maintain data pipeline health and ensure data accuracy.
Requirements:
7+ years of professional experience in a data engineering or similar role.
Good programming abilities. Testing your code is second nature to you. You are mindful of your applications architecture, performance, maintainability, and overall quality.
Technical skills
Strong proficiency in SQL / Java or Scala / Python.
Extensive experience with distributed data processing frameworks like Apache Spark / Flink / Hive / Trino.
Proven experience working with cloud-based data services on GCP or AWS (e.g.BigQuery, S3, GCS, EMR, DataProc).
Experience with real-time data streaming technologies like Kafka or Flink.
Deep understanding of data warehouse and data lake concepts and best practices
Knowledge of Apache Iceberg or Delta Lake
Solid understanding of IaC using Terraform
Familiarity with SQL and NoSQL databases.
Good communication skills and ability to work collaboratively within a team. You are an active listener and a dialogue facilitator, you know how to explain your decision and like sharing your knowledge.
Multiple shipped projects in Software Engineering.
Production knowledge and practices (Release, Observability, Troubleshooting, ), thanks to multiple shipped projects / applications. Strong problem-solving skills.
Nice to Have
Familiarity with containerization (Docker/OrbStack, Kubernetes).
Knowledge of the ad tech ecosystem (e.g., DSPs, SSPs, Ad Exchanges).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8601666
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/04/2026
Location: Merkaz
Job Type: Full Time and Hybrid work
We are looking for a strategic product leader to head Data Platform domain - a core area of our offering. This role is critical to the companys growth, driving both short-term impact and long-term vision for managing and leveraging massive amounts of structured and unstructured clinical data. In this role, you will lead the product strategy and execution for the domain, while guiding and mentoring product managers within the team. You will work closely with Engineering, Data Science, Clinical Experts, the rest of the Product group, as well as partners and strategic customers, shaping how our platform operates and scales to meet the needs of our growing business.
Responsibilities:
Define and drive the roadmap for Data Platform, balancing short-term business needs with long-term scalability and platform strategy.
Own the product vision for data ingestion, processing, and access, ensuring the platform supports all product groups and business initiatives.
Lead and mentor a team of product managers, fostering growth, collaboration, and a culture of ownership and impact.
Support your team in translating complex technical and data requirements into clear product specifications, prioritizing initiatives that maximize business impact.
Partner closely with Engineering, Data Science, Clinical Experts, Customer Success, the entire PM group, and external partners and strategic clients, to design and prioritize initiatives, ensuring data quality, performance, and usability.
Drive cross-team technical initiatives end-to-end, coordinating dependencies and aligning stakeholders across the organization.
Establish key metrics to measure platform performance, adoption, and impact on product outcomes.
Requirements:
4+ years of proven experience leading product teams, with a strong track record of growing people and helping them succeed.
Startup mindset: comfortable with ambiguity, fast growth, and evolving processes, while maintaining focus on scalable solutions.
Proven experience leading B2B products and collaborating with partners and strategic customers to deliver impactful solutions.
Strong technical orientation and curiosity, with the ability to quickly understand complex data systems.
Excellent communication and stakeholder management skills, able to explain complex technical concepts in clear, actionable terms.
Experience leading large-scale data platforms, including data ingestion, transformation, and access layers.
Ability to define and track success metrics, analyze performance, and iterate to optimize platform impact.
Advantages:
Familiarity with healthcare data ecosystems (EMRs, HIEs, clinical data).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8600540
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/04/2026
Location: Merkaz
Job Type: Full Time and Hybrid work
We're currently seeking a Data Research Team Lead to join our Data Research Group and help proactively drive product growth and performance through the provision of strategic product insights and deep expertise with analytical tools and techniques. You will work closely with product managers, medical analysts, and the engineering team and bring your expert analytical ability to provide key product insights, identify improvement opportunities, and drive data-informed product initiatives forward.
Responsibilities:
Lead and mentor a team of product analysts embedded across product squads, driving high-impact analytics and professional growth.
Own and shape the companys product KPI framework, driving clarity, alignment, and real-time visibility across the organization to ensure every decision is grounded in impact.
Act as a strategic thought partner to Product leadership and executive stakeholders, to translate business strategy into measurable outcomes and data-driven roadmap decisions.
Drive structured analysis around feature development, product performance, and long-term optimization.
Own and oversee analytical data pipelines, ETL processes, and BI development within the team, ensuring scalable, reliable, and well-governed data assets.
Requirements:
At least 5 years of hands-on experience in Product Analytics, working closely with Product teams on feature development, release cycles, and roadmap execution.
At least 2 years of experience in analytics leadership roles, including mentoring analysts and driving analytical direction across teams.
Proven experience operating within product timelines and influencing product decisions through data.
Strong SQL skills and experience using Python for data analysis, including hands-on work with data analysis libraries (such as Pandas, PySpark, Snowpark, or similar frameworks).
Experience building and maintaining analytical data pipelines, ETL processes, and data models supporting BI and product analytics use cases.
Demonstrated experience defining, measuring, and managing product KPIs.
Excellent stakeholder management skills, including presenting insights to senior leadership.
Promote a culture of excellence, collaboration, and continuous learning
Strong data visualization and storytelling capabilities.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8600536
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/04/2026
Location: Merkaz
Job Type: Full Time and Hybrid work
we are looking for a talented and Senior Data Engineer to join our data group.
The team is responsible for processing and transforming data from multiple external sources while building and maintaining an internal serving platform. Our key challenges include operating at scale, integrating with diverse external interfaces, and ensuring the data is served in a consistent and reliable manner.
Responsibilities:
Designing and implementing data platform
Transforming, modeling, and serving all medical data.
Utilize data best practices, to improve the product and allow data-driven decision-making.
Collaborate closely with cross-functional teams to understand business requirements and translate them into data-driven solutions.
Stay updated with the latest research and advancements in the data field.
Requirements:
6+ years of experience in software development, with at least 4-5 years as a data engineer.
Proven track record designing and implementing scalable ETL/ELT data pipelines.
Strong SQL skills.
Experience with relational and analytical data platforms (e.g., PostgreSQL, Snowflake, data lakes).
Strong coding skills (preferably in Python), with prior software engineering experience (e.g., API development) a plus.
Experience with cloud environments, AWS preferable
Previous managerial or leadership experience is a strong advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8600451
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
This role has been designed as Hybrid with an expectation that you will work on average 2 days per week from an office.

We are looking for a talented Data Engineer to help build and enhance the data platform that supports analytics, operations, and data-driven decision-making across the organization. You will work hands-on to develop scalable data pipelines, improve data models, ensure data quality, and contribute to the continuous evolution of our modern data ecosystem.

Youll collaborate closely with Senior Engineers, Analysts, Data Scientists, and stakeholders across the business to deliver reliable, well-structured, and well-governed data solutions.


What Youll Do:

Engineering & Delivery

Build, maintain, and optimize data pipelines for batch and streaming workloads.

Develop reliable data models and transformations to support analytics, reporting, and operational use cases.

Integrate new data sources, APIs, and event streams into the platform.

Implement data quality checks, testing, documentation, and monitoring.

Write clean, performant SQL and Python code.

Contribute to improving performance, scalability, and cost-efficiency across the data platform.

Collaboration & Teamwork

Work closely with senior engineers to implement architectural patterns and best practices.

Collaborate with analysts and data scientists to translate requirements into technical solutions.

Participate in code reviews, design discussions, and continuous improvement initiatives.

Help maintain clear documentation of data flows, models, and processes.

Platform & Process

Support the adoption and roll-out of new data tools, standards, and workflows.

Contribute to DataOps processes such as CI/CD, testing, and automation.

Assist in monitoring pipeline health and resolving data-related issues.
Requirements:
What Were Looking For

2-5+ years of experience as a Data Engineer or similar role.

Hands-on experience with Snowflake (mandatory)-including SQL, modeling, and basic optimization.

Experience with dbt (or similar)-model development, tests, documentation, and version control workflows.

Strong SQL skills for data modeling and analysis.

Proficiency with Python for pipeline development and automation.

Experience working with orchestration tools (Airflow, Dagster, Prefect, or equivalent).

Understanding of ETL/ELT design patterns, data lifecycle, and data modeling best practices.

Familiarity with cloud environments (AWS, GCP, or Azure).

Knowledge of data quality, observability, or monitoring concepts.

Good communication skills and the ability to collaborate with cross-functional teams.


Nice to Have:

Exposure to streaming/event technologies (Kafka, Kinesis, Pub/Sub).

Experience with data governance or cataloging tools.

Basic understanding of ML workflows or MLOps concepts.

Experience with infrastructure-as-code tools (Terraform, CloudFormation).

Familiarity with testing frameworks or data validation tools.

Additional Skills:

Cloud Architectures, Cross Domain Knowledge, Design Thinking, Development Fundamentals, DevOps, Distributed Computing, Microservices Fluency, Full Stack Development, Security-First Mindset, User Experience (UX).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8598093
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Required ML Data Engineer
Israel: Tel Aviv/ Hybrid (Israel)
R&D | Full Time | Job Id: 24792
Key Responsibilities
Your Impact & Responsibilities:
As a Data Engineer - AI Technologies, you will be responsible for building and operating the data foundation that enables our LLM and ML research: from ingestion and augmentation, through labeling and quality control, to efficient data delivery for training and evaluation.
You will:
Own data pipelines for LLM training and evaluation
Design, build and maintain scalable pipelines to ingest, transform and serve large-scale text, log, code and semi-structured data from multiple products and internal systems.
Drive data augmentation and synthetic data generation
Implement and operate pipelines for data augmentation (e.g., prompt-based generation, paraphrasing, negative sampling, multi-positive pairs) in close collaboration with ML Research Engineers.
Build tagging, labeling and annotation workflows
Support human-in-the-loop labeling, active learning loops and semi-automated tagging. Work with domain experts to implement tools, schemas and processes for consistent, high-quality annotations.
Ensure data quality, observability and governance
Define and monitor data quality checks (coverage, drift, anomalies, duplicates, PII), manage dataset versions, and maintain clear documentation and lineage for training and evaluation datasets.
Optimize training data flows for efficiency and cost
Design storage layouts and access patterns that reduce training time and cost (e.g., sharding, caching, streaming). Work with ML engineers to make sure the right data arrives at the right place, in the right format.
Build and maintain data infrastructure for LLM workloads
Work with cloud and platform teams to develop robust, production-grade infrastructure: data lakes / warehouses, feature stores, vector stores, and high-throughput data services used by training jobs and offline evaluation.
Collaborate closely with ML Research Engineers and security experts
Translate modeling and security requirements into concrete data tasks: dataset design, splits, sampling strategies, and evaluation data construction for specific security use.
Requirements:
3+ years of hands-on experience as a Data Engineer or ML/Data Engineer, ideally in a product or platform team.
Strong programming skills in Python and experience with at least one additional language commonly used for data / backend (e.g., SQL, Scala, or Java).
Solid experience building ETL / ELT pipelines and batch/stream processing using tools such as Spark, Beam, Flink, Kafka, Airflow, Argo, or similar.
Experience working with cloud data platforms (e.g., AWS, GCP, Azure) and modern data storage technologies (object stores, data warehouses, data lakes).
Good understanding of data modeling, schema design, partitioning strategies and performance optimization for large datasets.
Familiarity with ML / LLM workflows: train/validation/test splits, dataset versioning, and the basics of model training and evaluation (you dont need to be the primary model researcher, but you understand what the models need from the data).
Strong software engineering practices: version control, code review, testing, CI/CD, and documentation.

Ability to work independently and in collaboration with ML engineers, researchers and security experts, and to translate high-level requirements into concrete data engineering tasks. 
Nice to Have 
Experience supporting LLM or NLP workloads, including dataset construction for pre-training / fine-tuning, or retrieval-augmented generation (RAG) pipelines. 
Familiarity with ML tooling such as experiment tracking (e.g., Weights & Biases, MLflow) and ML-focused data tooling (feature stores, vector databases). 
Background in security / cyber domains (logs, alerts, incidents, SOC workflows) or other high-volume, high-variance data environments. 
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597480
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Ready to lead the way in building our next-gen data platforms? Join us and shape the future of secure connectivity!
We are looking for a Data Engineering Team Leader with deep expertise in building and managing data pipelines and streaming architecture.
Job Id: 24787
This role is ideal for an experienced and proactive leader with strong technical skills in distributed systems and data platforms. You will drive the architecture, design, and development of scalable data ingestion and processing solutions. This is an exciting opportunity to join a growing product in an enterprise environment with significant impact and room for professional growth.
This job is located in Tel Aviv (hybrid).
About Us:
Were creating the industrys leading SASE platform, merging advanced security with seamless connectivity. Our mission is to empower businesses to thrive in a cloud-first world, and data is at the heart of this transformation.
Key Responsibilities:
Inspire and mentor a top-tier data engineering team to deliver mission-critical solutions
Architect and optimize data ingestion, enrichment, and storage for massive scale and reliability
Collaborate with cross-functional teams to ensure seamless integration and data availability
Define best practices and enforce engineering excellence across the data domain.
Requirements:
4+ years of hands-on experience in data engineering, with strong knowledge of streaming technologies (Kafka/MSK, Flink) and distributed systems on AWS
2+ years of leadership experience in data engineering or related fields.
Strong development skills in Java and deep understanding of data modeling, ETL, and real-time analytics
Experience in developing and maintain a multi-tenant SaaS solution on top of AWS
Experience with React - advantage
A natural leader with strong communication skills and a can-do, hands-on approach.
BSc in computer science/software engineering (or equivalent).
Fluent English (written & spoken).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597474
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are rapidly expanding and is looking for an experienced Business Analyst that will join us for an interesting and challenging role.
Job Id: 22566
As a Business Analyst in one of the worlds largest cyber companies, you will be at the center of all strategic decision-making in your business area.
Key Responsibilities
Analyze, optimize and build business models for our products, pricing, promotions, competitor trends, activities, KPIs, and business units as key part of strategic decisions.
Define metrics to evaluate performance; build reporting/dashboards to track performance and maintain it.
Create insight beyond numbers and help to influence, support and execute our strategic business decisions.
Create budget plans, bookings plans and targets for the related departments and businesses.
Communicate key metrics and insights to various partners and stakeholders clearly and effectively.
Requirements:
Bachelor's degree from a leading university in Economics, Business Administration or related quantitative field.
3-5 years of business experience.
Fluent in English.
Strong analytical, data mining and modelling skills.
Drive execution, initiate projects and manage them from start to end.
Process-oriented, well-organized, autonomous learner.
Experience working with Excel and MS office.
Excellent written and oral communication and good interpersonal skills.
Please share your GPA and psychometric score in your CV/ application form.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597443
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
Required Data Engineer
Israel: Tel Aviv/ Hybrid (Israel)
R&D | Full Time | Job Id: 25316
Why Join Us?
We are building next-generation GenAI security intelligence and SaaS Security Posture Management (SSPM) solutions that protect enterprises worldwide. If you enjoy turning complex security data into actionable insights and delivering end-to-end systems, this role is for you.
About the role:
You will own, build, and maintain our Pythonic data pipeline and enrichment system on top of PostgreSQL and BigQuery. This system powers security analytics, detections, and intelligence. A core part of your job will be to design and implement new components, improve reliability and performance, and ensure data quality and observability.
Key Responsibilities:
Own, build, and maintain production data pipelines and enrichment services using Python, PostgreSQL, and BigQuery.
Architect data systems end to end, including design, deployment, monitoring, and iterative improvement.
Analyze complex security datasets and SaaS telemetry to uncover risks, patterns, and opportunities.
Research emerging threat vectors and contribute to automated intelligence feeds and published reports.
Work across security domains such as SSPM, Shadow Integrations, DLP, and GenAI Protection.
Requirements:
4+ years in data-focused roles (engineering, analytics, science)
Strong SQL and Python skills
Experience with cloud platforms (GCP, AWS, Azure) and modern data warehouses (BigQuery, Databricks)
Proven ability to build data infrastructure from scratch
Ability to turn complex data into actionable insights
Fast learner with systematic problem-solving skills
Comfortable with technical research in unfamiliar domains
Independent and determined, with strong collaboration skills
BSc in Computer Science, Mathematics, Statistics, or related field
Excellent communication skills for technical and non-technical audiences.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597109
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a talented Data Engineer to join our analytics team in the Big Data Platform group.
Job Id: 25380
You will support our product and business data initiatives, expand our data warehouse, and optimize our data pipeline architecture with an AI first attitude.
The ideal candidate is experienced in leveraging AI tools as part of modern data pipeline development, enabling scalable solutions, accelerating delivery, and continuously exploring new approaches and technologies.
The right candidate is excited by the prospect of building the data architecture for the next generation of products and data initiatives.
This is a unique opportunity to join a team full of outstanding people making a big impact on us.
We work on multiple products in many domains to deliver truly innovative solutions in the Cyber Security and Big Data realm.
This role requires the ability to collaborate closely with both R&D teams and business stakeholders, to understand their needs and translate them into robust and scalable data solutions.
Key Responsibilities
Maintain and develop enterprise-grade Data Warehouse and Data Lake environments
Create data infrastructure for various R&D groups across the organization to support product development and optimization
Work with data experts to assist with technical data-related issues and support infrastructure needs
Identify, design, and implement internal process improvements: automating manual processes, optimizing data delivery, redesigning infrastructure for scalability
Build and maintain robust ETL/ELT pipelines for data ingestion, transformation, and delivery across various systems
Incorporate AI-assisted tools into data pipeline design, development, and optimization to improve efficiency, scalability, and innovation
Requirements:
B.Sc. in Engineering or a related field
3+ years of experience as a Data Engineer working on production systems
Advanced SQL knowledge and experience with relational databases
Proven experience using Python
Hands-on experience building, optimizing, and automating data pipelines, architectures, and data sets
Experience in creating and maintaining ETL/ELT processes
Strong project management and organizational skills
Strong collaboration skills with both technical (R&D) and non-technical (business) teams
Experience using AI tools as part of the data engineering workflow, with a mindset of experimentation, working at scale, and exploring new technologies
Advantage: Azure data services, Databricks, EventHub, and Spark.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597003
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
29/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a Product Data Director to lead our global product data strategy and governance. In this role, you will own the vision, implementation, and continuous improvement of how data is captured, structured, and leveraged across our product ecosystem. Youll partner closely with Product, Engineering, BI, and Operations teams to ensure data excellence, enable data-driven decision-making, and unlock insights that enhance our products, customer experience, and business growth.
Responsibilities:
Develop and execute a comprehensive product data strategy aligned with our business goals.
Define and own data standards, taxonomy, and governance frameworks across all product lines.
Partner with Product, BI, and Engineering to design scalable data models and infrastructure supporting product analytics, reporting, and performance tracking.
Lead a cross-functional data excellence initiative, ensuring high-quality, accurate, and consistent data.
Work with product managers to embed data-driven decision-making in product planning, experimentation, and optimization processes.
Oversee the implementation of data instrumentation and tracking for new product launches.
Collaborate with the Analytics and Data Engineering teams to ensure data availability and reliability across systems.
Requirements:
8+ years of experience in data strategy, analytics, or product data management, ideally within fintech, SaaS, or payments.
Proven track record of building and scaling product data frameworks and governance models.
Strong understanding of data architecture, pipelines, and data quality management.
Experience working with data visualization tools (e.g., Tableau, Power BI, Looker) and SQL-based analysis.
Excellent stakeholder management and communication skills, with the ability to influence senior leaders.
Bachelors or Masters degree in Data Science, Computer Science, Information Systems, or related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8595035
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו