משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בריקרוטיקס בע"מ
Location: More than one
Job Type: Full Time and Hybrid work
We are a pioneer company that integrates statistics modules and algorithms with a passion to sports, mainly soccer.
We are looking for a data analyst to join our research department. The data analyst function will support several stakeholders in our company.
As a part of your job you'll be:
Working with the research team and be the one to look and understand the bigger picture.
Learning the data gathering mechanism.
Face and solve business problems by analyzing data and provide insights to the business.
Develop complex logic flows to identify predefined events and generate desired insights.
Support the researchers on their projects.
Responsible for conducting both recurring and ad hoc analysis for business stake holders.
Research and integrate new tools and methods to enrich datasets.
Requirements:
A least 2 years of experience as a data Analyst - a must
High hands-on SQL skills ( SQL server ) - a must
R or Python programming skills- a must
Knowledge in statistics - a must
Interest in FinTech, Algo Trading - an advantage
Interest in sports (soccer in particular) - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8480663
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים ביוביטק סולושנס
Job Type: Full Time
We are looking for a hands-on data Tech Lead to build and grow our Azure data practice from the ground up.
This role combines deep technical expertise with business impact and ownership.
What youll do:
Lead the end-to-end data domain within the company
Design and implement modern data platforms on Azure
Work with technologies such as Microsoft Fabric, Azure data Factory, Azure SQL, Synapse, Power BI
Drive customer engagements - from pre-sale and architecture to hands-on delivery
Act as a trusted advisor for customers on data strategy, analytics, and AI-driven insights
Build best practices, methodologies, and scalable solutions
Requirements:
What were looking for:
Strong hands-on experience with Azure data services
Experience building data pipelines, data warehouses/lakehouses, and BI solutions
Ability to work directly with customers (both technical and business stakeholders)
Experience in pre-sales / solution design - big advantage
Entrepreneurial mindset - ability to build a domain, not just execute tasks
Why join us:
Opportunity to build a new domain from scratch
High ownership and real impact
Work with cutting-edge Azure and AI technologies
Small, strong team with a startup mindset
The position is open to both women and men
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8590082
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בפרוסיד
מיקום המשרה: כפר סבא
סוג משרה: משרה מלאה
פרוסיד מגייסת Marketing Analytics Engineer ל-50% משרה!

תפקיד אנליטי-טכנולוגי בסביבה דיגיטלית מתקדמת, עם חיבור ישיר לעולמות השיווק, הדאטה והקמעונאות. הזדמנות לעבוד עם לקוחות משמעותיים ולהשפיע על החלטות עסקיות מבוססות דאטה.

במסגרת התפקיד:

ניתוח ביצועי קמפיינים, אפליקציות ומסעות לקוח (המרות, LTV, ROAS, Retention ועוד)
בניית סגמנטים מבוססי התנהגות וערך לקוח
כתיבת שאילתות SQL וחיבור למקורות דאטה
בנייה, תחזוקה ושיפור של דשבורדים ודוחות KPI
הפקת תובנות עסקיות והמלצות לפעולה
עבודה שוטפת מול צוותי שיווק, דיגיטל, סחר ומערכות מידע

*עבודה במודל 100% היברידי*
דרישות:
דרישות:
1-2 שנות ניסיון באנליזה / BI / דאטה - חובה
שליטה טובה ב-SQL - חובה
ניסיון בבניית דשבורדים בכלי BI (Looker / Power BI / Tableau או דומה) - חובה
הבנה בעולמות שיווק דיגיטלי (פאנלים, מסעות לקוח, מדדים עסקיים) - חובה
רקע בעולמות הקמעונאות (Retail), כולל עבודה עם חנויות פיזיות ואונליין, Omnichannel, מבצעים ועונתיות- יתרון משמעותי.
ניסיון עם Google Cloud / BigQuery / GA4 - יתרון משמעותי
היכרות עם מערכות Marketing Automation או CDP כגון Emarsys, salesforce - יתרון
ניסיון עם GTM- יתרון
ניסיון עם Python או R- יתרון
תואר רלוונטי (סטטיסטיקה, כלכלה, מדעי נתונים, תעשייה וניהול)- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589376
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data -driven solutions for the business.

Key Responsibilities:
Design, develop, and optimize ETL /ELT pipelines for large-scale data processing.
Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
Troubleshoot and optimize queries and jobs for performance improvements.
Implement best practices for data governance, security, and monitoring.
Stay updated with industry trends and emerging technologies
Requirements:
4 years of experience in data engineering or related fields.
Proficiency in Python for data processing and automation (mandatory).
Deep understanding of Apache Spark and Databricks for Big Data processing (mandatory).
Experience with Git (mandatory).
Expertise in Apache Airflow for workflow orchestration.
Familiarity with cloud-based environments, particularly Azure.
Advanced proficiency in SQL and query optimization.
Familiarity with data modeling, ETL /ELT principles, and performance tuning.
Knowledge of CI/CD and containerization (Docker).
An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8593710
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בהשמה גרופ גיוס ויעוץ בע"מ
סוג משרה: משרה מלאה
השמה גרופ מגייסת לחברה קמעונאית מנהל /ת תחום דאטה להובלת שימוש חכם במידע לצורך קבלת החלטות, שיפור ביצועים והגדלת מכירות.
התפקיד כולל:
הובלת אסטרטגיית הדאטה בחברה והטמעתה מול יחידות עסקיות (מכירות, רכש, שיווק ועוד).
בניית תשתיות מדידה, דוחות ודשבורדים ניהוליים.
ניתוח נתונים חוצה ארגון והפקת תובנות יישומיות.
עבודה צמודה עם הנהלה בכירה לניהול ביצועים ושיפור תוצאות.
ניהול פרויקטים בתחום BI ודאטה, כולל עבודה מול ספקים חיצוניים/ מערכות מידע.
ניהול צוות.
דרישות:
השכלה רלוונטית.
ניסיון קודם בתפקיד אנילטי משמעותי בארגון עסקי- חובה.
שליטה מלאה ב-SQL וכלי POWER BI.
יכולת להבין תהליכים עסקיים ולתרגם אותם למדדים ולניתוח.
יכולת הצגה ותקשורת בין אישית גבוהה מול הנהלה וגורמים מרובים.
ניסיון מוכח בניהול עובדים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8520324
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
לחברת סקיוריטי בעולם הרכב דרוש/ה data Engineer
טכנולוגיות מרכזיות:
Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
תיאור המשרה:
תכנון, פיתוח ותחזוקה של צינורות דאטה סקיילביליים לקליטה ועיבוד של נתוני Batch ב- data Lake, תוך הקפדה על איכות נתונים, ממשל נתונים (Governance), נראות (Observability) ו-CI/CD.
פיתוח והרחבת תשתיות הדאטה הבסיסיות, כולל data Lake, מנוע אנליטיקה ומסגרות לעיבוד Batch.
בניית תשתיות יציבות לאוטומציה של תהליכי קליטה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלי Open-Source ופתרונות Cloud-Agnostic.
פיתוח ותחזוקת ארכיטקטורות ומבני data Lake לגישה יעילה לנתונים ואנליטיקה מתקדמת.
פיתוח וניהול כלי אורקסטרציה, Governance, גילוי נתונים ( data Discovery) ועוד.
עבודה שוטפת עם חברי צוות נוספים - ארכיטקטי דאטה, אנליסטים ודאטה סיינטיסטים - בגישה מבוססת Use-Cases לבניית זרימות דאטה טכנולוגיות.
אחריות מקצה לקצה (End-to-End Ownership) וגישה פרואקטיבית
דרישות:
תואר ראשון במדעי המחשב / הנדסה או תחום רלוונטי
לפחות 4 שנות ניסיון בתכנון ובניית צינורות דאטה, כלי אנליטיקה ו- data Lakes
ניסיון בטכנולוגיות data Engineering: כלי ETL ואורקסטרציה (כגון Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כגון Spark, Kafka, Presto)
ניסיון מוכח ב Python - חובה
ניסיון בעבודה עם מוצרי Open-Source - יתרון
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כגון Kubernetes) - יתרון
ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכד) - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8531732
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
קצת על התפקיד
אנו מחפשים מפתח/ת BI  מנוסה עם יכולות אנליטיות גבוהות והבנה טובה של ארכיטקטורת דאטה.
המועמד/ת המתאים/ה ישתלב בקבוצת ה- BI ויהיה אחראי/ת על פיתוח פתרונות אנליטיקה ברמה הארגונית, בעולמות תוכן מגוונים ובטכנולוגיות מתקדמות.             

אופי התפקיד:
- פיתוח ויישום פתרונות BI  מתקדמים ותובנות עסקיות מנתונים מורכבים.
- הגדרת ויישום מטריקות KPI מרכזיים עבור תהליכי פיתוח בעולמות התוכן המגוונים
- גיבוש קונספט ותכנון פתרונות אנליטיים
- עבודה עם טכנולוגיות מובילות בארכיטקטורות  BI וניתוח מידע
דרישות:
מה אנחנו מחפשים:
- תואר ראשון בהנדסת מערכות מידע, תעשייה וניהול, מדעי המחשב או תחום רלוונטי אחר
- 3 שנות ניסיון בפיתוח דוחות ודשבורדים בכלי ניתוח נתונים
- 3 שנות ניסיון מעשי ב-SQL מורכבים, פתרון בעיות וכוונון שאילתות
- כישורים אנליטיים מעולים והתמצאות בנתונים
- הבנה של ארכיטקטורת BI : DWH, ETL  ומידול נתונים
- ניסיון בפיתוח OBIEE או כלי פיתוח BI  אחר (Qlik View, Tableau) - יתרון
- ניסיון בפיתוח ETL - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8576355
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בהורייזן טכנולוגיות
לארגון ממשלתי מוביל בתל אביב (עבודה היברידית) דרוש/ה אנליסט/ית נתונים גיאו-מרחביים לעבודה עם מודלים תלת-ממדיים ונתוני מיפוי מתקדמים.
התפקיד כולל ניתוח ועיבוד נתונים גיאוגרפיים מורכבים ממגוון מקורות, לצורך בניית תאום דיגיטלי (Digital Twin) למדינת ישראל, תוך עבודה עם ענני נקודות, מודלים פוטוריאליסטיים וצילומי אוויר.
במסגרת התפקיד:

ניתוח נתונים מענני נקודות, מודלי גבהים ומודלים תלת-ממדיים ממגוון סנסורים.
עבודה עם שכבות אורתופוטו, צילומי אוויר ונתוני גבהים לצורכי תכנון וקבלת החלטות.
ביצוע בקרת איכות לתוצרים גיאו-מרחביים ממקורות שונים (רחפנים, לוויינים ועוד).
עיבוד וטיוב נתונים והטמעתם במערכות מידע ובסיסי נתונים.
מיפוי ופיענוח תלת-ממדי כולל פוטוגרמטריה וסטריאו.
עיבוד וקלסיפיקציה של נתוני LiDAR וענני נקודות.
עבודה בצוות רב-תחומי לשיפור תהליכים ושיטות עבודה.
דרישות:
ניסיון של שנתיים ומעלה בתחומי GIS / פוטוגרמטריה / עיבוד נתונים גיאו-מרחביים.
ניסיון בעבודה עם ענני נקודות (LiDAR, פוטוגרמטריה).
ניסיון בעבודה עם מודלים תלת-ממדיים ומודלים פוטוריאליסטיים.
ניסיון בביצוע בקרת איכות למוצרי אורתופוטו ותלת-ממד.
ניסיון בעבודה עם כלי GIS כגון: ArcMap, QGIS.
היכרות עם AutoCAD (CAD) - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8592754
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בפרוסיד
ארגון פיננסי גדול מגייס ראש צוות Cloud AI לתפקיד שמשלב הובלה טכנולוגית וניהול צוות, לצד עבודה Hands-on בפיתוח פתרונות data מתקדמים בענן.

תיאור התפקיד:
הובלה מקצועית וטכנולוגית של צוות פיתוח
תכנון ארכיטקטורת מערכות data מורכבות
פיתוח פתרונות מבוססי Cloud ו-AI לשיפור תהליכים עסקיים
עבודה עם Databricks ופלטפורמות data בענן Azure
הובלת פרויקטים חוצי ארגון ועבודה מול משתמשים עסקיים
תכנון תכניות עבודה וניהול משימות בצוות
דרישות:
ניסיון בניהול עובדים או הובלה טכנולוגית משמעותית
ניסיון בפיתוח Python ושליפות SQL מורכבות
ניסיון בעבודה עם טכנולוגיות Cloud
ניסיון בעבודה עם Databricks / data Factory או כלים דומים
ניסיון בהובלת פרויקטים מורכבים ועבודה מול ממשקים מרובים
אנגלית ברמה טובה

נשמע רלוונטי?
שלחו קורות חיים ונשמח להכיר המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8569404
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בלוגיקה IT
מיקום המשרה: מספר מקומות
לארגון ממשלתי גדול ויציב, דרוש מנהל או מנהלת פרויקטים להובלת פרויקט דאטה אסטרטגי של מעבר מתשתיות מקומיות לפלטפורמת דאטה מתקדמת בענן GCP.

מדובר בתפקיד ליבה עם השפעה רחבה על הארגון, המשלב הובלה טכנולוגית, ניהול פרויקט מורכב ועבודה עם צוותי דאטה וארכיטקטורה.

ניתן לעבוד מתל אביב או מירושלים

משרה היברידית עם שילוב עבודה מהבית

תחומי אחריות
הובלת פרויקט מיגרציית דאטה מקצה לקצה משלב התכנון ועד עלייה לייצור
ניהול ישיר של צוות data Engineers והובלת העבודה השוטפת
עבודה צמודה עם ארכיטקטים, צוותי תשתיות, BI ואבטחת מידע
הובלה מקצועית של פיתוח תהליכי דאטה, בניית טבלאות ומידול נתונים
תכנון והטמעת פלטפורמת דאטה בענן GCP כולל BigQuery ו Dataform
ניהול לוחות זמנים, תעדוף משימות, פתרון חסמים והובלת Delivery
אחריות גם על שלב הייצוב והמשך הפיתוח לאחר המיגרציה
דרישות:
ניסיון מוכח בניהול פרויקטים טכנולוגיים מורכבים או ניסיון ניהול צוות - חובה
רקע קודם כ data Engineer עם ניסיון Hands On חובה
ניסיון בעבודה עם DWH, תהליכי ETL או ELT ומידול נתונים
ניסיון בהובלת פרויקטי מיגרציה לענן יתרון משמעותי
ניסיון בענן GCP או ניסיון בענן אחר עם נכונות לעבוד ב GCP
תואר אקדמי בהנדסה / מדעי המחשב או תואר אקדמי אחר עם קורסים טכנולוגיים מתקדמים או בוגר/ת צה"ל יחידה טכנולוגית - חובה
היכרות עם BigQuery, Dataform, Snowflake או Databricks יתרון
יכולת הובלה, ראייה מערכתית ותקשורת בין אישית גבוהה

אופי התפקיד
תפקיד הובלה והכוונה מקצועית ללא פיתוח יומיומי
עבודה מול ממשקים רבים בסביבה ארגונית מורכבת
ניהול ישיר של צוות data Engineers ועבודה עם ארכיטקטים
שילוב בין אחריות על Delivery לבין עומק טכנולוגי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8583940
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: יקום
סוג משרה: משרה מלאה
אנחנו מחפשים מפתח/ת ETL מנוסה להצטרף לצוות האוטומציה והאינטגרציה שלנו, לתפקיד מאתגר ודינמי הכולל פיתוח ותחזוקה של תהליכי העברת נתונים מורכבים בין מערכות ובסיסי נתונים, כחלק ממערכת האוטומציה הארגונית של החברה, תוך שימוש בApache NiFi, Oracle וSQL מתקדם.
התפקיד משלב עבודה אינטנסיבית עם שאילתות SQL מורכבות, טרנספורמציות נתונים, גזירות לוגיות ומניפולציות על מידע, המועבר בין מערכות שונות כחלק מתהליכי אוטומציה ואינטגרציה ארגוניים.
דרישות:
לפחות שנה ניסיון בפיתוח ETL או תהליכי data Integration
ניסיון בפיתוח Apache NiFi ותהליכי data Flow
היכרות טובה עם Linux ועבודה בCLI
ניסיון חזק בSQL: Join-ים מורכבים, Subqueries, Aggregations וTransformations המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525495
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
התפקיד כולל אחריות על תהליכי קליטה, עיבוד וניתוח נתונים, וכן פיתוח יישומים מבוססי דאטה על גבי פלטפורמת Splunk (כמו דשבורדים, אנליזות והתראות).
דרישות:
-ניסיון מוכח כ- data Engineer תהליכי ETL, עולמות data Pipelines ואינטגרציה בין מקורות מגוונים.
-ידע וניסיון בעבודה עם מערכות לינוקס.
-שליטה בשפות scripting כגון Python וShell.
-הכרות עם מימוש יישומים מבוססי דאטה דשבורדים, דוחות, אנליזות או מערכות ניטור.
-ניסיון בעבודה עם Splunk  יתרון משמעותי.
-ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) יתרון.
-תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8411908
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתחום ה-Fintech דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה שכוללת פיתוח בעולמות ה- data, שימוש ב- Python
שימוש ב-Airflow כלי data מתקדמים וכן עבודה בצוות חוד בחברה.
דרישות:
תואר ראשון טכנולוגי
לפחות 6 שנות ניסיון בעולמות data - חובה
רקע בפיתוח backend - יתרון אך לא חובה
ניסיון ב- Python - חובה
ניסיון ב-Air Flow
ניסיון בכלי data נוספים
אנגלית טובה מאוד המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8580111
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בנס טכנולוגיות
מיקום המשרה: רעננה
ל NESS דרוש/ה מנהל /ת פרויקט הקמת פלטפורמת data בענן GCP
התפקיד כולל ניהול כולל של פרויקט data Lakehouse רחב- היקף בענן, ניהול של אספקת השירותים End to End Delivery, אחריות על תכנון, ביצוע ובקרה של תוכנית עבודה רב שנתית, ניהול תקציב, ניהול איכות עמידה בSLA, שיפור תהליכים, ניהול והובלת צוותים רב תחומיים.
משרה מלאה והיברידית ברעננה.
דרישות:
בעל/ת תואר ראשון - חובה.
ניסיון של 5 שנים ומעלה בניהול פרויקטים בעולמות הדאטה וה- IT - חובה.
ניסיון מוכח בניהול פרויקטים עתירי תקציב ובעלי ריבוי בעלי עניין - חובה.
ניסיון ניהול דליברי מתמשך ולא רק בפרויקט הקמה - חובה.
ניסיון בעבודה מול לקוחות ממשלתיים / ציבוריים - חובה.
הבנה עמוקה בעולמות data, DWH, Lakehouse, BI - חובה.
ניסיון בניהול פרויקטי דאטה בסביבת ענן ציבורי (עדיפות ל- GCP) - חובה.
ניסיון בניהול תקציב, תמחור, מעקב שעות ורווחיות - חובה.
ניסיון בהגדרת וניהול מדדי איכות, KPI, SLA וניהול סיכונים - חובה.
ניסיון בעבודה עם תוכניות עבודה, גאנטים ודוחות ניהוליים - חובה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8522647
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בתבל מטרו בע"מ
סוג משרה: משרה מלאה
התפקיד כולל תכנון, ניתוח ובקרה של לוחות זמנים רכבתיים ותפעוליים, בהתאם לצרכים הארגוניים, הנחיות רגולטוריות ודרישות השטח. התפקיד דורש תיאום בין גורמים פנים-ארגוניים וחיצוניים, הפקת דוחות ביצוע, ניהול תרחישי חירום והובלת תהליכי אופטימיזציה לשיפור היעילות התפעולית.

- בניית לוחות זמנים רכבתיים בהתאם לדרישות תפעוליות, תשתיות מסילה ושעות עומס/שפל.
- תיאום ואישור לוחות זמנים מול גורמים פנים-ארגוניים, רגולטוריים (כגון משרד התחבורה) ובעלי עניין נוספים.
- הפצת לוחות הזמנים לגורמי התפעול: נהגים, מרכז בקרת תנועה, תחזוקה ועוד.
- בניית סידורי עבודה לנהגים בהתאם ללוחות הזמנים ולתקנות עבודה ומנוחה.
- ניתוח דוחות ביצוע, עמידה בזמנים ושיפור מתמיד של תהליכי התכנון.
- ניהול שינויים ותרחישי חירום - עבודות תשתית, שיבושים או אירועים חריגים.
- שיתוף פעולה שוטף עם מחלקות הנהגים, הבקרה והתחזוקה.
דרישות:
- ניסיון בתכנון לוחות זמנים בתחבורה ציבורית / רכבות - יתרון משמעותי.
- ניסיון בעבודה עם מערכות מידע תחבורתיות- יתרון משמעותי.
- היכרות עם מערכות תכנון ובקרה מתקדמות.
- הבנה ברגולציה ובתקנות עבודה בענף התחבורה הציבורית.
- רקע בהנדסת תחבורה / לוגיסטיקה / מערכות תנועה.
- יכולת אנליטית גבוהה, ירידה לפרטים וחשיבה מערכתית.
- שליטה בExcel, Power BI או כלי ניתוח נתונים אחרים.
- ניסיון בעבודה עם ממשקים מרובים ויכולת תיאום בין גורמים.
- יחסי אנוש מעולים, אחריות ויכולת עבודה עצמאית.
- עברית ואנגלית ברמה טובה מאוד. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8588884
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Herzliya
Job Type: Full Time
Responsibilities
Design, build, and maintain scalable ETL/ELT pipelines to integrate data from diverse sources, optimizing for performance and cost efficiency.
Leverage Databricks and other modern data platforms to manage, transform, and process data
Collaborate with software teams to understand data needs and ensure data solutions meet business requirements.
Optimize data processing workflows for performance and scalability.
Requirements:
5+ years of experience in Data Engineering, including cloud-based data solutions.
Proven expertise in implementing large-scale data solutions.
Proficiency in Python, PySpark.
Experience with ETL / ELT processes.
Experience with cloud and technologies such as Databricks (Apache Spark).
Strong analytical and problem-solving skills, with the ability to evaluate and interpret complex data.
Experience leading and designing data solutions end-to-end, integrating with multiple teams, and driving tasks to completion.
Advantages
Familiarity with either On-premise or Cloud storage systems
Excellent communication and collaboration skills, with the ability to work effectively in a multidisciplinary team.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8593222
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Herzliya
Job Type: Full Time
The Security Models Training team builds and operates the large‑scale AI training and adaptation engines that power Security products, turning cutting‑edge research into reliable, production‑ready capabilities.
As Lead Applied Scientist, you will own end‑to‑end model development for security scenarios, set technical strategy across multiple model efforts and teams, including developing new model architectures, continual pre‑training, task‑focused fine‑tuning, reinforcement learning, and objective, benchmark‑driven evaluation.
You will drive training efficiency and reliability on distributed GPU systems, deepen model reasoning and tool‑use capabilities, and embed Responsible AI, privacy, and compliance into every stage of the workflow. The role is hands‑on and impact‑focused, partnering closely with engineering and product to translate innovations into shipped, measurable outcomes, defining quality gates and readiness criteria across teams, and mentoring senior scientists and engineers to scale results across globally distributed teams.

You will combine strong coding, experimentation, and debugging skills with a systems mindset to accelerate iteration cycles, improve throughput and cost‑effectiveness, and help shape the next generation of secure, trustworthy AI for our customers.
Responsibilities:
Youll work as part of an Applied Science team on high-impact, technically ambitious AI projects that directly shape the future of AI in Cyber security, with ownership for taking advanced research through to production impact.
Technical Leadership & Ownership: set technical direction for major security domain initiatives and align roadmaps across multiple teams; lead security model programs spanning pre‑training, task tuning, reinforcement learning, and evaluation; translate cutting‑edge research into production‑ready capabilities. This role influences portfolio‑level technical tradeoffs, investment prioritization, and long‑term architecture decisions for security models.
Advanced Model Design - Building and customizing deep learning model architectures (e.g., modifying transformer blocks, attention/memory modules, etc.) at the SLM/LLM scale; making principled architectural tradeoffs to improve reliability, robustness, and security‑specific behavior.
Advanced Model Training - Apply deep expertise in pre-training, post-training, and reinforcement learning (RL) for both language and other modalities, including time-series. 
Design & Evaluate Datasets - Build high-quality datasets and benchmarks; define objective evaluation frameworks and quality gates; run ablation studies to measure impact and optimize data and training effectiveness to support confident product decisions.
Develop Data Infrastructure - Create and maintain scalable pipelines for ingestion, preprocessing, filtering, and annotation of large, complex datasets, with attention to privacy, governance, and long‑term reuse across security scenarios. 
Research & Innovation - Collaborate with cross-functional teams to push research and product boundaries, delivering models that make a real-world impact. 
דרישות:
M.Sc. / Ph.D. in Computer Science, Information Systems, Electrical or Computer Engineering or Data Science (Ph.D. strongly preferred). Candidates with M.Sc. / Ph.D. in related fields with proven industry experience or a strong publication record in the areas of LLM, Information Retrieval, Machine Learning, Natural Language Processing, Time Series Forecasting and Deep Learning are considered as well.  
Proven hands-on experience of at least 8 years (including post-grad work) in building and deploying Machine Learning products. Key areas of expertise include Natural Language Processing and Large Language Models, along with an understanding of concepts su המשרה מיועדת לנשים ולגברים כאחד.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8567239
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Herzliya
Job Type: Full Time
As a Principal/Senior Applied Scientist, you will own end‑to‑end model development for security scenarios, including developing new model architectures, continual pre‑training, task‑focused fine‑tuning, reinforcement learning, and objective, benchmark‑driven evaluation.
You will drive training efficiency and reliability on distributed GPU systems, deepen model reasoning and tool‑use capabilities, and embed Responsible AI, privacy, and compliance into every stage of the workflow. The role is hands‑on and impact‑focused, partnering closely with engineering and product to translate innovations into shipped, measurable outcomes, defining quality gates and readiness criteria, and mentoring scientists and engineers to scale results across globally distributed teams.
You will combine strong coding, experimentation, and debugging skills with a systems mindset to accelerate iteration cycles, improve throughput and cost‑effectiveness, and help shape the next generation of secure, trustworthy AI for our customers.
Responsibilities:
Youll work as part of an Applied Science team on high-impact, technically ambitious AI projects that directly shape the future of AI in Cyber security, with ownership for taking advanced research through to production impact.
Technical Leadership & Ownership: set technical direction for major security domain initiatives; lead security model programs spanning pre‑training, task tuning, reinforcement learning, and evaluation; translate cutting‑edge research into production‑ready capabilities.
Advanced Model Design - Building and customizing deep learning model architectures (e.g., modifying transformer blocks, attention/memory modules, etc.) at the SLM/LLM scale; making principled architectural tradeoffs to improve reliability, robustness, and security‑specific behavior.
Advanced Model Training - Apply deep expertise in pre-training, post-training, and reinforcement learning (RL) for both language and other modalities, including time-series.
Design & Evaluate Datasets - Build high-quality datasets and benchmarks; define objective evaluation frameworks and quality gates; run ablation studies to measure impact and optimize data and training effectiveness to support confident product decisions.
Develop Data Infrastructure - Create and maintain scalable pipelines for ingestion, preprocessing, filtering, and annotation of large, complex datasets, with attention to privacy, governance, and long‑term reuse across security scenarios.
Research & Innovation - Collaborate with cross-functional teams to push research and product boundaries, delivering models that make a real-world impact.
דרישות:
M.Sc. / Ph.D. in Computer Science, Information Systems, Electrical or Computer Engineering or Data Science (Ph.D. strongly preferred). Candidates with M.Sc. / Ph.D. in related fields with proven industry experience or a strong publication record in the areas of LLM, Information Retrieval, Machine Learning, Natural Language Processing, Time Series Forecasting and Deep Learning are considered as well.
Proven hands-on experience of at least 5 years (including post-grad work) in building and deploying Machine Learning products. Key areas of expertise include Natural Language Processing and Large Language Models, along with an understanding of concepts such as Privacy and Responsible AI. Candidates are expected to demonstrate a strong history of successfully translating applied research into production-ready solutions, along with a proven track record of delivering projects within large-scale production environments.
Proven expertise in the LLM and/or time-series forecasting domain, demonstrating comprehensive knowledge of relevant concepts in the domain. Ideal applicants should be proficient in areas such as LLMs pre and post training, including CPT, SFT and RL, LLM benchmarking, agentic flows, and model alignment.
Hands-on המשרה מיועדת לנשים ולגברים כאחד.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8567226
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Job Type: Full Time
As part of our Customers Company Data Engineering team, you will not only build scalable data features and pipelines but also directly enable portfolio growth by supporting new business capabilities in the Credit Card and Servicing business units.

Responsibilities

Design and build data solutions that support Credit Card and Servicing business goals.
Develop advanced data pipelines to support the infrastructure, architecture and the product growth initiatives.
Create ETL/ELT processes and SQL queries to bring data to the data warehouse and other data sources.
Own and evolve data lake pipelines, maintenance, schema management, and improvements.
Collaborate with stakeholders across Product, Backend Engineering, and Data Science to align technical work with business outcomes.
Implement new tools and modern development approaches that improve both scalability and business agility.
Ensure adherence to coding best practices and development of reusable code.
Constantly monitor the data platform and make recommendations to enhance architecture, performance, and cost efficiency.
Requirements:
4+ years of experience as a Data Engineer.
4+ years of Python and SQL experience.
4+ years of experience in data modeling and building scalable ELT/ETL pipelines across leading Data Warehouses (Snowflake - Preferred, Redshift, BigQuery).
3+ years of experience designing and managing automated data pipelines using Apache Airflow.
3+ years of experience developing scalable, production-grade data models with DBT.
Hands-on experience with cloud environments (AWS preferred) and big data technologies.
Strong troubleshooting and debugging skills in large-scale systems.
Proven experience packaging applications with Docker and utilizing Argo Workflows to automate, execute, and monitor containerized task sequences.
Experience with design patterns, coding best practices.
Proficiency with Git and modern source control.
Basic Linux/Unix system administration skills.
Experience with AI tools and a strong interest in continuously exploring and applying them in everyday work are highly valued.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8591958
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ra'anana
Job Type: Full Time
we are looking for a skilled Data Center Engineer to join our Lab team. The ideal candidate will be responsible for maintaining, monitoring, and optimizing our data center environments to ensure high availability, resiliency, and performance. This role involves hands-on technical work, troubleshooting hardware and network issues, and collaborating with cross-functional teams to support mission-critical systems. You will report to the Lab Manager.
Key Responsibilities
Data Center Operations
Perform installation, configuration, and maintenance of servers, network equipment, storage systems, and cabling.
Monitor facility systems, including power, cooling, fire suppression, and physical security.
Conduct routine inspections to ensure environmental and operational stability.
Manage data center capacity planning (space, power, cooling).
Hardware & Infrastructure Support
Troubleshoot and resolve hardware failures for servers, routers, switches, and other equipment.
Coordinate with vendors for RMA processes and hardware lifecycle management.
Perform firmware upgrades and hardware refresh activities.
Network & Systems Support
Support deployment and maintenance of network infrastructure (LAN/WAN, routing, switching).
Assist with installation and configuration of OS and virtualization technologies (Linux, VMware, Hyper-V, etc.).
Work with IT/security teams to ensure compliance and secure configuration of data center assets.
Monitoring & Incident Response
Monitor systems and respond to alerts to ensure uptime and SLA adherence.
Maintain accurate documentation of incidents, configurations, and procedures.
Process & Documentation
Follow and improve standard operating procedures.
Maintain asset inventory, rack diagrams, and documentation.
Support audits and compliance requirements.
Requirements:
Must-Have
2-5+ years of experience in data center operations or infrastructure engineering (adjust depending on level).
Strong understanding of server hardware, cabling standards, and rack/stack procedures.
Experience with network fundamentals (TCP/IP, VLANs, routing & switching).
Ability to lift and move equipment (up to ~25 kg / 50 lbs if required).
Knowledge of monitoring tools and ticketing systems.
Excellent troubleshooting and problem-solving skills.
Nice-to-Have
Experience with virtualization platforms (VMware, KVM, Hyper-V).
Knowledge of Linux/Windows system administration.
Familiarity with Data Center Infrastructure Management (DCIM) tools.
Experience in cloud or hybrid environments.
Certifications: CompTIA Server+, Network+, CCNA, or equivalent.
Soft Skills
Strong communication and documentation abilities.
Ability to work independently and collaboratively.
High attention to detail and operational discipline.
Ability to perform in high-pressure, mission-critical environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8550096
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Were looking for a senior‑level Data Platform Solutions Engineer who is both data‑savvy and customer‑focused. In this role youll help our customers run large‑scale data and AI workloads, tackling technical challenges across modern data environments. Youll blend deep troubleshooting expertise with tool‑building and solution design, while partnering closely with our teams and customers to ensure successful deployment and operation of our data‑platform offerings-both on‑premises and SaaS.
You will:
Assist customers with complex data‑lake and AI workloads on our data platform.
Diagnose and remediate high‑severity, multi‑layer issues spanning infrastructure, Kubernetes, data engines, storage, and networking.
Create and refine tools, automation, and solutions that boost environment stability and operational efficiency.
Deliver architectural guidance and configuration best practices to enhance performance, scalability, and resiliency.
Serve as the technical liaison among Customer Support, Product Management, and R&D, turning customer insights into product enhancements.
Take the first step towards your dream career
Job ID:R285903.
Requirements:
Essential Requirements:
Data & Platform Engineering: 4+ years of experience working with data platforms, developing Python-based tools, automation, or data pipelines for managing complex datasets and workflows.
Databases: Strong hands-on experience with relational databases (SQL) and NoSQL technologies such as MongoDB, including performance tuning.
Cloud-Native & Kubernetes: Experience deploying and operating containerized workloads on Kubernetes in hybrid or multi-cloud environments.
Data Pipelines: Experience building, maintaining, or supporting scalable ETL/ELT pipelines and data processing solutions.
Observability & Troubleshooting: Experience with monitoring and log platforms (ELK, Splunk) and troubleshooting complex production environments, preferably in customer-facing contexts.
Desirable Requirements:
Experience with Starburst or Trino (highly preferred).
Strong verbal and written English communication skills for global collaboration.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8588964
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
19/03/2026
Location: More than one
Job Type: Full Time
We are looking for an expert Data Engineer to build and evolve the data backbone for our R&D telemetry and performance analytics ecosystem. Responsibilities include processing raw, large quantities of data from live systems at the cluster level: hardware, communication units, software, and efficiency indicators. Youll be part of a fast paced R&D organization, where system behavior, schemas, and requirements evolve constantly. Your mission is to develop flexible, reliable, and scalable data handling pipelines that can adapt to rapid change and deliver clean, trusted data for engineers and researchers.

What youll be doing:

Build flexible data ingestion and transformation frameworks that can easily handle evolving schemas and changing data contracts.

Develop and maintain ETL/ELT workflows for refining, enriching, and classifying raw data into analytics-ready form.

Collaborate with R&D, hardware, DevOps, ML engineers, data scientists and performance analysts to ensure accurate data collection from embedded systems, firmware, and performance tools.

Automate schema detection, versioning, and validation to ensure smooth evolution of data structures over time.

Maintain data quality and reliability standards, including tagging, metadata management, and lineage tracking.

Enable self-service analytics by providing curated datasets, APIs, and Databricks notebooks.
Requirements:
What we need to see:

B.Sc. or M.Sc. in Computer Science, Computer Engineering, or a related field.

5+ years of experience in data engineering, ideally in telemetry, streaming, or performance analytics domains.

Confirmed experience with Databricks and Apache Spark (PySpark or Scala).

Understanding of streaming processes and their applications (e.g., Apache Kafka for ingestion, schema registry, event processing).

Proficiency in Python and SQL for data transformation and automation.

Shown knowledge in schema evolution, data versioning, and data validation frameworks (e.g., Delta Lake, Great Expectations, Iceberg, or similar).

Experience working with cloud platforms (AWS, GCP, or Azure) - AWS preferred.

Familiarity with data orchestration tools (Airflow, Prefect, or Dagster).

Experience handling time-series, telemetry, or real-time data from distributed systems.

Ways to stand out from the crowd:

Exposure to hardware, firmware, or embedded telemetry environments.

Knowledge of real-time analytics frameworks (Spark Structured Streaming, Flink, Kafka Streams).

Understanding of system performance metrics (latency, throughput, resource utilization).

Experience with data cataloging or governance tools (DataHub, Collibra, Alation).

Familiarity with CI/CD for data pipelines and infrastructure-as-code practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8585234
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/03/2026
Location: Herzliya
Job Type: Full Time
we are looking for an experienced Senior data Scientist specializing in NLP and Large Language Models (LLMs) to join our AI & data practice. In this role, you will lead the design and development of advanced NLP and Generative AI solutions, including on-premise Hebrew LLM systems, for enterprise clients across multiple industries. You will work closely with data engineers, software architects, and AI specialists to build production-grade AI systems that power decision-support tools, intelligent interfaces, and next-generation applications
Generative AI & NLP Solutions
* Lead the development of Hebrew LLM-based solutions, including on-premise deployments for enterprise environments.
* Design and implement NLP pipelines for:
* Text classification
* Sentiment analysis
* Named Entity Recognition (NER)
* Develop Generative AI applications supporting decision-support systems and intelligent user interfaces
* Build and optimize semantic search, embeddings, and Retrieval-Augmented Generation (RAG) architectures
* Implement multi-agent and long-chain LLM workflows for complex reasoning tasks. Architecture & Technical Leadership
* Provide technical leadership and architectural guidance for AI/ML solutions.
* Collaborate with data engineers, MLOps, and software teams to deploy scalable NLP models into production environments.
* Design efficient text representations and feature engineering pipelines
* Ensure solutions meet enterprise-level performance, security, and scalability requirements Innovation & Client Impact
* Analyze large-scale datasets and deliver data -driven insights that improve business processes.
* Stay updated with the latest advancements in NLP, LLMs, and Generative AI ecosystems
* Contribute to innovation initiatives and knowledge sharing within our AI community.
* Work closely with enterprise clients, translating business needs into AI-driven solutions.
Requirements:
Education M.Sc. in Computer Science, data Science, or related field - Required
Professional Experience Expert-level knowledge in data Science and Generative AI methodologies - Required 5+ years of hands-on experience in Machine Learning / Deep Learning - Required 3+ years of hands-on experience implementing NLP /LLM solutions - Required
* Strong experience with modern LLM frameworks and ecosystems (Hugging Face, GitHub, open-source models, etc.)
* Experience building RAG pipelines, embeddings, semantic search, and agent-based LLM systems
* Familiarity with Agile development and DevOps practices Advantages
* Experience with public cloud AI platforms (AWS / Azure / GCP)
* Experience deploying on-premise AI solutions for enterprise environments Personal Attributes
* Strong technical leadership with hands-on capabilities Excellent communication and collaboration skills
* Ability to translate complex AI technologies into real-world solutions
* A big-picture thinker with strong problem-solving abilities
* Passion for innovation, learning, and emerging AI technologies
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8571943
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
06/03/2026
Location: Ra'anana
Job Type: Full Time
We are seeking a highly skilled and visionary Lead Data Scientist with deep expertise in Generative AI to lead high-impact initiatives at the frontier of AI innovation. This role requires a unique blend of advanced technical skills, domain specialization, leadership ability, and a passion for delivering real-world impact. You will guide a small team of talented data scientists and work collaboratively across engineering and product teams to design, build, and deploy intelligent, domain-specific multi-agent systems.

What will your job look like?
Lead the design of complex, domain-specialized multi-agent Generative AI systems.
Provide technical mentorship and leadership to a team of 3-4 data scientists.
Drive hands-on research and rapid prototyping in areas including LLM fine-tuning, prompt engineering, agentic workflows, and self-improving systems.
Collaborate with product managers, engineers, and domain experts to identify opportunities and deliver AI-driven features and products.
Evaluate and integrate state-of-the-art models and tools from the GenAI ecosystem, including open-source and proprietary solutions.
Translate research outcomes into actionable product features and influence AI strategy and roadmap.
Maintain high standards for scientific rigor and data integrity throughout the development lifecycle.
Requirements:
Masters degree or higher in Computer Science, Artificial Intelligence, Machine Learning, or a related field.
8+ years of experience in data science, with proven leadership in delivering impactful AI products.
Deep experience with Generative AI, including LLMs fine tuning and evaluation.
Strong programming skills in Python and experience with GenAI libraries (e.g., Langraph/LangChain, OpenAI, RAG pipelines).
Familiarity with software architecture and engineering practices
Strong communication skills and the ability to mentor and inspire a technical team.
proved practical experience moving from a POC to production.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8570000
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
02/03/2026
Location: Tel Aviv-Yafo and Ra'anana
Job Type: Full Time
Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566447
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Experienced Data Engineer? Excellent team player?

Come join a great team to overcome meaningful cyber challenges!

Our Data Solutions Group is looking for an exceptional Python developer with Data Engineering experience.
Requirements:
Requirements:
Excellent team player.
Excellent Python developer.
BSc Computer Science or similar.
2+ years of experience with big data frameworks such as Spark or Hadoop.
2+ years of experience in managing ETLs in AirFlow or similar, multi-source data flows and processing of large data sets.
3+ years of experience with SQL.
Attention to details, high responsibility and open minded.
Ability to take initiative with a self-motivated attitude and reliability.
Critical thinker and problem-solving skills.

Advantages:
Proven capabilities in data analysis and data-driven conclusions.
Experience with the ElasticSearch suite.
Java development experience.
Experience with Linux environment.
Background in the cyber domain.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566408
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for an Experienced Big Data Engineer who loves solving complex problems at an extreme scale. In this role, you arent just building "internal pipelines"-you are developing the actual product our clients interact with. You will write high-performance code, optimize your own Spark processes for client freshness, and own features end-to-end. We need a "problem solver by nature, optimizer in their soul" who brings both technical depth and a great personality to a high-speed, deep technical team.

What youll do
Build Client-Facing Features: Design and implement high-scale product features for premium clients - from architecture to production deployment.
Performance Engineering: Optimize scalable data pipelines and distributed processes to meet strict client SLAs. Every millisecond of freshness matters.
System Integrity: Ensure uncompromising data accuracy and performance across massive, complex datasets.
Strategic Collaboration: Partner with upstream data providers, client-side teams, and Product Managers to turn raw events into production-grade features.
Requirements:
The Foundation: B.Sc. in Computer Science or an equivalent.
Relevant Track Record: 3+ years in Big Data Engineering (Backend experience is a plus, provided youve worked at scale).
Spark Mastery: 1+ years of deep, hands-on experience with Spark (or equivalent). You should understand "under the hood" complexities like memory management and execution plans.
Engineering Craft: Strong programming skills (Ideally Scala) with a deep understanding of distributed programming paradigms. You write clean, production-ready code that is optimized for execution across large-scale clusters.
The Scale Mindset: A natural obsession with high-scale problem solving and system optimization.
The Right DNA: A pragmatic, ownership-driven mindset with a personality that thrives in a collaborative environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8564986
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
01/03/2026
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced Data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data-driven solutions for the business. Key Responsibilities:
* Design, develop, and optimize ETL/ELT pipelines for large-scale data processing.
* Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
* Troubleshoot and optimize queries and jobs for performance improvements.
* Implement best practices for data governance, security, and monitoring.
* Stay updated with industry trends and emerging technologies in data engineering. If you're passionate about building scalable data solutions and thrive in a fast-paced environment, we’d love to hear from you!
Requirements:
* 4 years of experience in data engineering or related fields.
* Proficiency in Python for data processing and automation (mandatory).
* Deep understanding of Apache Spark and Databricks for big data processing (mandatory).
* Experience with Git (mandatory).
* Expertise in Apache Airflow for workflow orchestration.
* Familiarity with cloud-based environments, particularly Azure.
* Advanced proficiency in SQL and query optimization.
* Familiarity with data modeling, ETL/ELT principles, and performance tuning.
* Knowledge of CI/CD and containerization (Docker).
* An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8500308
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
24/02/2026
Location: Herzliya
Job Type: Full Time
Required Senior Data Engineer
Join our core platform engineering team, developing our AI-powered automotive data management platform.
We are developing the next generation data-driven products for the Automotive industry, focusing on cybersecurity (XDR) and vehicle quality. Our products monitor and secure millions of vehicles worldwide and help automakers leverage connected vehicle data to deliver cyber resilience, safety, customer satisfaction and increase brand loyalty.
Our Data Engineering & Data Science Group leads the development of our Iceberg-based data platform, including data lake, query engine, and ML-Ops tools, serving as a solid AI-ready foundation for all our products.
At the core of our Engineering Team, you will build and operate scalable, production-grade customer-facing data and ML platform components, focusing on reliability and performance.
Technological background and focus: Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
This role is full-time and is Herzliya, Israel based.
Responsibilities
Design, build, and maintain scalable data pipelines to ingest and transform batch data on our data lake, enabling analytics and ML with strong data quality, governance, observability, and CI/CD.
Build and expand our foundational data infrastructure, including our data lake, analytics engine, and batch processing frameworks.
Create robust infrastructure to enable automated pipelines that will ingest and process data into our analytical platforms, leveraging open-source, cloud-agnostic frameworks and toolsets.
Develop and maintain our data lake layouts and architectures for efficient data access and advanced analytics.
Develop and manage orchestration tools, governance tools, data discovery tools, and more.
Work with other team members of the engineering group, including data scientists, data architects, and data analysts, to provide solutions using a use case-based approach that drives the construction of technical data flows.
Requirements:
BSc/BA in Computer Science, Engineering or a related field
At least 6 years of experience with designing and building data pipelines, analytical tools and data lakes
Experience with the data engineering tech stack: ETL & orchestration tools (e.g. Airflow, Argo, Prefect), and distributed data processing tools (e.g Spark, Kafka, Presto)
Experience with Python is a must
Experience working in a containerized environment (e.g. k8s)
Experience working with open-source products
End-to-end ownership mindset with a proactive, production-first approach
Development experience, using a general purpose programming language (Java, Scala, Kotlin, Go, etc.) - An advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560075
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
24/02/2026
Location: Herzliya
Job Type: Full Time
Required Data Engineer
Description
Join our core platform engineering team, developing our AI-powered automotive data management platform.
We are developing the next generation data-driven products for the Automotive industry, focusing on cybersecurity (XDR) and vehicle quality. our products monitor and secure millions of vehicles worldwide and help automakers leverage connected vehicle data to deliver cyber resilience, safety, customer satisfaction and increase brand loyalty.
Our Data Engineering & Data Science Group leads the development of our Iceberg-based data platform, including data lake, query engine, and ML-Ops tools, serving as a solid AI-ready foundation for all our products.
At the core of our Engineering Team, you will build and operate scalable, production-grade customer-facing data and ML platform components, focusing on reliability and performance.
Technological background and focus: Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
This role is full-time and is Herzliya, Israel based.
Responsibilities
Design, build, and maintain scalable data pipelines to ingest and transform batch data on our data lake, enabling analytics and ML with strong data quality, governance, observability, and CI/CD.
Build and expand our foundational data infrastructure, including our data lake, analytics engine, and batch processing frameworks.
Create robust infrastructure to enable automated pipelines that will ingest and process data into our analytical platforms, leveraging open-source, cloud-agnostic frameworks and toolsets.
Develop and maintain our data lake layouts and architectures for efficient data access and advanced analytics.
Develop and manage orchestration tools, governance tools, data discovery tools, and more.
Work with other team members of the engineering group, including data architects, data analysts, and data scientists, to provide solutions using a use case-based approach that drives the construction of technical data flows.
End-to-end ownership mindset with a proactive, production-first approach.
Requirements:
BSc/BA in Computer Science, Engineering or a related field
At least 4 years of experience with designing and building data pipelines, analytical tools and data lakes
Experience with the data engineering tech stack: ETL & orchestration tools (e.g. Airflow, Argo, Prefect), and distributed data processing tools (e.g Spark, Kafka, Presto)
Experience with Python is a must
Experience working with open-source products - Advantage
Experience working in a containerized environment (e.g. k8s) - Advantage
Development experience, using a general purpose programming language (Java, Scala, Kotlin, Go, etc.) - Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8560068
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו