משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים בOne DatAI
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
A leading company is looking for a Mid-Senior BI Developer to join a strong and dynamic BI team.


The team is responsible for delivering end-to-end BI solutions across the organization, transforming data into actionable insights and enabling data -driven decision-making at scale.


This role involves working with a wide range of technologies in both Cloud and On-Prem environments, supporting thousands of users.

?? Responsibilities

* Lead end-to-end BI projects - from business requirements gathering, through design and ETL / data preparation, to dashboard development, testing, and deployment
* Work in a hybrid environment combining Cloud and On-Prem tools and services
* Develop using tools such as Power BI, Qlik (View & Sense), Power Apps, and Semantic Layers
* Collaborate closely with business stakeholders to translate requirements into data models, reports, dashboards, and KPI's
Requirements:
?? Requirements


* B.Sc in Computer Science, Industrial Engineering, Information Systems, or a related field
* 4+ years of hands-on experience in BI development (including ETL and dashboard development)
* Strong experience with Power BI - (Must)
* Expert-level SQL - Must
* Experience working with data Warehouses ( DWH ) - Must


?


? Advantages


* Experience with Qlik
* Experience with Cloud environments
* Experience with ETL tools
* Knowledge of Python and/or Splunk
* Experience working with Agile methodologies
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8639916
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 3 שעות
דרושים במכון פילת מקבוצת היי קפיטל
מיקום המשרה: ראשון לציון
לחברת נתיבי איילון דרוש/ה מנהל /ת תחום פרויקטים טכנולוגיים
הובלת פרויקטים בתחום טכנולוגיות לתשתיות תחבורה חכמות וחיבורן למערכות ניהול תנועה בזמן אמת.
תכנון, פיתוח וניהול פרויקטים חדשניים בממשק בין דאטה, תשתיות פיזיות, מערכות חומרה ותוכנה, תקשורת, סייבר, רגולציה ועד למשתמשי הקצה.
הובלה מלאה של פרויקטים מורכבים - פרוגראמטית, טכנולוגית, תפעולית וניהולית - משלב הקונספט, דרך תכנון מפורט, פיילוטים, מכרזים, אינטגרציה, ועד למימוש והטמעה בשטח.
מעקב ובקרה אחר ניהול התקציב לרבות אומדנים, תחשיבים, לו"ז, משימות, אבני דרך, תוכניות עבודה, יעדים וניהול הסיכונים של הפרויקטים.
ביצוע מעקב, בקרה ודיווח שוטף להנהלה על התקדמות הפרויקטים, מדדי ביצוע, עמידה ביעדים וניהול חריגות.
כתיבת מסמכי קונספט, אפיונים, תוכניות ניסוי (PoC / Pilot) מסמכי דרישות ומכרזים, תוך שילוב סקירות טכנולוגיות, ניתוח מגמות ושימושים מהעולם.
הצגת תוכניות עבודה, קונספטים וסטטוס פרויקטים להנהלה בכירה, לגורמי רגולציה ועוד.
דרישות:
תואר אקדמי המוכר ע"י המל"ג.
ניסיון של 5 שנים באחד מעולמות התוכן הבאים: טכנולוגיה/ תקציבים/ פרויקטים/ חוזים.
שימוש בכלי ניהול פרויקטים ובקרה בבניית גאנטים ומעקב אחר אבני דרך.

דרישות המהוות יתרון:
נסיון בעולמות דאטה / אלגוריתמיםEmbadded systems/ /ML / AI / מערכות זמן אמת / מערכות מבוססות חיישנים.
הבנה מעמיקה בתחומי ניהול תנועה, תשתיות תחבורה, City/Smart Mobility או חדשנות דיגיטלית, מערכות שליטה בזמן אמת.
ניסיון מוכח בהובלת פרויקטים מורכבים מרוביממשקים - כולל אינטגרציה מערכתית/טכנולוגית/רגולטורית.
ראייה מערכתית ארוכתטווח ( system Thinking) ושילוב בין תחום מבצעישטח לתחום דיגיטלי/ דאטה.
ניסיון בהובלה מטריציונית, ניהול ספקים והנעת שותפים פניםארגוניים וחיצוניים.
חשיבה חדשנית, עם יכולת להניע תהליכים בסביבה משולבת בעלי עניין. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8639740
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 4 שעות
דרושים בSQLink
ארגון ממשלתי באזור המרכז מגייס אנליסט/ית נתונים
התפקיד כולל: עבודה עם עיבוד והסבת קבצי CAD ו-GIS למאגרי תשתיות לאומיות, פיתוח סקריפטים ב- Python להסבות נתונים חצי אוטומטיות ואוטומטיות, ביצוע בקרות איכות, ניתוח וקליטת מידע ממקורות מגוונים לבסיסי נתונים ועבודה בצוות רב-תחומי לשיפור תהליכי עבודה ועוד.
דרישות:
- שנתיים ניסיון כאנליסט/ית נתונים
- ניסיון בעבודה עם מערכות GIS כגגון: ArcGIS, ArcPro, QGIS
- ניסיון בעבודה עם בסיסי נתונים SQL / NoSQL
- ניסיון בפיתוח Python בסביבת GIS
- יכולת ניתוח נתונים והבנה של מפרטי מיפוי וקליטת נתונים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8624729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים במלם תים
מיקום המשרה: מודיעין מכבים רעות
ארגון מוביל בתחום הבריאות מחפש מפתח/ת BI מנוסה להשתלבות בצוות דאטה מקצועי, לעבודה עם טכנולוגיות מתקדמות והשפעה ישירה על תהליכי קבלת החלטות בארגון
אם יש לך תשוקה לדאטה, יכולת פיתוח תהליכים מורכבים ורצון להשפיע על עתיד הרפואה בישראל מקומך איתנו!

מה בתפקיד?
פיתוח תהליכי ETL /ELT מורכבים מקצה לקצה בסביבת DWH מודרנית, תוך עבודה בארכיטקטורת Medallion (Bronze, Silver, Gold).
התפקיד כולל אפיון צרכים עסקיים מול גורמים שונים בארגון ותרגומם לפתרונות BI ודאטה, בניית מודלים אנליטיים ושכבות נתונים, ופיתוח דשבורדים מתקדמים.
בנוסף, עבודה הכוללת תחקור נתונים מעמיק (Deep Dive), אופטימיזציה של תהליכים קיימים ופיתוח פתרונות חדשים, תוך מעבר מניתוח תיאורי לניתוח סיבתי וחיזוי מגמות.
דרישות:
- ניסיון של 4+ שנים בפיתוח BI, כולל עבודה בסביבות DWH
- שליטה גבוהה מאוד ב-SQL כולל שאילתות מורכבות, פרוצדורות
- ניסיון בפיתוח תהליכי ETL /ELT (Batch ו-Streaming) עם כלים כגון dbt / Informatica / Python וכתיבת APIs
- הבנה מעמיקה ב- data Modelling וארכיטקטורת DWH, כולל עבודה עם Snowflake ו/או Microsoft Fabric
- ניסיון בפיתוח דשבורדים (Power BI / Business Objects) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8608514
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בGtech
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
קריאת מידע מבסיסי נתונים שונים תוך הצלבת טבלאות
ביצוע אנליזה של התוצאות העסקיות אל מול מדדים ויעדים ארגוניים
מיפוי צרכים עסקיים, אפיון ובניית דוחות תוך שימוש בכלים קיימים (שאילתות במערכות המידע התפעוליות ומסדי הנתונים)
איתור ועזרה באפיון צרכי מידע חדשים תוך גיבוש כלים כלל ארגוניים
ליווי פרויקטים עסקיים מצד תחום המידע
ליווי וייעוץ למנהלים במחוז ע"י בניית דוחות לבקרה וניהול אפקטיבי
סיוע בביצוע פרויקטים במחוז ע"י ריכוז תחום המידע והשתלבות בפרויקטים ארציים בתחום שרותי המידע
בניית כלים תומכי תהליך תוך הבנת תהליכים עסקיים
הדרכה והטמעה של השימוש בכלים ומערכות BI ארגוניות
אחריות על דוחות קבועים
דרישות:
תואר ראשון רלוונטי - חובה
ידע וניסיון מוכח בSQL כולל שאילתות מורכבות, פונקציות שונות - חובה
שליטה מלאה ביישומי אופיס ובפרט ידע וניסיון מוכח אקסל מתקדם - חובה
ניסיון כאנליסט -שנתיים ומעלה
ניסיון מוכח בעבודה עם: Python, Qlik ו/או Power BI - חובה, as400 - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8618565
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 4 שעות
דרושים בG-NESS
מיקום המשרה: בני ברק
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data -driven solutions for the business.

Key Responsibilities:
Design, develop, and optimize ETL /ELT pipelines for large-scale data processing.
Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
Troubleshoot and optimize queries and jobs for performance improvements.
Implement best practices for data governance, security, and monitoring.
Stay updated with industry trends and emerging technologies
Requirements:
4 years of experience in data engineering or related fields.
Proficiency in Python for data processing and automation (mandatory).
Deep understanding of Apache Spark and Databricks for Big Data processing (mandatory).
Experience with Git (mandatory).
Expertise in Apache Airflow for workflow orchestration.
Familiarity with cloud-based environments, particularly Azure.
Advanced proficiency in SQL and query optimization.
Familiarity with data modeling, ETL /ELT principles, and performance tuning.
Knowledge of CI/CD and containerization (Docker).
An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8593710
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בכלל ביטוח ופיננסים
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
אנשים שמעוניינים להיות חלק ממשהו גדול. להיות חלק מכלל!
כלל ביטוח ופיננסים מגייסת דאטה אנליסט או אנליסטית לכלל ביטוח אשראי.

מה תעשו?
תשלפו, תנתחו ותחקרו נתונים לצורך קבלת תובנות והחלטות
תפיקו דו"חות
תאפיינו ותפתחו דשבורדים
תבנו מצגות
תנהלו ממשקים עם גורמי החברה והקבוצה

כלל היא מעסיקה שתומכת בגיוון והכלה ומגייסת מועמדים ומועמדות מרקע שונה.
מיותר להגיד שהמשרה מיועדת לנשים, גברים וכל מי שביניהם:)
דרישות:
מה אנחנו מחפשים?
תואר אקדמי - חובה
ניסיון של שנתיים לפחות כ- Data Analyst בחברה בינונית/גדולה - חובה
ניסיון עם SQL ובסיסי נתונים - חובה
Excel ברמה גבוהה מאוד VBA ו- Power Query - חובה
ניסיון בכתיבת קוד עם PYTHON - יתרון משמעותי

**המידע נמסר בהסכמתך ומרצונך ובין היתר לצורך בחינת התאמתך למשרה, וללא המידע לא נוכל להעריך את התאמתך לתפקיד. למידע נוסף אודות המידע שנאסף, השימוש בו ולמי נמסר המידע, וכן למידע אודות זכויותיך לעיון ותיקון המידע ולפרטי הממונה על הגנת הפרטיות, ראה מדיניות הפרטיות למועמדים באתר כלל ביטוח
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8611682
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 4 שעות
דרושים ביוביטק סולושנס
Job Type: Full Time
We are looking for a hands-on data Tech Lead to build and grow our Azure data practice from the ground up.
This role combines deep technical expertise with business impact and ownership.
What youll do:
Lead the end-to-end data domain within the company
Design and implement modern data platforms on Azure
Work with technologies such as Microsoft Fabric, Azure data Factory, Azure SQL, Synapse, Power BI
Drive customer engagements - from pre-sale and architecture to hands-on delivery
Act as a trusted advisor for customers on data strategy, analytics, and AI-driven insights
Build best practices, methodologies, and scalable solutions
Requirements:
What were looking for:
Strong hands-on experience with Azure data services
Experience building data pipelines, data warehouses/lakehouses, and BI solutions
Ability to work directly with customers (both technical and business stakeholders)
Experience in pre-sales / solution design - big advantage
Entrepreneurial mindset - ability to build a domain, not just execute tasks
Why join us:
Opportunity to build a new domain from scratch
High ownership and real impact
Work with cutting-edge Azure and AI technologies
Small, strong team with a startup mindset
The position is open to both women and men
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8590082
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בMertens – Malam Team
סוג משרה: משרה מלאה
חברת Mertens Malam Team מגייסת ראש.ת צוות DBA למוסד פיננסי גדול ברמת גן
במסגרת התפקיד התפקיד כולל אחריות כוללת לניהול צוות DBA האמון על מסדי הנתונים והתשתיות כולל התקנות גיבויים טיוב ביצועים שדרוגים תחזוקה ותמיכה בצוותי פיתוח
עבודה עם Oracle Exadata, MsSQL, Postgres, MySQL, Snowflake, Oracle Forms, Oracle Reports, Oracle EBS, OIM, CDC
ניהול בסיסי נתונים של מערכות ליבה בארגון תמיכה במשתמשים בסביבת הייצור ובמפתחים בסביבות הטסט ומתן מענה לתקלות כולל זמינות בלילות וסופ"ש
דרישות:
ניסיון של 5 שנים ומעלה כ DBA Oracle או MsSQL
ניסיון של 3 שנים ומעלה בניהול צוות DBA בארגון Enterprise
ניסיון מוכח בעבודה אפליקטיבית ותשתיתית
ניסיון באבחון ופתרון בעיות ביצועים
יכולת תכנון הסתכלות רחבה והבנה מולטידיספלנרית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589466
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים במלם תים
מיקום המשרה: לוד
סוג משרה: משרה מלאה
ארגון פיננסי מוביל מגייס מפתח/ת data  Stage להצטרפות לצוות מקצועי ואיכותי, לעבודה בסביבה טכנולוגית מתקדמת עם מערכות ליבה בתחום הפיננסי.
דרישות:
- מפתח בעל מינימום 2 שנות ניסיון בעבודה ב- data  Stage בסביבת  Oracle
- ניסיון בכתיבת פונקציות ושאילתות מורכבות בשפת PL/ SQL
- ניסיון בעבודה במערכות BI בתחום הפיננסי /בנקאי - יתרון משמעותי
- ניסיון בעבודה ב- Angular- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8601215
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים בDun & Bradstreet
מיקום המשרה: בני ברק
סוג משרה: משרה מלאה
ניהול והובלת מחלקת data Operations בארגון, כולל אחריות מלאה על איסוף, קליטה, עיבוד, והעשרת מידע עסקי ממקורות פנימיים וחיצוניים. התפקיד כולל הובלת טרנספורמציה תפעולית וטכנולוגית, מעבר מתהליכים ידניים לאוטומטיים, ושיפור מתמיד של איכות, זמינות ומהירות הנתונים.

תחומי אחריות מרכזיים:
- ניהול צוות data Operations, כולל קלדניות מידע וכלכלניות.
- ניתוח תהליכים קיימים, זיהוי צווארי בקבוק והובלת שיפור מתמיד על ידי אוטומציה ומיכון.
- בניית תהליכי עבודה יעילים מבוססי SLA ו-KPI למדידת תפוקה, איכות וזמני טיפול.
- עבודה שוטפת מול צוותי Product, data ופיתוח לצורך הטמעת פתרונות טכנולוגיים.
- אחריות על איכות הנתונים, כולל בקרות, תקני עבודה ומתודולוגיות QA.
- ניהול עומסים ומשאבים בהתאם לשינויים בביקושים.
- הובלת תהליכי שינוי ארגוני.
דרישות:
- תואר ראשון בתחומים: הנדסת תעשיה וניהול, כלכלה, מנהל עסקים, או כל תחום רלוונטי אחר. תואר שני - יתרון.
- ניסיון של 5+ שנים בניהול צוותים תפעוליים או data Operations.
- ניסיון בהובלת תהליכי אוטומציה ושיפור תהליכים.
- הבנה טכנולוגית גבוהה, כולל עבודה עם מערכות מידע.
- ניסיון בעבודה מול צוותי פיתוח ו-Product.
- ניסיון בהטמעת כלי AI או פתרונות אוטומציה - יתרון משמעותי.
- יכולת אנליטית גבוהה וחשיבה תהליכית.
- ניסיון בניהול שינוי ארגוני, כולל התמודדות עם התנגדויות.
- יכולת עבודה בסביבה דינמית עם ריבוי משימות.
- כפיפות: סמנכ"ל דאטה.
- המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8626905
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים באלעד מערכות
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
אלעד מערכות מגייסת מנהל /ת צוות אנליזה BI | פתח תקווה

הזדמנות להוביל תחום BI בארגון יציב ולהשפיע על קבלת החלטות מבוססות דאטה.
תפקיד הכולל ניהול והובלת צוות אנליסטים, פיתוח מתודולוגיות דאטה, בניית דוחות ודשבורדים מתקדמים והפקת תובנות עסקיות מול ממשקים בכירים בארגון.
דרישות:
ניסיון של 2-3 שנים בניהול צוות אנליסטים
שליטה גבוהה מאוד ב-SQL
ניסיון בעבודה עם BO ו-Power BI
יכולת אנליטית גבוהה וחשיבה עסקית
ניסיון בהצגת תובנות בצורה ברורה
תואר רלוונטי (כלכלה - סטטיסטיקה - מדעי הנתונים - תעשייה וניהול) - יתרון 
ניסיון מעולמות הביטוח / פיננסים - יתרון משמעותי
ניסיון עם Databricks ו/או BigQuery - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8619993
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים בJob space
לצוות המומחים שלנו דרוש/ה data Engineer מנוסה ב-Talend, בעל/ת זיקה לניהול פרויקטים ועבודה מול לקוחות. התפקיד משלב עשייה טכנולוגית עמוקה (Hands-on) עם הובלת פרויקטים אצל לקוחות אסטרטגיים של החברה.

במסגרת התפקיד
- פיתוח ETL /ELT: תכנון, פיתוח ותחזוקה של תהליכי דאטה מורכבים (Batch ו-Streaming) באמצעות Talend.
- ניהול פרויקטים: הובלת פרויקטים אצל לקוחות אסטרטגיים מקצה לקצה - Hands-on מלא.
- איכות נתונים: בניית תהליכי טיוב ( data Quality), ולידציה והעשרת נתונים.
- עבודה מול תשתיות: חיבור למקורות נתונים מגוונים ( Oracle, SQL server, NoSQL).
- תיעוד: כתיבה ותחזוקה של מסמכי אפיון, אפליקציה וקוד.

פרטים כלליים
- משרה מלאה.
- עובד/ת חברה (משרדי החברה ברעננה, מיקום העבודה בפועל עפ"י דרישות וצרכי הלקוח).
- מודל עבודה גמיש בהתאם ללקוח.

מיקום: רעננה (עבודה מול לקוחות אסטרטגיים)
רוצה להוביל פרויקטים מאתגרים בעולמות הדאטה? שלח/י קורות חיים ונתקדם!
דרישות:
- ניסיון של שנתיים לפחות בפיתוח ETL, אינטגרציה וניהול נתונים באמצעות Talend - חובה.
- יכולות גבוהות מאוד ב-SQL ובמידול נתונים ( data Modeling) - חובה.
- יכולת למידה עצמית גבוהה וניסיון בפתרון בעיות (Troubleshooting) בסביבות טכנולוגיות משתנות.
- יכולת עבודה עצמאית ובצוות, תוך עמידה בלוחות זמנים.
- יתרון משמעותי: הכרות עם עולמות ה-Cloud (AWS/Azure/GCP).
- יתרון: תשוקה לטכנולוגיות דאטה חדשות ויכולת ביטוי גבוהה בכתב ובעל פה.

שליחת קורות חיים או הגשת מועמדות מהווה הסכמה לכך שחברת גוב ספייס בעמ (החברה) תשמור ותשתמש בפרטיך, לרבות למטרת פנייה אליך בנוגע למשרות נוספות ודומות, בכל עת, ובנוסף גם להעברת פרטיך למעסיקים פוטנציאליים בעתיד. השימוש במידע ייעשה בהתאם למדינות הפרטיות באתר החברה ובה גם מידע על זכויותיך. ניתן לסרב לשימוש עתידי כאמור במידע בשליחת תמחקו אותי או לפנות בכל שאלה או בקשה בנושא באמצעות פרטי הקשר שבמדיניות הפרטיות. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8625147
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים בComblack
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת data Engineering Tech Lead (Snowflake) לארגון פיננסי במרכז!
הזדמנות להוביל טכנולוגית פיתוח דאטה מתקדם בסביבת Snowflake, כולל ארכיטקטורה, ביצועים וניהול צוות.
דרישות:
ניסיון של 5+ שנים כ- data Engineer עם ניסיון משמעותי ב-Snowflake (לפחות 3 שנים)
ניסיון מעשי עם DBT, Python ו-Kafka
ניסיון ב-Performance Tuning בסביבות דאטה גדולות ומורכבות
ניסיון בניהול צוותים והובלת פיתוח במתודולוגיית Agile
ניסיון בעבודה עם הרשאות, אבטחת מידע (RBAC) ונתוני PII המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8600367
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are revolutionizing how people buy and rent homes by turning complex data into clear, actionable insights. Our experts - from data scientists to urban planners - generate dozens of insights for every address in Israel, helping people imagine life in a new home before they move in.
Were looking for one strong individual to take full ownership of our business analytics and BI - bringing structure, trust, and clarity before scale.
This is a hands-on, ownership-driven role.
You will be directly accountable for ensuring that business-critical data is Trusted, Consistent, Accessible And actively used for decision-making.
Analytics is the core of this role, not a side responsibility.
Responsibilities
Own end-to-end business analytics and BI across the company
Perform deep analytical work on product, user, sales, and support data
Translate business questions into structured analysis and actionable insights
Define, build, and maintain core KPIs with leadership and product
Clean, organize, and make sense of messy and inconsistent data
Build and maintain business data models (facts & dimensions)
Develop dashboards and reports that are actually used for decisions
Monitor key metrics, identify trends and anomalies, and proactively surface insights
Work closely with leadership, product, finance, and operations teams
Establish basic documentation and standards to reduce knowledge dependency
Use AI tools to transform raw data into actionable insights
Requirements:
Must-have qualifications
6+ years of experience in Analytics / BI / Data roles
Proven experience performing meaningful business analysis (beyond dashboards)
Strong SQL skills
Experience with Looker
Hands-on experience with a Data Warehouse
Experience building business data models
Strong business mindset and communication skills
Ability to work independently and lead initiatives end-to-end
Advantage
Python for data analysis
Startup or data-driven company background
Direct collaboration with leadership
Experience with dbt, Redshift, AirFlow, AWS cloud, Power BI and Tableau
Experience as a first or early data hire
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8639865
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
מיקום המשרה: הרצליה
סוג משרה: משרה מלאה
חברתנומחפשת Senior Data Scientist להצטרפות לצוות הפועל בחזית המחקר והפיתוח הטכנולוגי.

התפקיד כולל פיתוח מודלי Machine Learning לזיהוי, התאמה ואיחוד ישויות ממקורות מידע שונים ופיתוח אלגוריתמים ל-Entity Matching ו-Entity Resolution.

שימוש ב-Graph ו-Node Embedding, ועבודה עם נתונים בהיקפים גדולים לצורך שיפור איכות המידע וזיהוי קשרים בין ישויות.

העבודה כוללת פיתוח פתרונות מבוססי: Entity Matching, Entity Resolution, Link Prediction, Graph / Node Embedding

התנהלות עם נתונים בהיקפים גדולים, בניית פיצ'רים, ופיתוח מודלים המשפרים את יכולת הזיהוי והקישור בין ישויות במאגרי מידע שונים.

הזדמנות לעבודה בסביבה מגוונת עם השפעה אמיתית, בלב הבטחון והטכנולוגייה.



תחומי אחריות

פיתוח מודלים מתקדמים ל-Entity Matching ו-Entity Resolution
עבודה עם גרפים ו-Node Embedding לזיהוי קשרים בין ישויות
פיתוח Pipeline מלא למודלים: איסוף נתונים, Feature Engineering, אימון והטמעה
עבודה עם כמויות גדולות של נתונים (Big Data)
שיפור מתמיד של דיוק המודלים והרחבת יכולות הזיהוי
שיתוף פעולה עם צוותי Data ו-Engineering
דרישות:
השכלה רלוונטית כגון תואר ראשון במדעי המחשב / מתמטיקה / סטטיסטיקה או תחום רלוונטי
ניסיון של 3 שנים לפחות בפיתוח מודלי Machine Learning
ניסיון בעבודה עם Entity Matching / Entity Resolution - יתרון משמעותי
ניסיון בעבודה עם גרפים או Graph ML - יתרון
שליטה ב-Python
ניסיון עם Big Data
ניסיון בבניית Feature Engineering ו-ML Pipelines
ניסיון עם PySpark - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8639533
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
מיקום המשרה: הרצליה
סוג משרה: משרה מלאה
חברתנו מחפשת חוקר/ת Data Science להצטרפות לצוות הפועל בחזית המחקר והפיתוח הטכנולוגי.

התפקיד כולל התמודדות עם אתגרים טכנולוגיים מורכבים ורבתחומיים, תוך שילוב בין עולמות התקשורת, אבטחת המידע ולמידת מכונה.

העבודה עוסקת בפתרון בעיות חדשניות שאין להן לרוב מענה מוכן בתעשייה או באקדמיה.

העיסוק כולל עיבוד וניתוח כמויות מידע גדולות (Big Data), פיתוח מודלים מתמטיים מתקדמים, תכנון ומימוש אלגוריתמים לניתוח נתונים, והעמקה תיאורטית ומעשית בתחום תקשורת הנתונים.

הזדמנות לעבודה בסביבה מגוונת עם השפעה אמיתית, בלב הבטחון והטכנלוגייה.
דרישות:
תואר שני לפחות ממוסד אקדמי מוכר בתחומים כמותיים/הנדסיים רלוונטיים (מדמח, הנדסת חשמל, מתמטיקה, פיזיקה, סטטיסטיקה, מדעי הנתונים וכד)

ניסיון של שנתיים לפחות במחקר או בפיתוח בתחומים אנליטיים/אלגוריתמיים

ניסיון בעבודה עם כמויות נתונים גדולות ובבניית מודלים סטטיסטיים או אלגוריתמיים

היכרות עם סביבות פיתוח וכלי Data מתקדמים

הערה: ניסיון מחקרי או תעשייתי משמעותי במיוחד עשוי להוות חלופה לחלק מדרישות ההשכלה





יתרונות:

ניסיון בתשתיות ML (PyTorch / TensorFlow / scikit-learn)

ניסיון במערכות מבוזרות או Big Data (Spark)

ניסיון ב-Kubernetes

היכרות עם PostgreSQL

רקע בתקשורת נתונים / עיבוד אותות / סייבר

ניסיון בפיתוח אלגוריתמים מאפס

פרסומים אקדמיים או ניסיון מחקרי מתקדם המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8639510
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
Location: Petah Tikva
Job Type: Full Time
we are looking for a highly skilled Data Engineer to join our growing Data Analytics Department.

As a Data Engineer in a multi cloud company, you will build data-driven solutions for our customers using cutting-edge data tools and large-scale data on AWS\GCP\Azure.

Job Responsibilities:

Lead data solutions design and development for our various clients and projects.
Design the solution by understanding the needs, modeling the data, choosing the right tools and defining the interfaces/dashboards.
Develop Data Pipelines, Data Lakes, DWHs, AI\ML models, Dashboards and reports using advanced tools and leading technologies.
Requirements:
5+ years of relevant experience as Data Engineer - a must.
Experience with Python based data pipelines/ETLs and other ETL\ELT tools (such as Glue, Rivery, Data Factory, DBT).
High Proficiency in SQL - a must.
Experience designing and developing DWHs in the cloud - Redshift\Snowflake\BigQuery is a must.
Experience with BI & visualizations tools like Tableau\Quicksight\Power BI\Looker.
Knowledge and experience with AI\ML (working with tools like SageMaker\ Bedrock\ Q\ BigQuery ML\ Vertex AI\ Gemini) - big advantage.
Strong analytical and problem-solving skills with attention to details.
High self-learning skills
Fluent English
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8639405
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Scientist, you will apply your expertise in software engineering, LLM agents, and cybersecurity to build new defense techniques against cyber-villains. You will be a driving force in designing and developing groundbreaking, Agentic LLM-based security solutions that block attacks before they begin. Join our innovative team to shape the future of cybersecurity and impact millions of customers.
Important: this role requires a unique combination of hands-on software engineering skills as well as previous experience with designing and delivering LLM-driven products.
Key Responsibilities
Contribute to a diverse and highly skilled research group that pioneers state-of-the-art technologies to protect our customers.
Utilize analytical rigor, statistical methods, programming, and data modeling to analyze vast amounts of data, applying your cybersecurity knowledge to guide our focus and approach.
Design and implement agentic LLM solutions to face modern cybersecurity challenges.
Decompose complex problems scientifically and provide actionable insights and recommendations to both technical and non-technical stakeholders.
Lead and collaborate on end-to-end projects within the team and across engineering and product teams, from initial ideation to final deployment.
Requirements:
Required Qualifications
Natural scientific curiosity and ability to handle complex problems.
At least 2 years of experience in hands-on Agentic LLM projects. This includes experience with the common agentic frameworks (e.g., LangChain, LangGraph), with emphasis on algorithmic design, large-scale deployment and monitoring.
At least 4 years of experience as a software engineer with high proficiency in python and at least good familiarity with SQL.
Deep understanding of probability, statistics, and machine learning models with a proven track record of selecting, modifying, and applying advanced algorithms to solve practical problems.
Demonstrated ability to run end-to-end research POCs, from conceptualization to solutions, including designing, executing, analyzing, and concluding research methodologies and outcomes.
Good communication skills, with the ability to convey complex research findings clearly and effectively to both technical and business audiences.
Preferred Qualifications
Advanced degree (MSc or PhD) in Machine Learning, Computer Science, Electrical Engineering, Physics, Statistics, Applied Mathematics, or a related field.
Background in the cybersecurity domain.
Hands-on experience with open-source generative libraries (e.g., Hugging Face).
Experience working with big data platforms (e.g., GCP).
Familiarity with cloud-native architectures and services for data processing.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8639159
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Are you passionate about harnessing cutting-edge data science techniques to protect the world from cyber threats? Do you thrive in the dynamic world of cybersecurity? If so, we invite you to join our innovative and forward-thinking team where you'll have the opportunity to shape the future of cybersecurity and impact millions of customers. As a Principal Data Scientist, you will apply your expertise in data analysis, machine learning, and cybersecurity to build new endpoint-based defense techniques against cyber-villains. You will be a driving force in designing and developing groundbreaking, ML-based security solutions that block attacks even before they begin.
Key Responsibilities
Contribute to a diverse and highly skilled research group that pioneers state-of-the-art technologies to protect our customers.
Utilize analytical rigor, statistical methods, programming, and data modeling to analyze vast amounts of data, applying your cybersecurity knowledge to guide our focus and approach.
Decompose complex problems scientifically and provide actionable insights and recommendations to both technical and non-technical stakeholders.
Lead and collaborate on end-to-end projects within the team and across engineering and product teams, from initial ideation to final deployment.
Requirements:
Required Qualifications
6+ years of hands-on experience delivering production-grade data science and machine learning solutions.
Proven experience with deep learning and transformer-based models, including model design, training, optimization, and evaluation.
Strong Python proficiency with solid working knowledge of SQL.
Advanced degree (MSc or PhD) in Machine Learning, Computer Science, Electrical Engineering, Physics, Statistics, Applied Mathematics, or a related field.
Deep expertise in probability, statistics, and machine learning, with the ability to select, adapt, and apply advanced algorithms to real-world problems.
Demonstrated ownership of end-to-end research POCs, from problem formulation and experimental design to implementation, analysis, and actionable recommendations.
Strong focus on engineering-quality, production-ready code, with high standards for reliability, scalability, and maintainability.
Excellent communication skills, with the ability to translate complex technical insights into clear explanations for both technical and business stakeholders.
Preferred Qualifications
Background in the cybersecurity domain, with focus on endpoint security
Experience working with big data platforms (e.g., GCP).
Familiarity with cloud-native architectures and services for data processing.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8638161
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Principal Data Scientist, you will apply your expertise in data analysis, machine learning, and cybersecurity to build new AI-based defense techniques against cyber-threats. You will be a driving force in designing and developing groundbreaking, ML-based security solutions that block attacks even before they begin, shaping the future of cybersecurity and impacting millions of customers.
Key Responsibilities
Contribute to a diverse and highly skilled research group that pioneers state-of-the-art technologies to protect our customers.
Utilize analytical rigor, statistical methods, programming, and data modeling to analyze vast amounts of data, applying your cybersecurity knowledge to guide our focus and approach.
Decompose complex problems scientifically and provide actionable insights and recommendations to both technical and non-technical stakeholders.
Lead and collaborate on end-to-end projects within the team and across engineering and product teams, from initial ideation to final deployment.
Requirements:
Required Qualifications
6+ years of hands-on experience delivering production-grade data science and machine learning projects.
Proven track record in applied data science for cybersecurity.
Deep expertise in probability, statistics, and machine learning, with a proven ability to select, adapt, and apply advanced algorithms to real-world problems.
Proven deep learning experience, including model design, training, and evaluation.
Strong proficiency in Python with solid working knowledge of SQL.
Advanced degree (MSc or PhD) in Machine Learning, Computer Science, Electrical Engineering, Physics, Statistics, Applied Mathematics, or a closely related field.
Demonstrated ownership of end-to-end research POCs, from problem formulation and experimental design through execution, analysis, and final recommendations.
Strong emphasis on engineering-quality, production-ready code with high standards for reliability, scalability, and maintainability.
Excellent communication skills, with the ability to clearly articulate complex technical insights to both technical and business stakeholders.
Preferred Qualifications
Direct experience with detection and response platforms (XDR, EDR, or NDR).
Experience working with Big Data platforms (e.g., GCP, BigQuery, Dataflow).
Familiarity with cloud-native architectures and MLOps tools for managing the model lifecycle at scale.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8638160
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Bnei Brak
Job Type: Full Time
we are one of the most popular and downloaded apps in the world. Working with us means influencing hundreds of millions of users and shaping the journey toward becoming a true super-app. Our mission is to make peoples lives easier by enabling meaningful connections - from special moments with friends and family, to building businesses and pursuing passions. Were looking for a Senior data Analyst who combines strong technical skills with a strategic mindset and curiosity for how data drives User Experience and growth in social mobile apps. Youll partner closely with product, engineering, and marketing teams to turn data into clear insights and measurable business impact. If youre passionate about uncovering insights, leveraging data and AI for smarter, faster results, and driving decisions at scale; wed love to hear from you!
Responsibilities:

* Identify opportunities for improvement through data analysis aligned with company strategy.
* Partner cross-functionally to translate data findings into actionable product and business decisions.
* Design, run, and analyze A/B tests to evaluate product changes and User Experience optimizations.
* Build, automate, and maintain dashboards and reports to track platform health, user behavior, and key trends.
* Communicate findings clearly to stakeholders, influencing both tactical and strategic decisions.
* Leverage AI and automation tools to accelerate analytical workflows and uncover deeper insights.
Advantages:

* Background in statistics, causal inference, or experimentation frameworks.
* Experience mentoring analysts or leading analytical projects.
* A deep interest in social, communication, or engagement-driven apps.
Requirements:
* 6+ years of experience in data analytics, preferably in consumer-facing digital products.
* Strong command of SQL, Python, and data visualization tools (e.g., Tableau, Looker, Matplotlib).Proven ability to design and analyze A/B tests and apply sound experimental methodology.
* Strong understanding of how to leverage AI to improve analysis speed, accuracy, and impact.
* Excellent communication and storytelling skills; ability to craft a clear narrative from complex data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8637242
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
מיקום המשרה: נתניה
סוג משרה: משרה מלאה
אנחנו מחפשים Senior data Engineer שי/תוביל טכנולוגית את ההקמה והפיתוח של תשתית הData Fabric במסגרת תוכנית Military AI מתקדמת.
בתפקיד זה תיקח/י חלק מרכזי בתכנון ויישום ארכיטקטורות דאטה סקיילביליות, בבניית תהליכי דאטה קונטקסטואליים ובאוטומציה של תהליכים בסביבות Big Data.
זוהי הזדמנות ייחודית להוביל חדשנות ותכנון טכנולוגי של תשתיות נתונים מתקדמות, המשפיעות ישירות על מודיעין וקבלת החלטות מבצעית
תחומי אחריות עיקריים בניית data Pipelines חכמים לעיבוד, מניפולציה והפקת תובנות מנתונים
עבודה משותפת עם data Stewards להגדרת תצורות מטאדאטה
מימוש data Functions as a Service (FaaS) וWorkflows הכוללים: יצירת מטאדאטה
חילוץ אוטומטי
ולידציות
המרות פורמטים פיתוח כלי Audit, Observability וCompliance Analytics
ניתוח נתונים גולמיים, ארגון והכנת דאטה למודלים חיזויים ופרסקריפטיביים
ביצוע ניתוחים מורכבים והצגת ממצאים
שיפור איכות ומהימנות הנתונים וניהול data Fusion ממקורות מרובים
פיתוח כלים אנליטיים, אלגוריתמים ותוכניות דאטה
הובלה טכנולוגית של תהליכי מידול וארגון דאטה בפייפליינים קונטקסטואליים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636980
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a strong, hands-on Data Engineer to join our team and play a key role in building our data infrastructure from the ground up. In this role, you will design and implement scalable data pipelines and platforms, supporting both batch and real-time use cases. You will work closely with analysts and stakeholders to deliver reliable, high-quality data solutions, and take full ownership of data flows - from ingestion to consumption. This is a great opportunity for an executor who enjoys building, moving fast, and making an impact.
What will your job look like?
Design, build, and maintain robust and scalable data pipelines (batch and real-time) end-to-end.
Design and implement scalable, flexible data architectures to support evolving business needs.
Build and manage data platforms, including data lakes and data warehouses.
Integrate multiple data sources (structured and unstructured) into a unified data platform using batch (ETL) and real-time streaming solutions.
Design and implement efficient data models, schemas, and database structures (SQL / NoSQL).
Develop and implement data quality processes to ensure accuracy, consistency, and reliability.
Monitor, optimize, and troubleshoot data infrastructure to meet performance and SLA requirements.
Requirements:
5+ years of hands-on experience as a Data Engineer, building data systems from scratch in dynamic environments.
Bachelors degree in Computer Science, Engineering, or a related field (or equivalent practical experience).
Strong proficiency in Python and advanced SQL, with solid experience in data modeling.
Proven experience designing and building scalable data pipelines (batch and real-time), including streaming technologies such as Kafka.
Strong experience working with AWS, including services such as S3, Athena and DynamoDB.
Experience working with big data processing frameworks such as Spark, and columnar data formats (e.g., Parquet).
Hands-on experience with workflow orchestration tools such as Airflow.
Strong ownership and execution mindset, with excellent problem-solving skills and high attention to detail, and the ability to collaborate effectively and deliver in ambiguous, fast-paced environments.
Experience with data platform technologies such as Databricks, Snowflake - Advantage.
Experience building data platforms using modern lakehouse technologies (e.g., Iceberg) - Advantage.
Fluent in English.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636352
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We're hiring a Data Engineer to join our growing team of analytics experts in order to help & lead the build-out of our data integration and pipeline processes, tools and platform.
The ideal candidate is an experienced data pipeline builder and data wrangler who enjoys optimizing data systems and building them from the ground up.
The right candidate must be self-directed and comfortable supporting the data needs of multiple teams, systems and products. The right candidate will be excited by the prospect of optimizing or even re-designing our companys data architecture to support our next generation of products and data initiatives.
In this role, you will be responsible for:
Create ELT/Streaming processes and SQL queries to bring data to/from the data warehouse and other data sources.
Establish scalable, efficient, automated processes for large-scale data analyses.
Support the development of performance dashboards & data sets that will generate the right insight.
Work with business owners and partners to build data sets that answer their specific business questions.
Collaborates with analytics and business teams to improve data models that feed business intelligence tools, increasing data accessibility and fostering data-driven decision-making across the organization.
Works closely with all business units and engineering teams to develop a strategy for long-term data platform architecture.
Own the data lake pipelines, maintenance, improvements and schema.
Requirements:
BS or MS degree in Computer Science or a related technical field.
3-4 years of Python / Java development experience.
3-4 years of experience as a Data Engineer or in a similar role (BI developer).
3-4 years of direct experience with SQL (No-SQL is a plus), data modeling, data warehousing, and building ELT/ETL pipelines - MUST
Experience working with cloud environments (AWS preferred) and big data technologies (EMR,EC2, S3 ) - DBT is an advantage.
Experience working with Airflow - big advantage
Experience working with Kubernetes - advantage
Experience working with at least in one of the big data environments: Snowflake, Vertica, Hadoop (Impala/Hive), Redshift etc - MUST
Experience working with Spark - advantage
Exceptional troubleshooting and problem-solving abilities.
Excellent verbal/written communication & data presentation skills
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636139
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Jerusalem
Job Type: Full Time
We are seeking a Backend & Data Engineer to join our Innovation Team within our Mapping Division. This role is best suited for engineers with strong system-level thinking, a can-do approach, and a hands-on mindset, with the ability to design, build, and optimize complex systems operating at scale.
What your job will look like:
Develop and maintain backend and data-processing components in large-scale systems
Design, implement, and optimize data pipelines and distributed processing flows
Work with large-scale storage systems (e.g., S3) and high-volume data access patterns
Optimize systems and code across multiple layers - from architecture to implementation
Identify performance bottlenecks, debug complex issues, and drive root-cause solutions
Work across teams and domains, reading, improving, and refactoring existing code
Take part in technical design and decision-making, balancing performance, scalability, and maintainability.
Requirements:
5+ years of experience in software development, with a strong backend and/or data focus
Experience building backend services (APIs) and working with databases and storage systems
Experience using AI as a core part of the development workflow
Hands-on experience with large-scale data processing and distributed systems
Experience with Spark / PySpark - a strong advantage
Experience with Python or Node.js
Strong understanding of performance optimization and system behavior (CPU, memory, concurrency)
Proven debugging skills and ability to move from symptoms to root cause
A strong can-do approach - proactive, hands-on, and not afraid to dive into complex systems.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636130
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Jerusalem
Job Type: Full Time
Required Senior ML Data Engineer
Jerusalem
Full time
The AI Engineering group builds modern infrastructure and solutions that improve how algorithms are developed.
We are a small, independent team of experienced engineers with a mix of skills in algorithms, software, and infrastructure. We work in a DevOps style and build cross-team solutions that support research and development of advanced perception algorithms.
Our flagship project is a unified AV dataset used to train and evaluate next-generation models. We take large volumes of multi-camera video, object labels, HD maps, and sensor data from across the organization, and turn it into a curated, high-quality training set - at scale.
We are looking for someone who brings ML and computer-vision depth to the team - someone who can help shape the intelligence layer that decides what data is worth training on.
What will your job look like:
Work collaboratively with shared ownership. Your focus area will be the curation and ML side of our data pipeline, but you will contribute across the full stack alongside the rest of the team.
Build and improve the curation pipeline - from vision-model embeddings and scene detection, through VLM-based scene analysis, to scoring, deduplication, and sampling that produces a balanced and diverse dataset.
Run and optimize GPU inference at scale (embedding extraction, VLM inference) across thousands of driving sessions using workflow orchestration.
Develop scoring and sampling strategies that ensure rare but important scenarios (night driving, adverse weather, hazardous situations) are well-represented in the final dataset.
Work with algorithm teams to understand what data gaps hurt model performance and translate those into curation criteria.
Build validation and diagnostics that measure dataset quality - not just pipeline health, but whether the data is actually good for training.
Contribute to the core dataset SDK, converter, and 3D-geometry tooling (camera projection, calibration, coordinate transforms).
Requirements:
4+ years in ML engineering, applied CV, or a similar role combining model work with production data systems.
Hands-on experience with vision models - embeddings, VLMs, or object detection/segmentation.
Strong Python and comfort with the PyData stack (NumPy, PyArrow, Pandas, DuckDB).
Experience building data or ML pipelines that run at scale (not just notebooks).
Solid understanding of 3D geometry and camera models - or the mathematical background to ramp up quickly.
Good understanding of LLM agents and agentic workflows, with genuine interest in applying them to data and engineering problems.
Ability to work across team boundaries with algorithm and infrastructure people.
Strong advantage:
Experience with autonomous-driving datasets or perception pipelines.
Familiarity with dataset curation techniques (active learning, hard-example mining, distribution balancing).
Experience with GPU inference serving (vLLM, Triton, TensorRT).
Familiarity with vector databases or columnar analytics (LanceDB, DuckDB).
Experience with workflow orchestration (Argo, Airflow, Kubeflow).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636125
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Staff Data Platform Engineer to join our Engineering team and lead the evolution of our next-generation data platform. In this high-impact role, you will operate as a player-coach: you will be the technical visionary responsible for designing the ecosystem, while remaining deeply hands-on to implement scalable, secure, and intelligent solutions that power everything from operational reporting to advanced GenAI applications.
You will bridge the gap between complex business requirements and technical execution, advocating for a data-first culture. This role offers a clear growth path: while it currently starts as an individual contributor position, it has the potential to evolve into a leadership role.
About the Role:
Architecture & Hands-on Execution: Design and actively build a comprehensive data platform. You will not just oversee infrastructure; you will write the core code and build tools that support diverse workloads-from operational reporting to complex analytical queries.
Strategic & Technical Delivery: Partner with product managers to translate business objectives into technical strategies, then lead the engineering effort to deliver them.
Technology Evaluation: Continuously evaluate, prototype, and select best-in-class technologies to future-proof our data stack.
Technical Leadership & Mentorship: Act as a primary advocate for platform adoption. You will foster a community of practice around data engineering, mentoring senior and mid-level engineers to elevate the team's technical bar.
Governance & Quality: Implement and automate robust frameworks for Data Discovery, Quality, and Governance, ensuring solutions are trustworthy and compliant with financial regulations.
Requirements:
Experience: 8+ years of hands-on experience in Data Engineering and Architecture, with a track record of building and shipping platforms at scale.
Experience with modern big data platforms such as Snowflake, Databricks, or similar technologies.
Hands-on experience with Data infrastructure experience (Orchestration, scalability, reliability, and cloud architecture).
Data Movement & Integration: Deep understanding of data movement strategies, including high-frequency batching, CDC, and real-time event streaming.
Technical Depth: Deep understanding of database internals. High proficiency in Python and SQL. You can dive into code when necessary to solve complex issues.
Modeling & Architecture: Strong know-how in dimensional modeling and schema design (relational and NoSQL), with proven experience implementing Data Warehouse or Lakehouse architectures.
GenAI & RAG Expertise: You have practical experience architecting and building RAG (Retrieval-Augmented Generation) pipelines, with specific knowledge of Vector Databases, Embedding Models, and LLM Orchestration frameworks.
Business Acumen: A strong ability to understand business objectives and translate them into technical strategies that drive tangible value.
Leadership and Communication: As this is a central role in the product tech organisation, you will need a strong ability to influence engineering teams and drive consensus without direct authority. You must have excellent communication skills to explain complex architectural concepts to C-level stakeholders and non-technical partners.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636116
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Jerusalem
Job Type: Full Time
We are looking for someone who brings ML and computer-vision depth to the team - someone who can help shape the intelligence layer that decides what data is worth training on.
What will your job look like:
Work collaboratively with shared ownership. Your focus area will be the curation and ML side of our data pipeline, but you will contribute across the full stack alongside the rest of the team.
Build and improve the curation pipeline - from vision-model embeddings and scene detection, through VLM-based scene analysis, to scoring, deduplication, and sampling that produces a balanced and diverse dataset.
Run and optimize GPU inference at scale (embedding extraction, VLM inference) across thousands of driving sessions using workflow orchestration.
Develop scoring and sampling strategies that ensure rare but important scenarios (night driving, adverse weather, hazardous situations) are well-represented in the final dataset.
Work with algorithm teams to understand what data gaps hurt model performance and translate those into curation criteria.
Build validation and diagnostics that measure dataset quality - not just pipeline health, but whether the data is actually good for training.
Contribute to the core dataset SDK, converter, and 3D-geometry tooling (camera projection, calibration, coordinate transforms).
Requirements:
4+ years in ML engineering, applied CV, or a similar role combining model work with production data systems.
Hands-on experience with vision models - embeddings, VLMs, or object detection/segmentation.
Strong Python and comfort with the PyData stack (NumPy, PyArrow, Pandas, DuckDB).
Experience building data or ML pipelines that run at scale (not just notebooks).
Solid understanding of 3D geometry and camera models - or the mathematical background to ramp up quickly.
Good understanding of LLM agents and agentic workflows, with genuine interest in applying them to data and engineering problems.
Ability to work across team boundaries with algorithm and infrastructure people.
Strong advantage:
Experience with autonomous-driving datasets or perception pipelines.
Familiarity with dataset curation techniques (active learning, hard-example mining, distribution balancing).
Experience with GPU inference serving (vLLM, Triton, TensorRT).
Familiarity with vector databases or columnar analytics (LanceDB, DuckDB).
Experience with workflow orchestration (Argo, Airflow, Kubeflow).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8635950
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו