דרושים » דאטה » Senior Computer Vision Data Engineer

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
Location: Jerusalem
Job Type: Full Time
We are looking for someone who brings ML and computer-vision depth to the team - someone who can help shape the intelligence layer that decides what data is worth training on.
What will your job look like:
Work collaboratively with shared ownership. Your focus area will be the curation and ML side of our data pipeline, but you will contribute across the full stack alongside the rest of the team.
Build and improve the curation pipeline - from vision-model embeddings and scene detection, through VLM-based scene analysis, to scoring, deduplication, and sampling that produces a balanced and diverse dataset.
Run and optimize GPU inference at scale (embedding extraction, VLM inference) across thousands of driving sessions using workflow orchestration.
Develop scoring and sampling strategies that ensure rare but important scenarios (night driving, adverse weather, hazardous situations) are well-represented in the final dataset.
Work with algorithm teams to understand what data gaps hurt model performance and translate those into curation criteria.
Build validation and diagnostics that measure dataset quality - not just pipeline health, but whether the data is actually good for training.
Contribute to the core dataset SDK, converter, and 3D-geometry tooling (camera projection, calibration, coordinate transforms).
Requirements:
4+ years in ML engineering, applied CV, or a similar role combining model work with production data systems.
Hands-on experience with vision models - embeddings, VLMs, or object detection/segmentation.
Strong Python and comfort with the PyData stack (NumPy, PyArrow, Pandas, DuckDB).
Experience building data or ML pipelines that run at scale (not just notebooks).
Solid understanding of 3D geometry and camera models - or the mathematical background to ramp up quickly.
Good understanding of LLM agents and agentic workflows, with genuine interest in applying them to data and engineering problems.
Ability to work across team boundaries with algorithm and infrastructure people.
Strong advantage:
Experience with autonomous-driving datasets or perception pipelines.
Familiarity with dataset curation techniques (active learning, hard-example mining, distribution balancing).
Experience with GPU inference serving (vLLM, Triton, TensorRT).
Familiarity with vector databases or columnar analytics (LanceDB, DuckDB).
Experience with workflow orchestration (Argo, Airflow, Kubeflow).
This position is open to all candidates.
 
Hide
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8635950
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Jerusalem
Job Type: More than one
Startup in Jerusalem is looking for a talented Computer Vision AI Engineer
Requirements:
Participate in system architecture design and development, including the ability to build and maintain scalable and secure systems

Write clean, efficient, and maintainable code in a variety of programming languages

Stay up-to-date with emerging trends and technologies in web development and system architecture

Troubleshoot and debug applications as needed
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8451974
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה ועבודה היברידית
אנחנו מחפשים מפתח/ת data Science עם חשיבה אנליטית ויכולת פיתוח, להצטרפות לצוות טכנולוגי מתקדם ודינאמי.

מה בתפקיד?
פיתוח ויישום מודלים סטטיסטיים ומתמטיים
בניית אלגוריתמים ופתרונות מבוססי data
עבודה עם Big Data והטמעת מודלים בסביבות ייצור
פיתוח API ושילוב מודלים במערכות הארגון
עבודה מול צוותי מוצר, דאטה, DevOps ומהנדסי נתונים
ביצוע ניסויים, אופטימיזציה והערכת ביצועים

תפקיד שמשלב פיתוח אמיתי של מוצרים חכמים, עבודה עם טכנולוגיות מתקדמות והשפעה ישירה על פתרונות ארגוניים.
תנאים מצוינים למתאימים/ות!
דרישות:
לפחות 3 שנות ניסיון בתפקידי דאטה, כולל שנה ב- data Science
ניסיון חזק ב- Python
ניסיון עם ספריות ML/AI (כגון scikit-learn, TensorFlow, PyTorch)
ניסיון בעבודה עם בסיסי נתונים (SQL ועוד)
ניסיון בסביבות ענן ו-On-Premise
יכולת עבודה עצמאית ולמידה מהירה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621313
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בMertens – Malam Team
מיקום המשרה: ירושלים
סוג משרה: מספר סוגים
חברת Mertens Malam Team מגייסת DBA תשתיתי.ת SQL server לארגון ציבורי בירושלים

התפקיד כולל:
ניהול מקצה לקצה של סביבת בסיסי הנתונים, כולל הקמה, תחזוקה, תפעול ותמיכה שוטפת במערכות SQL server בסביבת Production

עבודה עם SQL server, SQL server Internals, Execution Plans, Performance Tuning, Always On, High Availability, Disaster Recovery
דרישות:
ניסיון של 4 שנים כ- DBA תשתיתי.ת בסביבת MS SQL server - חובה
ניסיון מעשי ב- SQL server Internals כולל Execution Plans, Locking/Blocking, Memory Management, I/O - חובה
ניסיון מוכח ב-Performance Tuning ואופטימיזציה של שאילתות וניתוח ביצועים - חובה
ניסיון ביישום פתרונות High Availability ו-Disaster Recovery כולל Always On, אסטרטגיות גיבוי, Point-in-Time Recovery - חובה

ניסיון בהקמה, תחזוקה ותפעול בסיסי נתונים בסביבת Production ועבודה מול צוותי פיתוח - חובה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8591522
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה ועבודה היברידית
הצטרפו לפרויקט לאומי פורץ דרך!

מחפש/ת תפקיד עם משמעות אמיתית? זה הזמן לקחת חלק בהקמה ותפעול של מערכת קריטית ברמה הלאומית.
מה בתפקיד?
פיתוח, הקמה ותפעול של מערכת מידע מתקדמת
עבודה עם דאטה מורכב וניתוח נתוני נוסעים
שיתוף פעולה עם צוותי תשתיות, סייבר, אינטגרציה ודאטה
השתלבות בפרויקט טכנולוגי רחב היקף עם השפעה ביטחונית ואזרחית
דרישות:
ניסיון בפיתוח ותפעול תשתיות דאטה ( data Engineering)
ניסיון בעבודה עם Big Data ועיבוד נתונים בהיקפים גדולים
ניסיון בפיתוח תהליכי ETL / data Pipelines
עבודה עם מסדי נתונים רלציוניים ולא רלציוניים
היכרות עם כלי אינטגרציה ועבודה בסביבה מרובת ממשקים
יכולת עבודה בצוות וראייה מערכתית
נכונות לעבודה בשעות נוספות וכוננויות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621407
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בסיסנת תוכנה בע"מ
סוג משרה: משרה מלאה ועבודה היברידית
הזדמנות להשתלב בפרויקט לאומי קריטי עם אימפקט אמיתי
למכס ומעמ ב-רשות המסים בישראל דרוש/ה מהנדס/ת נתונים ( data Engineer / DBA MSSQL) עם ניסיון של 4+ שנים לעבודה על מערכת Travelers Air
מערכת Travelers Air היא מערכת לאומית מתקדמת האחראית על איסוף, ניתוח והערכת סיכונים של נוסעים הנכנסים והיוצאים מישראל דרך נתב"ג, בשיתוף גופים ביטחוניים וממשלתיים.
מדובר בפרויקט טכנולוגי מורכב, רגיש ובעל חשיבות אסטרטגית ברמה הלאומית.

מה בתפקיד?
ניהול ותפעול בסיסי נתונים MSSQL בסביבה מורכבת וקריטית
פתרון תקלות מורכבות ושיפור ביצועים
אופטימיזציה והרצת שאילתות SQL מתקדמות
אחריות על data Pipelines ואיכות הנתונים
תכנון ויישום אסטרטגיות גיבוי ואבטחת מידע
עבודה עם מודלים אנליטיים ותשתיות מידע מתקדמות
הובלה מקצועית ועבודה מול צוותים מגוונים
דרישות:
דרישות מרכזיות:
לפחות 4 שנות ניסיון בניהול בסיסי נתונים MSSQL
ניסיון בהתקנה, שדרוג ותחזוקת שרתי SQL server
ניסיון ב-Performance Tuning ואופטימיזציה
ניסיון בעבודה עם Always On
ניסיון בתכנון ויישום גיבויים ואבטחת DB
יכולת תחקור ופתרון תקלות מורכבות
עבודה בצוות ויחסי אנוש מעולים

יתרונות:
ניסיון עם NoSQL / DB Graph
ניסיון ב- Python או # C
סיווג ביטחוני בתוקף
יוצאי יחידות טכנולוגיות - ממר"ם / 8200 / תקשוב וכד'

מיקום: ירושלים - המכון הגיאולוגי

(מעבר צפוי ביוני 2026 למתחם דקטלון בתלפיות)
משרה מלאה | היברידיות של עד יומיים מהבית לאחר תקופת חפיפה

מחפש/ת את האתגר הבא שלך בעולם הדאטה והתשתיות?
זו הזדמנות לקחת חלק במערכת לאומית משמעותית במכס ומעמ של רשות המסים, לעבוד עם טכנולוגיות מתקדמות ולהשפיע באמת. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628411
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
לגוף ממשלתי בירושלים דרוש/ה מהנדס/ת תשתיות נתונים לניהול ותחזוקה של מסדי נתונים ארגוניים ותהליכי נתונים מורכבים.

תיאור התפקיד:
- ניהול ואחריות כוללת על תשתיות מסדי נתונים ( ( DBA ) )
- פתרון תקלות מורכבות ושיפור ביצועים
- הרצה ואופטימיזציה של שאילתות מורכבות
- בדיקות איכות נתונים ותקינות זרימת המידע
- עבודה עם תהליכי נתונים ו?pipelines
- הקמה, תחזוקה ושדרוג של שרתי SQL server
- תכנון ויישום גיבויים, אבטחת מידע וניהול הרשאות
- תרגום דרישות עסקיות לפתרונות טכנולוגיים
- עבודה בצוות והובלה מקצועית בתחום
דרישות:
דרישות חובה:
- 4 שנות ניסיון משמעותי בניהול תשתיות מסדי נתונים ב?MSSQL
- ניסיון מוכח בפתרון תקלות, ניתוח ביצועים ואופטימיזציה
- ניסיון בתכנון ויישום אבטחת בסיסי נתונים ואסטרטגיות גיבוי
- ניסיון בעבודה עם Always On
- ניסיון בהתקנה ושדרוג שרתי SQL
- יכולת עבודה בצוות ותקשורת בין?אישית טובה

יתרון:
- ניסיון במסדי נתונים לא רלציוניים
- ניסיון בעבודה עם Graph DB
- ידע בפייתון ו/או C #
- סיווג ביטחוני בתוקף - רמה 3

השכלה - תנאי סף (אחד מהבאים):
- תואר ראשון בהנדסה / מדעי המחשב
- הנדסאי/ת תוכנה
- תואר אחר + קורסים מתקדמים בתחום הנתונים (200 שעות לפחות, מתוכן 100 בהנדסת נתונים)
- קורסים בתחום מערכות מידע בהיקף של 300 שעות (מתוכן 100 בהנדסת נתונים) + שנת ניסיון נוספת
- בוגר/ת יחידה טכנולוגית בצהל (ממרם / 8200 / תקשוב / מקבילות או בראם) - בכפוף לאישור המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621223
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
חברה חסויה
Location: Jerusalem
Job Type: Full Time
Required Senior ML Data Engineer
Jerusalem
Full time
The AI Engineering group builds modern infrastructure and solutions that improve how algorithms are developed.
We are a small, independent team of experienced engineers with a mix of skills in algorithms, software, and infrastructure. We work in a DevOps style and build cross-team solutions that support research and development of advanced perception algorithms.
Our flagship project is a unified AV dataset used to train and evaluate next-generation models. We take large volumes of multi-camera video, object labels, HD maps, and sensor data from across the organization, and turn it into a curated, high-quality training set - at scale.
We are looking for someone who brings ML and computer-vision depth to the team - someone who can help shape the intelligence layer that decides what data is worth training on.
What will your job look like:
Work collaboratively with shared ownership. Your focus area will be the curation and ML side of our data pipeline, but you will contribute across the full stack alongside the rest of the team.
Build and improve the curation pipeline - from vision-model embeddings and scene detection, through VLM-based scene analysis, to scoring, deduplication, and sampling that produces a balanced and diverse dataset.
Run and optimize GPU inference at scale (embedding extraction, VLM inference) across thousands of driving sessions using workflow orchestration.
Develop scoring and sampling strategies that ensure rare but important scenarios (night driving, adverse weather, hazardous situations) are well-represented in the final dataset.
Work with algorithm teams to understand what data gaps hurt model performance and translate those into curation criteria.
Build validation and diagnostics that measure dataset quality - not just pipeline health, but whether the data is actually good for training.
Contribute to the core dataset SDK, converter, and 3D-geometry tooling (camera projection, calibration, coordinate transforms).
Requirements:
4+ years in ML engineering, applied CV, or a similar role combining model work with production data systems.
Hands-on experience with vision models - embeddings, VLMs, or object detection/segmentation.
Strong Python and comfort with the PyData stack (NumPy, PyArrow, Pandas, DuckDB).
Experience building data or ML pipelines that run at scale (not just notebooks).
Solid understanding of 3D geometry and camera models - or the mathematical background to ramp up quickly.
Good understanding of LLM agents and agentic workflows, with genuine interest in applying them to data and engineering problems.
Ability to work across team boundaries with algorithm and infrastructure people.
Strong advantage:
Experience with autonomous-driving datasets or perception pipelines.
Familiarity with dataset curation techniques (active learning, hard-example mining, distribution balancing).
Experience with GPU inference serving (vLLM, Triton, TensorRT).
Familiarity with vector databases or columnar analytics (LanceDB, DuckDB).
Experience with workflow orchestration (Argo, Airflow, Kubeflow).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636125
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
12/04/2026
חברה חסויה
Location: Jerusalem
Job Type: Full Time
We're looking for a Data Engineer with 4+ year experience to join our Data Engineering team and help us build and scale our production-grade data platform. You'll work on high-performance systems built on self-hosted ClickHouse, optimize complex data pipelines, and collaborate closely with Product, Analytics, and Infrastructure teams to deliver reliable, fast, and scalable data solutions.

This is a hands-on technical role where you'll have a significant impact on how we ingest, model, store, and serve data that powers our analytics and AI-driven products.
Youll play a key role in shaping the direction of our data platform and have meaningful ownership over critical components of our architecture.

What You'll Do:
Data Modeling & Architecture
Design and evolve data models that reflect business logic and support analytical use cases
Collaborate with the BI and Analytics teams to understand data requirements and translate them into efficient schemas
Performance Optimization
Optimize ClickHouse schemas, partitioning strategies, indexing, and compression
Profile and tune slow queries to improve performance and reduce costs
Implement systems that ensure data quality, consistency, and operational efficiency (e.g., deduplication, validation, anomaly detection)
Monitor pipeline health, data freshness, and query performance with appropriate alerting mechanisms
SQL Compiler Development
Develop and maintain the SQL Compiler layer that translates high-level queries into optimized ClickHouse execution plansImplement query optimization and rewriting strategies to improve performanceDebug and resolve compiler issues to ensure accurate and efficient query translation

Data Pipeline Development & Collaboration
Review and advise the Integration team on pipeline architecture, performance, and best practices.
Provide guidance on data modeling, schema design, and optimization for new data sources.
Troubleshoot and maintain existing pipelines when issues arise or optimization is needed
Ensure data freshness, reliability, and quality across all ingestion pipelines.
Collaboration & Support
Work closely with the Integration team to ensure smooth data ingestion from new sources.
Partner with Infrastructure to support high availability and disaster recovery
Support other teams across the company in accessing and using data effectively.
Requirements:
Excellent communication and collaboration skills
English at a high level, written and spoken required
Ability to work from our Jerusalem office (located in the Central Bus Station next to the train) 2 times a week (Monday & Wednesday) is required
Strong attention to detail, ownership mentality, and ability to work independently
Quick learner who can dive into new codebases, technologies, and systems independently
Hands-on mentality - not afraid to roll up your sleeves, dig into unfamiliar code, and work across the stack (including backend when needed)
4+ years of experience as a Data Engineer
Strong problem-solving skills for complex data challenges at scale - ability to debug performance issues, data inconsistencies, and system bottlenecks in high-volume environments
Experience with data modeling and schema design for analytical workloads
Strong proficiency in SQL and experience with complex analytical queries
Hands-on experience building and maintaining data pipelines (ETL/ELT)
Ability to troubleshoot and optimize systems handling large data volumes (millions+ rows, complex queries, high throughput)
Knowledge of query optimization techniques and execution planning
Familiarity with columnar databases (ClickHouse, BigQuery, Redshift, Snowflake, or similar). Columnar DB experience is a big plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8605397
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
Location: Jerusalem
Job Type: Full Time
We are seeking a Backend & Data Engineer to join our Innovation Team within our Mapping Division. This role is best suited for engineers with strong system-level thinking, a can-do approach, and a hands-on mindset, with the ability to design, build, and optimize complex systems operating at scale.
What your job will look like:
Develop and maintain backend and data-processing components in large-scale systems
Design, implement, and optimize data pipelines and distributed processing flows
Work with large-scale storage systems (e.g., S3) and high-volume data access patterns
Optimize systems and code across multiple layers - from architecture to implementation
Identify performance bottlenecks, debug complex issues, and drive root-cause solutions
Work across teams and domains, reading, improving, and refactoring existing code
Take part in technical design and decision-making, balancing performance, scalability, and maintainability.
Requirements:
5+ years of experience in software development, with a strong backend and/or data focus
Experience building backend services (APIs) and working with databases and storage systems
Experience using AI as a core part of the development workflow
Hands-on experience with large-scale data processing and distributed systems
Experience with Spark / PySpark - a strong advantage
Experience with Python or Node.js
Strong understanding of performance optimization and system behavior (CPU, memory, concurrency)
Proven debugging skills and ability to move from symptoms to root cause
A strong can-do approach - proactive, hands-on, and not afraid to dive into complex systems.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636130
סגור
שירות זה פתוח ללקוחות VIP בלבד