רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
חברות מגייסות
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 19 שעות
דרושים בOne data
הזדמנות להשתלב בארגון גדול ודינמי, עם מאות משתמשים, הנמצא בתנופת עשייה ומעבר לטכנולוגיות חדשניות ומתקדמות!
הצטרף/י לצוות BI שאחראי על תפעול, פיתוח והובלת פרויקטים משמעותיים משלב האפיון ועד ליישום והטמעה מלאה של פתרונות דאטה ובינה עסקית.
במסגרת התפקיד:
אפיון דרישות עסקיות ומיפוי נתונים
הגדרת תהליכי ETL ותרשימי ERD
פיתוח ותחזוקת pipelines בסביבת data Lake
פיתוח דשבורדים ודוחות במערכות BI
מתן מענה שוטף לדרישות עסקיות, תקלות, ופרויקטים
עבודה עם טכנולוגיות מתקדמות בסביבת ענן
דרישות:
לפחות 8 שנות ניסיון בבניית ותחזוקת data Pipelines מקצה לקצה
ניסיון עם כלי SAP חובה
ניסיון עם Databricks ו-Snowflake חובה
שליטה מעמיקה ב-SQL (כולל stored procedures, Indexing, Performance Tuning)
ניסיון בפיתוח תהליכי שינוע נתונים בעולמות רלציוניים
ניסיון בכלי תשתית: SSIS, SAP -DI / SAP -DS, SQR
עבודה עם תהליכי CI/CD
ניסיון בעבודה בסביבת ענן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8347624
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בOne data
בנייה ואופטימיזציה של שאילתות Splunk ותהליכי Ingestion
עבודה עם Kafka, APIs לוגים ומקורות נוספים
העשרת נתונים בזמן אמת והקמת מערך התראות
שיתוף פעולה עם צוותי Dev, DevOps ומוניטורינג
דרישות:
לפחות 3 שנות ניסיון עם Splunk
ידע חזק בSPL - לוחות בקרה, מאקרו, ביצועים
ניסיון עם מערכות מבוססות אירועים (Kafka, REST APIs)
שליטה בJSON, XML ונתונים חצי-מובנים
סקריפטינג בPython או Bash
יכולת עבודה עצמאית והובלת פתרונות ברמת פרודקשן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8265056
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
תפקיד מנהל בסיסי נתונים ( ( DBA ) ) כולל אחריות על פיתוח תשתיות ותחזוקת מערכות נתונים שונות בארגון, כולל טיפול תקלות, כוונון ביצועים, גיבוי ושחזור נתונים. המשרה דורשת עבודה עם סוגי בסיסי נתונים שונים ודורשת ידע נרחב בניהול בסיסי נתונים מודרניים ובביצוע משימות יומיות של ( DBA ).
דרישות:
ניסיון רב עם MongoDB - ידע מתקדם בניהול, אופטימיזציה ותחזוקת בסיסי נתונים מסוג NoSQL.
היכרות עם InfluxDB - יתרון משמעותי לניסיון עם בסיסי נתונים של סידורי זמן לאחסון וניתוח נתונים בזמן אמת.
יכולת לאופטם ותחזוק בסיסי נתונים מסוג NoSQL ו-SQL.
ניסיון בניהול גיבויים, שחזור נתונים ופתרון תקלות.
ניסיון במערכות בסיסי נתונים עם זמינות גבוהה.
היכרות עם קונטיינרים ומיקרוסרביסים בסביבת Kubernetes.
היכרות עם Helm.
היכרות עם SQL server - יתרון.
ניסיון עם MySQL ו-PostgreSQL - יתרון.
יכולת עבודה עם כלי ניטור ומערכות התראה.
ניסיון באוטומציה של סקריפטים לשיפור תהליכים (Bash, PowerShell, Python ) - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8316031
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
ארגון רפואי באזור המרכז מגייס data Scientist
התפקיד כולל: הובלה של פרויקטים מקצה לקצה, הגדרת בעיות עסקיות, חקר נתונים, פיתוח מודלים ופריסה בסביבת ייצור, ניתוחים אנליטיים מתקדמים, כולל הגדרת מדדים (KPIs) וחילוץ תובנות עסקיות, פיתוח והטמעה של מודלי Machine Learning ו NLP ועוד.
דרישות:
- 3 שנות ניסיון בפיתוח מודלים בתחום data Science / Machine Learning עם Tabular data
- 3 שנות ניסיון בפיתוח בסביבות Python ו-SQL
- שנה ניסיון בעבודה מעשית עם Generative AI
- ניסיון בעיבוד טקסטים ו- NLP
- ניסיון בהעלאת קוד ל-Production והיכרות עם סביבת פיתוח / QA / ייצור המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8330447
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים במלם תים
לתפקיד מאתגר בצוות data Warehouse אנו מחפשים מפתח/ת ETL מנוסה עבור גוף פיננסי מוביל.
התפקיד כולל פיתוח תהליכי ETL בכלי Talend ו-DataStage,כתיבת קוד PL/SQL בסביבת Oracle, ותחזוקת תהליכים בסביבת ייצור.
העבודה כוללת יישום פתרונות נתונים מורכבים, עבודה עם ממשקים מגוונים ושיתוף פעולה עם צוותים עסקיים וטכנולוגיים בארגון.
דרישות:
- ניסיון של לפחות 3 שנים בפיתוח תהליכי ETL בסביבת DWH
- ניסיון מוכח עם Talend, וכתיבת stored procedures /SQL מורכבות ב- Oracle
- ניסיון עם DataStage ועם מתזמן Control-M יתרון משמעותי
- השכלה טכנולוגית רלוונטית ויכולת עבודה בצוות ובאופן עצמאי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8327251
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
we believe everyone deserves the freedom to access, move, and manage their money wherever life takes them. Since 2011, weve tirelessly delivered on our promise to customers sending money globally, providing secure, simple, and reliable ways to manage their money, ensuring true peace of mind. Whether its supporting loved ones back home, growing a business across continents, or pursuing new opportunities abroad, were not just here to move money were here to move our global customers forward. Were looking for builders, reimaginers, and global thinkers who want to work at the intersection of technology, trust, and transformation. If thats you and youre ready to do the most meaningful work of your careerwe invite you to join over 2,800 passionate Remitlians worldwide who are united by our vision to transform lives with trusted financial services that transcend borders. The team in Israel pushes forward and aims for the stars, an energy that has defined us since our early startup days. We hire talents who are passionate about building meaningful products and making a real impact on peoples lives. We invest in promoting their career by providing opportunities, challenges, and a great flexible work environment. The team in Israel pushes forward and aims for the stars. We hire top talents and invest in promoting their career by providing opportunities, challenges, and a great work environment that places an important emphasis on work-life balance.

About the Role:
We're looking for a Senior Machine Learning Engineer to design and build scalable ML models that power critical business decisions. You will focus on building ML expertise from experimentation to production in one or more areas that improve the company's overall ML strategy. This role is based in Tel Aviv and involves collaboration across global teams, requiring strong communication and coordination skills.

Responsibilities:
Build and deploy end-to-end machine learning solutions from research to production by leveraging advanced algorithms and mathematical techniques to deliver highly predictive models in the fintech space.
Design and run experiments to evaluate new data sources and continuously improve the performance of existing models.
Implement, maintain, and monitor production models using machine learning platform, ensuring scalability, reliability, and long-term performance.
Evaluate model effectiveness both offline and in live environments, with a focus on real-world impact and business relevance.
Act as a technical leader, mentoring teammates, guiding design decisions, and collaborating with global cross-functional partners to drive ML initiatives forward.
Requirements:
MSc/Ph.D. in Statistics, computer science, data science or a related field
5+ years of experience of exploring, building and deploying ML and data systems in production
Strong programming skills in Python focusing on ML frameworks such as Sklearn, XGBoost or TensorFlow
Experience with distributed and stream processing, Cloud ML infrastructure and feature store tools
Expertise in supervised and unsupervised machine learning models (e.g., classification, anomaly detection or clustering)
Experience writing code in Agile, CI/CD-based production environments
Proficient in communicating technical and research ideas and collaborating effectively across teams and organizational stakeholders
Experience in Fintech solutions is a big advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8340040
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We're seeking an outstanding and passionate Data Platform Engineer to join our growing R&D team.

You will work in an energetic startup environment following Agile concepts and methodologies. Joining the company at this unique and exciting stage in our growth journey creates an exceptional opportunity to take part in shaping data infrastructure at the forefront of Fintech and AI.

What you'll do:

Design, build, and maintain scalable data pipelines and ETL processes for our financial data platform

Develop and optimize data infrastructure to support real-time analytics and reporting

Implement data governance, security, and privacy controls to ensure data quality and compliance

Create and maintain documentation for data platforms and processes

Collaborate with data scientists and analysts to deliver actionable insights to our customers

Troubleshoot and resolve data infrastructure issues efficiently

Monitor system performance and implement optimizations

Stay current with emerging technologies and implement innovative solutions
Requirements:
3+ years experience in data engineering or platform engineering roles

Strong programming skills in Python and SQL

Experience with orchestration platforms like Airflow/Dagster/Temporal

Experience with MPPs like Snowflake/Redshift/Databricks

Hands-on experience with cloud platforms (AWS) and their data services

Understanding of data modeling, data warehousing, and data lake concepts

Ability to optimize data infrastructure for performance and reliability

Experience working with containerization (Docker) in Kubernetes environments

Familiarity with CI/CD concepts

Fluent in English, both written and verbal
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8325892
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructuresomeone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacksits about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakesdesigned for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Requirements:
24 years in software / solution or infrastructure engineering, with 24 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skillsyoull be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8325726
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
27/08/2025
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time
Required Big Data & GenAI Engineering Lead
As a Big Data & GenAI Engineering Lead within our Data & AI Department, you will play a pivotal role in building the data and AI backbone that empowers product innovation and intelligent business decisions. You will lead the design and implementation of our next-generation lakehouse architecture, real-time data infrastructure, and GenAI-enriched solutions, helping drive automation, insights, and personalization at scale. In this role, you will architect and optimize our modern data platform while also integrating and operationalizing Generative AI models to support go-to-market use cases. This includes embedding LLMs and vector search into core data workflows, establishing secure and scalable RAG pipelines, and partnering cross-functionally to deliver impactful AI applications.
As a Big Data & GenAI Engineering Lead you will...
Design, lead, and evolve our petabyte-scale Lakehouse and modern data platform to meet performance, scalability, privacy, and extensibility goals.
Architect and implement GenAI-powered data solutions, including retrieval-augmented generation (RAG), semantic search, and LLM orchestration frameworks tailored to business and developer use cases.
Partner with product, engineering, and business stakeholders to identify and develop AI-first use cases, such as intelligent assistants, code insights, anomaly detection, and generative reporting.
Integrate open-source and commercial LLMs securely into data products using frameworks such as LangChain, or similar, to augment AI capabilities into data products.
Collaborate closely with engineering teams to drive instrumentation, telemetry capture, and high-quality data pipelines that feed both analytics and GenAI applications.
Provide technical leadership and mentorship to a cross-functional team of data and ML engineers, ensuring adherence to best practices in data and AI engineering.
Lead tool evaluation, architectural PoCs, and decisions on foundational AI/ML tooling (e.g., vector databases, feature stores, orchestration platforms).
Foster platform adoption through enablement resources, shared assets, and developer-facing APIs and SDKs for accessing GenAI capabilities.
Requirements:
8+ years of experience in data engineering, software engineering, or MLOps, with hands-on leadership in designing modern data platforms and distributed systems.
Proven experience implementing GenAI applications or infrastructure (e.g., building RAG pipelines, vector search, or custom LLM integrations).
Deep understanding of big data technologies (Kafka, Spark, Iceberg, Presto, Airflow) and cloud-native data stacks (e.g., AWS, GCP, or Azure).
Proficiency in Python and experience with GenAI frameworks like LangChain, LlamaIndex, or similar.
Familiarity with modern ML toolchains and model lifecycle management (e.g., MLflow, SageMaker, Vertex AI).
Experience deploying scalable and secure AI solutions with proper attention to privacy, hallucination risk, cost management, and model drift.
Ability to operate in ambiguity, lead complex projects across functions, and translate abstract goals into deliverable solutions.
Excellent communication and collaboration skills, with a passion for pushing boundaries in both data and AI domains..
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8321521
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
25/08/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
If youre looking to build something big, solve real problems, and grow fastwed love to meet you.

Responsibilities:

Own, enhance, and improve core platform

Focus on system efficiency and resilient infrastructure

Integrate well-known SAAS platforms to big data repository e.g., the major cloud providers, DataDog, and Snowflake

Optimize Spark and airflow processes

Contribute to data design and platform architecture while working closely with other business units and engineering teams

Face the challenges of testing and monitoring your large-scale data pipelines
Requirements:
7+ years developing and operating large-scale systems with high availability

7+ years of experience with Python or equivalent

Experience working with cloud environments (AWS preferred) and big data technologies (Spark, Airflow, S3, Snowflake, EMR)

Autodidact and self-motivated team player with solid communication skills who is interested in tackling the challenge of working with data at a scale
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8317973
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Join us for a meaningful and impactful role in safeguarding homeland security.

Role Description:

Develop and maintain complex ETL/ELT processes and Data Pipelines.
Work with Data Warehouses and Data Lake infrastructures.
Integrate diverse data sources while ensuring data quality, availability, and reliability.
Optimize and improve performance of processes and queries.
Collaborate closely with Analysts, Data Scientists, and development teams to deliver data-driven decision support solutions.
Requirements:
At least 5 years of experience as a Data Engineer.
Strong proficiency in SQL.
Hands-on experience with Big Data technologies (Hadoop, Spark, Hive) and Streaming frameworks (Kafka/Flink).
Familiarity with workflow orchestration tools (Airflow or similar).
Experience with CI/CD tools and version control (Git).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8316405
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
We are growing and are looking for a Senior Data Infra Engineer
who value personal and career growth, team-work, and winning!
What your day will look like:
Design, plan, and build all aspects of the platforms data, machine learning (ML) pipelines, and infrastructure.
Build and optimize an AWS-based Data Lake using best practices in cloud architecture, data partitioning, metadata management, and security to support enterprise-scale data operations.
Collaborate with engineers, data analysts, data scientists, and other stakeholders to understand data needs.
Solve challenging data integration problems, utilizing optimal ETL/ELT patterns, frameworks, query techniques, and sourcing from structured and unstructured data sources.
Lead end-to-end data projects from infrastructure design to production monitoring.
Requirements:
Have 5+ years of hands-on experience in designing and maintaining big data pipelines across on-premises or hybrid cloud environments, with proficiency in both SQL and NoSQL databases within a SaaS framework.
Proficient in one or more programming languages: Python, Scala, Java, or Go.
Experienced with software engineering best practices and automation, including testing, code reviews, design documentation, and CI/CD.
Experienced in building and designing ML/AI-driven production infrastructures and pipelines.
Experienced in developing data pipelines and maintaining data lakes on AWS - big advantage.
Familiar with technologies such as Kafka, Snowflake, MongoDB, Airflow, Docker, Kubernetes (K8S), and Terraform - advantage.
Bachelor's degree in Computer Science or equivalent experience.
Strong communication skills, fluent in English, both written and verbal.
A great team player with a can-do approach.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8313520
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
We are growing and are looking for a Senior Data Platform Engineer
who value personal and career growth, team-work, and winning!
What your day will look like:
Design, plan, and build all aspects of the platforms data, machine learning (ML) pipelines, and infrastructure.
Build and optimize an AWS-based Data Lake using best practices in cloud architecture, data partitioning, metadata management, and security to support enterprise-scale data operations.
Collaborate with engineers, data analysts, data scientists, and other stakeholders to understand data needs.
Solve challenging data integration problems, utilizing optimal ETL/ELT patterns, frameworks, query techniques, and sourcing from structured and unstructured data sources.
Lead end-to-end data projects from infrastructure design to production monitoring.
Requirements:
Have 5+ years of hands-on experience in designing and maintaining big data pipelines across on-premises or hybrid cloud environments, with proficiency in both SQL and NoSQL databases within a SaaS framework.
Proficient in one or more programming languages: Python, Scala, Java, or Go.
Experienced with software engineering best practices and automation, including testing, code reviews, design documentation, and CI/CD.
Experienced in building and designing ML/AI-driven production infrastructures and pipelines.
Experienced in developing data pipelines and maintaining data lakes on AWS - big advantage.
Familiar with technologies such as Kafka, Snowflake, MongoDB, Airflow, Docker, Kubernetes (K8S), and Terraform - advantage.
Bachelor's degree in Computer Science or equivalent experience.
Strong communication skills, fluent in English, both written and verbal.
A great team player with a can-do approach.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8313501
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/08/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Data Engineer
What You'll Do:

Design, build, and maintain data pipelines and infrastructure
Develop and implement data quality checks and monitoring processes
Work with engineers to integrate data into our systems and applications
Collaborate with scientists and analysts to understand their data needs
Requirements:
3 years of experience as a Data Engineer or a related role
Experience with big data technologies such as Hadoop, Spark, or Elastic Search.
Proven experience in designing, building, and maintaining data pipelines and infrastructure
Service in Unit 8200 or another technology unit- An Advance
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8312315
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
20/08/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a BI Data Engineer
As a BI Data Engineer , you will play a key role in designing, developing, and maintaining scalable data solutions that generate business impact.

Key Responsibilities:

Design and implement robust data models, ETL pipelines, and data flows that support advanced analytics and reporting across the organization.
Develop new data solutions from scratch while maintaining and enhancing existing infrastructure
Partner with the Data Architect to manage and evolve Skais data architecture, ensuring it accurately reflects and supports the evolving business model.
Work closely with business stakeholders to convert complex requirements into actionable data insights that drive informed decisions.
Become a focal point for all data-related matters in the organization.
Requirements:
Bachelor's degree in Industrial Engineering, Information Systems, or a related field.
Minimum of 3+ years in a BI Developer or Data Engineer role.
Advanced SQL
Python scripting For data manipulation, automation, and pipeline support.
BI Tools Experience: Such as Tableau, QlikView. For building dashboards and visual insights.
Data Warehouse Experience.
ETL Optimization Experience in tuning SQL and improving data workflows.
Experience with Snowflake and Airflow Big advantage.
Exposure to CI/CD pipelines with Jenkins Advantage.
Familiarity with modern data stack tools such as Databricks, Kafka, Spark, Docker A plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8311808
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
12/08/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
At UVeye, we're on a mission to redefine vehicle safety and reliability on a global scale. Founded in 2016, we have pioneered the world's first fully automated suite of vehicle inspection systems. At the heart of this innovation lies our advanced AI-driven technology, representing the pinnacle of machine learning, GenAI, and computer vision within the automotive sector. With close to $400M in funding and strategic partnerships with industry giants such as Amazon, General Motors, Volvo, and CarMax, UVeye stands at the forefront of automotive technological advancement. Our growing global team of over 200 employees is committed to creating a workplace that celebrates diversity and encourages teamwork. Our drive for innovation and pursuit of excellence are deeply embedded in our vibrant company culture, ensuring that each individual's efforts are recognized and valued as we unite to build a safer automotive world.
We are looking for a Data Annotation Manager to join our R&D team and manage a team of data taggers responsible for tagging and labeling data for machine learning models.
A day in the life and how you’ll make an impact:
* Managing a team of 8 data taggers in Israel and overseeing a team of data validators in the US.
* Ensure that the data is accurately tagged and labeled.
* Ensure that the team is meeting its goals and deadlines.
* Managing an outsourced team that's performing the scale data tagging and labeling.
* Work with the data science team to ensure that the data is being used effectively.
* Develop and implement processes to improve the efficiency and accuracy of the data tagging process.
* Train new team members on the data tagging process.
Requirements:
* 5+ years of experience in data management or data analysis.
* 2+ years of experience managing a team.
* Bachelor’s degree in computer science, data science, or a related field.
* Strong analytical and problem-solving skills.
* Excellent communication and interpersonal skills.
* Experience with machine learning and data tagging - Advantage

Why UVeye: Pioneer Advanced Solutions: Harness cutting-edge technologies in AI, machine learning, and computer vision to revolutionize vehicle inspections. Drive Global Impact: Your innovations will play a crucial role in enhancing automotive safety and reliability, impacting lives and businesses on an international scale. Career Growth Opportunities: Participate in a journey of rapid development, surrounded by groundbreaking advancements and strategic industry partnerships.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8300167
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/08/2025
מיקום המשרה: תל אביב יפו
דרוש/ה מפתח/ת מנועי חיפוש לתפקיד מעניין ומאתגר הכולל הגדרת ארכיטקטורה, פיתוח מנועי חיפוש, תמיכה בהיקפי מידע וביצועים מהירים.
דרישות:
תנאי סף
שלוש שנות ניסיון בתחום פיתוח BigData
שלוש שנות ניסיון ב troubleshooting ופתרון תקלות production
קריטריונים נוספים
ניסיון מוכח באחד או יותר מהתחומים הבאים: Solr, Elasticsearch ,Spark יתרון
ניסיון עבודה עם טכנולוגיות הבאות: Kafka, RabitMQ, OpenShift ודומות יתרון
יכולת למידה עצמית והתמודדות עם אתגרים טכנולוגיים מורכבים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8297099
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/08/2025
מיקום המשרה: תל אביב יפו
דרוש/ה מפתח/ת DevOps בתחום תשתיות ואופרציות ביג דאטה לתפקיד הכולל ארכיטקטורה ניהול והקמת סביבות מבוססות טכנולוגיות לעיבוד מידע בהיקפים גדולים מאוד (Big-Data), תמיכה בתהליכי ניהול קוד ופיתוח תהליכי CI/CD.
דרישות:
תנאי סף
שלוש שנות ניסיון בעבודה עם תשתיות מבוססות Linux
שנתיים ניסיון פיתוח בלפחות אחת מהשפות JAVA ו Python
רקע מעשי בתחומי Data Lake, Data Warehouse
עבודה והכרות עם תשתיות OpenSource שונות (כגון kafka, elastic וכד')
קריטריונים נוספים
הכרות עם תשתיות CASSANDRA, TRINO, HADOOP יתרון
הכרות עם Dockers ו/או kubernetes בדגש על OpenShift יתרון
ניסיון בעבודה ופיתוח ענן (AWS, GCP, AZURE) יתרון
יכולת לימוד עצמית וכניסה מהירה לטכנולוגיות יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8297095
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/08/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
A fast-growing, well-funded startup in the data domain is looking for a Software Development Team Lead to lead a team of engineers, reporting to the Director of Engineering. As a Software Development Team Lead, you’ll lead a team of back-end, full-stack, and data engineers, working closely with Product Managers and other stakeholders to plan, kickoff, and execute new product and feature development projects. Our ideal candidate is someone who values excellence, is hungry for success, and thrives when working with the best. Job Summary: As an Software Development Team Lead, you'll be responsible for overseeing the design, development, and implementation of robust software solutions, including strategic full-stack applications and our big data architecture. You'll lead a team of engineers and collaborate with cross-functional teams to drive initiatives that support business objectives. Your expertise in big data technologies, including Elastic, Kafka, and Java, will be critical in ensuring the scalability and performance of our systems. What you’ll do:
? Lead and mentor a team of engineers in the design and development of software solutions, including big data solutions and full-stack applications. ? Architect and implement data processing pipelines ? real-time data streaming. ? Optimize and manage search capabilities. ? Develop strategic full-stack applications to meet business needs. ? Collaborate with product managers, data analysts, and other stakeholders to gather requirements and translate them into technical specifications. ? Oversee code reviews, ensure best practices in coding and data handling, and maintain high-quality standards in software development. ? Stay up-to-date with emerging trends and technologies in software engineering and big data, and recommend improvements to our architecture and processes. ? Troubleshoot and resolve issues in a timely manner to minimize downtime and ensure system reliability. ? Contribute to strategic planning and decision-making regarding architecture and tools. ? Collect and analyze your team’s KPIs. ? Participate in customer calls, understand their use cases, and solve their problems. ? Collaborate with software teams across different locations.
Requirements:
What you’ll bring:
? Bachelor’s degree in Computer Science, Engineering, or a related field; Master’s degree preferred. ? 3+ years of experience leading and managing a team of 5–8 engineers ? 8+ years of experience in the software engineering field. ? 5+ years of experience in big data technologies, with a focus on Elastic and Kafka. ? Proficiency in Java programming and experience with related frameworks. ? Strong understanding of data modeling, ETL processes, and data warehousing. ? Proven leadership skills with the ability to motivate and guide a team. ? Excellent problem-solving abilities and strong analytical skills. ? Strong communication skills, with the ability to convey technical concepts to non-technical stakeholders. ? A solid understanding of CI/CD principles. ? Experience working with both external and in-house APIs and SDKs Advantages:
? Experience working directly with customers ? Experience with Docker, Kubernetes ? Experience with cloud platforms (e.g., AWS or Azure)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8295229
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן 4 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >