משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
14/11/2025
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברת סייבר במרכז הארץ מגייסת data Engineer
במסגרת התפקיד: עבודה בצוות, הובלת פרויקטי פיתוח של שירותי data, תמיכה בלקוחות בכמויות גדולות של נתונים, עבודה בטכנולוגיות AI מתקדמות ועוד.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בעבודה ב-Spark
- ניסיון בפיתוח ב-Scala / Python
- ניסיון בעבודה עם Linux, Docker ו-Kubernetes
- ניסיון בפיתוח ב-NodeJS, TypeScript - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8410150
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/11/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a highly motivated and talented Marketing Data Analyst to join our Analytics team and contribute to our marketing organization's strategic decision-making process.
As a Marketing Data Analyst, you will work closely with members of the marketing organization to drive impact, value, and insights using data and play a key role in our growth.
What does a Marketing Data Analyst at our company mean?
Collaborate closely with members of the marketing & product organizations to leverage data for strategic decision-making.
Design and build dashboards to monitor business KPIs, ensuring data hygiene and integrity.
Develop models, targets, and tracking reports to measure the effectiveness of our marketing efforts.
Identify new growth opportunities and foster a data-driven culture within the marketing organization.
Communicate your findings and recommendations to stakeholders in a clear and compelling manner.
Collaborate with data engineers to integrate new data sources, enhancing our systems.
Requirements:
At least 4 years experience as a data/ business analyst (B2B SaaS experience is a significant advantage).
A bachelors degree in a quantitative field (advantage)
SQL proficiency - a must; Python- a plus
Experience with analytics and visualization tools (Tableau - an advantage).
An in-depth understanding of the B2B sales landscape & digital data industry - an advantage
Strong problem-solving skills and ability to think strategically.
Proficiency in working with complex data schemas.
Can use their analytical skills to drive business impact.
Ability to interact comfortably with colleagues, especially around data-related topics.
Excellent communication and presentation skills.
Proficiency in English.
Positive, team-oriented, and can-do attitude.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8413736
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/11/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
What Youll Do:
Youll be part of the group responsible for our companys main products. You will impact the work of developers in the group by designing, building and maintaining the core infrastructure of our solution and leading the research and development of new technologies as well as maintaining code standards and practices.
What does the day to day of Infrastructure Engineer at our company look like:
You will be working on our companys core B2B platform that serves tens of thousands of customers, serving hundreds of terabytes in production. Our backend engineers are responsible for the entire data lifecycle - from our endless datatlakes, through choosing the right serving methods and databases, all the way to our api services.
Your role will include:
Design and implement scalable backend services and libraries that are reusable and maintainable, serving as the foundation for various applications across the company.
Build and maintain tools that streamline development workflows, enabling product teams to focus on delivering business value.
Define and promote best practices for code quality, performance, and reliability, ensuring healthy production environments and rapid development cycles.
Lead the adoption and integration of AI tools to assist in code generation, testing, documentation, and debugging, thereby accelerating development processes.
Perform proof-of-concepts (POCs) on emerging technologies, including AI agents and platforms, to assess their applicability and benefits to our development ecosystem.
Drive cross-team technical projects aimed at improving infrastructure scalability, reliability, and developer experience.
Analyze and resolve complex production issues, ensuring minimal downtime and optimal performance.
Contribute to the evolution of our system architecture, ensuring it supports rapid development and scaling needs.
Requirements:
Bachelor's or Master's degree in Computer Science, Engineering, or a related field.
5+ years of experience in backend development, with a strong focus on infrastructure and platform engineering.
Proficiency in programming languages such as C#, Python, Java, or Go.
Experience building large-scale infrastructure applications or large-scale web applications.
Experience improving stability of large-scale systems using monitoring, solving bottle-necks and making appropriate changes.
High coding standards, working independently and experience leading long term tech tasks involving many teams and stakeholders.
Experience with cloud platforms (e.g., AWS, GCP, Azure) and container orchestration tools like Kubernetes.
Familiarity with CI/CD pipelines and infrastructure-as-code tools (e.g., Terraform, Ansible).
Demonstrated experience in integrating and leveraging AI tools to enhance development workflows.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8413715
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/11/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Engineer to join our team and help advance our Apps solution. Our product is designed to provide detailed and accurate insights into Apps Analytics, such as traffic estimation, revenue analysis, and app characterization. The role involves constructing and maintaining scalable data pipelines, developing and integrating machine learning models, and ensuring data integrity and efficiency. You will work closely with a diverse team of scientists, engineers, analysts, and collaborate with business and product stakeholders.
Key Responsibilities:
Develop and implement complex, innovative big data ML algorithms for new features, working in collaboration with data scientists and analysts.
Optimize and maintain end-to-end data pipelines using big data technologies to ensure efficiency and performance.
Monitor data pipelines to ensure data integrity and promptly troubleshoot any issues that arise.
Requirements:
Bachelor's degree in Computer Science or equivalent practical experience.
At least 3 years of experience in data engineering or related roles.
Experience with big data Machine Learning - a must ! .
Proficiency in Python- must. Scala is a plus.
Experience with Big Data technologies including Spark, EMR and Airflow.
Experience with containerization/orchestration platforms such as Docker and Kubernetes.
Familiarity with distributed computing on the cloud (such as AWS or GCP).
Strong problem-solving skills and ability to learn new technologies quickly.
Being goal-driven and efficient.
Excellent communication skills and ability to work independently and in a team.
Why us?
Work on challenging algorithmic problems and solve real customer issues.
Collaborate with the best engineers and scientists in the industry.
Opportunity to experiment with and implement new technologies on large-scale data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8413711
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/11/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
A day-to-day role as a Team Manager at our company includes:
Managing a multidisciplinary team of data engineers, data scientists, and data analysts.
Leading the development of advanced and creative solutions for complex technical challenges in areas like big data and machine learning.
Collaborating closely with data extraction, platform, and product teams.
Communicating with business stakeholders and gathering feedback from customers.
Hiring new team members and developing the groups structure.
Playing a crucial role in shaping product strategy within a startup-like environment.
Day-to-day, the team you will lead will:
Develop statistical and machine learning algorithms on large-scale data to estimate metrics, create features, and deliver insights.
Own end-to-end data processes and pipelines, from research and proof of concept to production.
Collaborate with product and R&D teams to plan and deliver best-in-class digital insights.
Design, validate, and monitor ongoing processes to ensure quality and reliability.
Identify, analyze, and monitor new raw data sources as needed.
Requirements:
Passionate about data and problem-solving.
Holds an M.Sc. or Ph.D. in Computer Science, Mathematics, Physics, Engineering, or a related field.
Has 3+ years of experience developing machine learning and statistical algorithms in a production environment.
Brings 1+ years of people management experience - Must
Strong experience with Big Data and ML production pipelines (a strong advantage).
Familiarity with the web, internet, app, or online industry (an advantage).
Excellent interpersonal communication skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8413705
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/11/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a skilled Data/ Backend Engineer to design and implement complex, high-scale systems that retrieve, process, and analyze data from the digital world. This role involves developing and maintaining backend infrastructure, creating robust data pipelines, and ensuring the seamless operation of data-driven products and services.
Key Responsibilities:
- Design and build high-scale systems and services to support data infrastructure and production systems.
- Develop and maintain data processing pipelines using technologies such as PySpark, Hadoop, and Databricks.
- Implement dockerized high-performance microservices and manage their deployment.
- Monitor and debug backend systems and data pipelines to identify and resolve bottlenecks and failures.
- Work collaboratively with data scientists, analysts, and other engineers to develop and maintain data-driven solutions.
- Ensure data is ingested correctly from various sources and is processed efficiently.
Requirements:
- BSc degree in Computer Science or equivalent practical experience.
- At least 4+ years of server-side software development experience in languages such as Python, Java, Scala, or Go.
- Experience with Big Data technologies like Hadoop, Spark, Databricks, and Airflow.
- Familiarity with cloud environments such as AWS or GCP and containerization technologies like Docker and Kubernetes.
- Strong problem-solving skills and ability to learn new technologies quickly.
- Excellent communication skills and ability to work in a team-oriented environment.
Nice to Have:
- Experience with web scraping technologies.
- Familiarity with Microservices architecture and API development.
- Knowledge of databases like Redis, PostgreSQL, and Firebolt.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8413702
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה:מרכז
סוג משרה: משרה מלאה
העסקה ישירה על ידי הלקוח עובד/ת חברה מהיום הראשון
בזמן שכולם בבית מחפשים את הכוכב הבא לאירוויזיון אנחנו מחפשים את הכוכב הבא של עולם הBI! לא צריך לדעת לשיר, אבל כן צריך לדעת להרכיב את התזמורת של הנתונים
אנחנו מחפשים BI system Analyst & Project Manager שייקח את הבמה, יוביל פרויקט אסטרטגי מקצה לקצה (מעבר לענן), יעבוד עם הנהלות בכירות, ינהל תהליכים חוצי ארגון ויהפוך דאטה גולמי ללהיט שכולם ירצו לשמוע שוב
כחלק מהתפקיד, תצטרף/י לפרויקט אסטרטגי של מעבר לענן חדש הזדמנות להיות חלק מתהליך טכנולוגי מתקדם ולהוביל את הפרויקטים שלך בסביבה חדשנית
מה מחכה לך בתפקיד: הובלת פרויקטי BI מקצה לקצה מאפיון ועד דשבורדים נוצצים, עבודה ישירה עם הנהלה בכירה וצוותים גלובליים, אחריות על איכות הנתונים, ניהול תהליכים והנעת פרויקטים משמעותיים.
דרישות:
מה צריך בשביל לכבוש את הבמה: תואר ראשון בהנדסת תעשייה, מערכות מידע, מדעי המחשב וכו' חובה, לפחות 8 שנות ניסיון כBI Analyst / Project Manager, שליטה בSQL DWH וכלי BI, חשיבה אנליטית, ראייה עסקית ויכולת תקשורת מעולה, אהבה אמיתית לדאטה ויכולת להפוך מספרים לתובנות מנצחות. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8413357
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/11/2025
מיקום המשרה: תל אביב יפו
אני מגייס BI & data Engineering team lead לחברת גיימינג בצמיחה מהירה. יושבים בתל אביב, מודל עבודה היברידי.
החברה מפתחת משחקים למובייל למיליוני משתמשים בעולם, ומחפשת ליד/ית חזק/ה שהוא גם Hands-on לניהול צוות - כזה שייקח בעלות מלאה על תחום הBI והData בארגון.
מה כולל התפקיד?
הובלה מקצועית וניהול של צוות BI & data Engineering
בנייה ותחזוקה של מודלי נתונים ותהליכי ETL /ELT (כולל עבודה עם dbt וSQL)
אחריות על יציבות הPipelines ואיכות הדאטה
פיתוח ותחזוקה של דשבורדים וReporting (Tableau)
הקמה והטמעה של מתודולוגיות עבודה: Git, CI/CD, Code Reviews ועוד
אפשר לשלוח קו"ח למייל.
דרישות:
5+ שנות ניסיון בעולם הBI / data Engineering
לפחות שנתיים ניסיון בהובלה מקצועית / ניהול צוות
מומחיות בdbt ובSQL
ניסיון בעבודה עם DWH כגון BigQuery / Snowflake / Redshift
ניסיון מעולמות הגיימינג / Consumer-tech יתרון משמעותי. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8412543
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
12/11/2025
מיקום המשרה:מרכז
סוג משרה: משרה מלאה
אנחנו מחפשים מפתח/ת AI ו- data Science עם ניסיון בפיתוח מודלים מתקדמים, עבודה עם צוותי data ו- DevOps, והבנה עמוקה בעולמות ה- Machine Learning וה-Generative AI.
מה התפקיד כולל?
פיתוח ויישום פתרונות מבוססי AI ו-ML, בדגש על Generative AI
עבודה עם מודלים בענן ובסביבות On-Premises (AWS / GCP)
אינטגרציה של מודלים במערכות הארגון, כולל פיתוח API והטמעת שירותים
עבודה עם מקורות מידע שונים (Structured & Unstructured data )
שיתופי פעולה עם צוותי data Engineering ו- DevOps
מחקר ופיתוח בתחום האלגוריתמים ולמידת מכונה
תרומה משמעותית לעיצוב סביבת הפיתוח הארגונית
דרישות:
לפחות שנתיים ניסיון בפיתוח בשפות כגון Python / JAVA / Node.js
התמחות בעולמות data Science / AI / Machine Learning
ניסיון בעבודה עם ספריות AI/ML כגון TensorFlow, PyTorch, scikit-learn
ניסיון בעבודה בסביבות ענן (AWS / GCP)
דרישות השכלה:
תואר ראשון בהנדסת תוכנה / מדעי המחשב / סטטיסטיקה / חקר ביצועים / מתמטיקה
או
תואר ראשון מדויק עם התמחות במדעי הנתונים / בינה מלאכותית / למידת מכונה
או
תואר שני או שלישי בתחומים רלוונטיים
או
בוגרי יחידות טכנולוגיות (כגון 8200 ) עם ניסיון רלוונטי בעולמות ה- data Science המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8411351
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Data Engineer to join our team and help shape a modern, scalable data platform. Youll work with cutting-edge AWS technologies, Spark, and Iceberg to build pipelines that keep our data reliable, discoverable, and ready for analytics.
Whats the Job?
Design and maintain scalable data pipelines on AWS (EMR, S3, Glue, Iceberg).
Transform raw, semi-structured data into analytics-ready datasets using Spark.
Automate schema management, validation, and quality checks.
Optimize performance and costs with smart partitioning, tuning, and monitoring.
Research and evaluate new technologies, proposing solutions that improve scalability and efficiency.
Plan and execute complex data projects with foresight and attention to long-term maintainability.
Collaborate with engineers, analysts, and stakeholders to deliver trusted data for reporting and dashboards.
Contribute to CI/CD practices, testing, and automation.
Requirements:
Strong coding skills in Python (PySpark, pandas, boto3).
Experience with big data frameworks (Spark) and schema evolution.
Knowledge of lakehouse technologies (especially Apache Iceberg).
Familiarity with AWS services: EMR, S3, Glue, Athena.
Experience with orchestration tools like Airflow.
Solid understanding of CI/CD and version control (GitHub Actions).
Ability to research, evaluate, and plan ahead for new solutions and complex projects.
Nice to have:
Experience with MongoDB or other NoSQL databases.
Experience with stream processing (e.g., Kafka, Kinesis, Spark Structured Streaming).
Ability to create visualized dashboards and work with Looker (Enterprise).
Infrastructure-as-code (Terraform).
Strong debugging and troubleshooting skills for distributed systems.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8409800
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
11/11/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a seasoned R&D Group Manager to lead a group of talented engineers in designing and building scalable data pipelines and cloud-native applications. This role is perfect for an experienced and proactive person with outstanding leadership skills. The ideal candidate is a team player who has a passion for data processing and applications at a large scale. This is an amazing opportunity to join a growing product in an enterprise company with ample opportunities for professional growth.
This job is located in Tel Aviv (hybrid).
About Us
we are a key player in the network security field, striving to provide the leading SASE platform in the market. Our innovative approach, merging cloud and on-device protection, redefines how businesses connect in the era of cloud and remote work. Our team values collaboration, flawless execution, and an agile mindset. We offer continuous learning opportunities, including access to training programs, conferences, and workshops to help you grow professionally.
Key Responsibilities
Lead and mentor multiple engineering teams focused on data infrastructure, backend services, and cloud-native applications
Architect and oversee the development of robust, scalable data pipelines and real-time data processing systems
Drive the design and implementation of microservices and serverless applications using AWS (e.g., Lambda, ECS, S3, MongoDB) and Azure (ADX)
Collaborate with product managers, data scientists, and other stakeholders to translate business requirements into technical solutions
Ensure high standards of software quality through code reviews, testing, and automation
Foster a culture of innovation, ownership, and continuous improvement within the group
Manage hiring, performance reviews, and career development for team members.
Requirements:
8+ years of experience in software development, with at least 3 years in a leadership role managing multiple teams
Proven experience in building and scaling web applications using React and Node.js
Strong proficiency in TypeScript and JavaScript
Hands-on experience with AWS services and cloud-native architecture
Deep understanding of RESTful APIs, microservices, and serverless computing
Experience working in an Agile environment and high-pace delivery
Bachelors or Masters degree in Computer Science, Engineering, or a related field
A team player with excellent communication and leadership skills
Fluent English (written & spoken).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8409750
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
11/11/2025
Location: Ramat Gan
Job Type: Full Time
The data Group is responsible for the data and algorithms which fuel ActiveFences ability to fight online evil at scale, ensuring trust & safety and robust AI security. With the continuous and accelerated expansion of online and GenAI threats, we are seriously scaling up our operation to deal with an ever more complex online landscape. If you love varying challenges, can move fast, and are not afraid of tackling uncharted territories with your code, you might be a good fit here. We're looking for a Senior data Scientist to take our mission to the next level, at scale.
The team Youll be joining a collaborative and inclusive team of data Scientists and ML Engineers. We love thinking together, building great products together, and having a good time together. Its important for us that each team member grows and evolves while providing a significant impact on our product and our clients.
Primary Responsibilities We are looking for a senior data Scientist who will collaborate with fellow data scientists and developers, loves getting their hands dirty with data, code, and experimentation, and is not afraid of taking their code to production and learning from the real world.
* Design and implement models and algorithms for detecting AI security vulnerabilities and exploits and harmful content, across media types whether in vision, text, audio or video.
* Play an active role in taking your models to production, affecting high throughput and low latency, while not compromising on accuracy and correctness.
* Strive to constantly improve our ability to detect harmful content, in a nonstationary, adversarial environment
* Participate in code reviews, design reviews,etc.
* Explore new technologies and enrich other team members with your knowledge
* Use best practices to write clean, maintainable code, and create a high performant, delightful experience for customers
* Find the bad guys, feel proud, inspire your team to do the same
Requirements:
Technologies:
*  Python, Notebook environments (Databricks, Jupyter)
* ML frameworks: TensorFlow, Pytorch, Onnx, MLFlow (we use Pytorch).
* PySpark
* Large Language models, LLMs, RAG systems.
Skills and Qualifications:
* 5+ years of experience
*  PhD/MSc in Computer Science, a related technical field of study, or equivalent practical experience.
* Experience in either NLP or Computer Vision, preferably both.
* Experience in developing ML algorithms, from POC to production
* Proven Python code development skills
* Experience with large scale production systems and pipelines.
* Worked with ML frameworks, algorithms and MLOps
* Experience with agile practices and SaaS development.
* Self learner, independent, team player with great communication skills. Youll be a great fit if:
* Youre energetic and love data
* You are proactive, enjoying taking full ownership of your deliverables, and have a can-do approach
* Youre curious and always eager to learn more, no matter what level youre at
* Youre a team player with great interpersonal skills
* Youre passionate about p
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8409715
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/11/2025
Location: Yokne`am
Job Type: Full Time
Were looking for an experienced Data Engineer to join our Networking Cluster Solutions (NCS) group and help shape the data backbone behind our advanced R&D telemetry and performance analytics ecosystem.

In this role, youll design, build, and maintain scalable, high-performance data pipelines that handle massive volumes of real-time telemetry data from hardware, communication modules, firmware, and large-scale AI and HPC clusters.
Youll work in a cutting-edge environment that combines software, hardware, and data infrastructure driving the next generation of our cluster performance and monitoring technologies.

The NCS group builds and operates some of our Israels most advanced AI and HPC clusters, optimizing networking and compute performance at scale.

What youll be doing:

Define and execute the groups data technical roadmap, aligning with R&D, hardware, and DevOps teams.

Design and maintain flexible ETL/ELT frameworks for ingesting, transforming, and classifying telemetry and performance data.

Build and optimize streaming pipelines using Apache Spark, Kafka, and Databricks, ensuring high throughput, reliability, and adaptability to evolving data schemas.

Implement and maintain observability and data quality standards, including schema validation, lineage tracking, and metadata management.

Develop monitoring and alerting for pipeline health using Prometheus, Grafana, or Datadog.

Support self-service analytics for engineers and researchers via Databricks notebooks, APIs, and curated datasets.

Promote best practices in data modeling, code quality, security, and operational excellence across the organization.

Deliver reliable insights for cluster performance analysis, telemetry visibility, and end-to-end test coverage.
Requirements:
What we need to see:

B.Sc. or M.Sc. in Computer Science, Computer Engineering, or a related field.

5+ years of hands-on experience in data engineering or backend development.

Strong practical experience with Apache Spark (PySpark or Scala) and Databricks.

Expertise with Apache Kafka, including stream ingestion, schema registry, and event processing.

Proficiency in Python and SQL for data transformation, automation, and pipeline logic.

Familiarity with ETL orchestration tools (Airflow, Prefect, or Dagster).

Experience with schema evolution, data versioning, and validation frameworks (Delta Lake, Iceberg, or Great Expectations).

Solid understanding of cloud environments (AWS preferred; GCP or Azure also relevant).

Knowledge of streaming and telemetry data architectures in large-scale, distributed systems.

Ways to stand out from the crowd:

Exposure to hardware, firmware, or embedded telemetry environments.

Experience with real-time analytics frameworks (Spark Structured Streaming, Flink, Kafka Streams).

Experience with data cataloging or governance tools (DataHub, Collibra, or Alation).

Familiarity with CI/CD for data pipelines and infrastructure-as-code (Terraform, GitHub Actions).

Experience designing performance metrics data systems (latency, throughput, resource utilization) that support high-volume, high-frequency telemetry at scale.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8407984
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are seeking an experienced Data Platform Engineer to join our Storage Analytics team. You will design and build data solutions that provide critical insights into storage performance and usage across Apple's entire device ecosystem.
Description:
Working with large-scale telemetry data from millions of Apple devices worldwide, you'll support multiple CoreOS Storage teams, including Software Update, Backup/Restore/Migration, Storage Attribution, and other storage domains.
Responsibilities
Design, build, and maintain scalable data processing infrastructure to handle large-scale telemetry from Apple's global device fleet
Develop highly scalable data pipelines to ingest and process storage performance metrics, usage patterns, and system telemetry with actionable alerting and anomaly detection
Build and maintain robust data platforms and ETL frameworks that enable CoreOS Storage teams to access, process, and derive insights from storage telemetry data
Engineer automated data delivery systems and APIs that serve processed storage metrics to various engineering teams across different storage domains
Requirements:
Bachelor's degree in Computer Science or related technical field
4+ years of professional experience in data modeling, pipeline development, and software
engineering
Programming Languages: excellent programming skills in Python with strong computer science foundations (data structures, low-level parallelization.
Database Management: Strong SQL skills and hands-on experience with relational databases and query engines (PostgreSQL, Impala, Trino)
Experience with data analysis tools and libraries (Pandas/Polars, NumPy, dbt)
Experience with big data technologies (Kafka, Spark, Databricks, S3)
Experience with Apache Airflow, Dagster, or similar data orchestration frameworks for workflow orchestration, scheduling, and monitoring
Experience with containerization and orchestration (Docker, Kubernetes /visualization & Reporting:
Strong proficiency with creating and maintaining Tableau/Grafana dashboards and workflows
Preferred Qualifications:
Master's or PhD in Computer Science or related field
Deep expertise in data principles, data architecture, and data modeling
Strong problem-solving skills and meticulous attention to detail, with the ability to tackle loosely
defined problem
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8407471
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/11/2025
Location: Ra'anana
Job Type: Full Time
We are looking for a Senior Data Engineer.
Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8405150
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו