רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
Location: Ra'anana
Job Type: Full Time and Hybrid work
Responsibilities:
Work with other team members to improve, maintain and monitor the data ingestion domains in the data and AI platform.
Come to the office 3 times a week.
Innovate the ingestion and analytics domains and extend the capabilities and knowledge within the team.
Work with the architect of the domains.
Requirements:
Python development specifically as data engineer expert or specialist with at least 5 years of experience- MUST
Mandatory - Experience and deep knowledge of Spark, Kafka, open table, NOSQL and SQL DBs.
Knowledge in JAVA. microservices and K8S.
Databrick experience and delta format.
Monitoring tools like Prometheus and Grafana- an advantage.
Working with Copilot writing prompts to enhance efficiency during development- an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8127795
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
פרוסיד
דרושים בפרוסיד
מחפשים אתגר טכנולוגי בעולם הData? לאגף הסייבר של אחד הגופים המובילים בישראל דרוש/ה data Engineer לתפקיד משמעותי ומורכב עם עבודה על תהליכי ETL, ענן, Big Data ודשבורדים.

במסגרת התפקיד:
*פיתוח תהליכי ETL בסביבות מגוונות
*עבודה עם בסיסי נתונים: SQL server, Oracle, MongoDB, PostgreSQL
*פיתוח דוחות ודשבורדים בPower BI / SSRS
*עבודה עם מבני JSON ושירותי ענן (יתרון לAWS: Redshift, Aurora, Quicksight, S3)
*שימוש בSSIS ובSQL מורכב
*עבודה מול data Lake וData Warehouse
דרישות:
*ניסיון של שנתיים לפחות בפיתוח ETL באמצעות SSIS חובה
*ניסיון של שנתיים לפחות בSQL כולל פרוצדורות חובה
*ניסיון של שנתיים לפחות בפיתוח דוחות ודשבורדים חובה
*ניסיון עם JSON חובה
*ניסיון בעבודה עם AWS יתרון משמעותי
*ניסיון בפיתוח בPython יתרון
*ניסיון בענן ובסביבות Big Data יתרון

שלחו קו"ח ובואו נכיר! המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8276342
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
אלעד מערכות
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.
This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
35 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS-based data technologies.

Experience in building and maintaining advanced data pipelines from various data sources.

Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI, Tableau.
Experience with scripting/coding languages such as Python.
Ability to work independently, with attention to detail and strong initiative.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8236697
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
שני טרן
מיקום המשרה: הרצליה
תכנון ויישום פלטפורמות דאטה מסוג Lakehouse, עמידות וסקיילביליות, התומכות בצינורות עיבוד batch ו-streaming.

פיתוח ותחזוקת פייפליינים עתירי ביצועים באמצעות Spark, Trino ו-DBT.

אופטימיזציה של ביצועי שאילתות ויעילות עלויות בסביבות AWS S3, Athena ו-Druid.

אחריות על מידול דאטה, ניהול גרסאות סכמות ופרטישינינג, לטובת BI, Machine Learning ושימושים בזמן אמת.

קידום מצוינות הנדסית באמצעות קוד נקי, סקירות קוד, תיעוד והעברת ידע.

שיתוף פעולה עם אנליסטים, מדעני דאטה ומנהלי מוצר לתכנון והטמעת פתרונות דאטה משמעותיים.

ניטור ופתרון בעיות ב-workflows קריטיים בסביבות פרודקשן.
דרישות:
לפחות 5 שנות ניסיון hands-on בהנדסת דאטה או פיתוח דאטה כולל עבודה עם עקרונות ארכיטקטורת Lakehouse.

שליטה מעולה ב-SQL, כולל כתיבת שאילתות מורכבות, קריאות ואופטימליות על Big Data

ניסיון עם DBT, כולל בניית פרויקטים ברמת production.

ניסיון מתקדם עם Spark (batch ו-streaming), Trino, Druid ו-Athena-חובה

שליטה גבוהה ב- Python, במיוחד לעיבוד דאטה ותזמור (orchestration).

היכרות עמוקה עם סביבת AWS: כולל S3, Lambda, Glue, EC2 ו-CloudWatch.

הבנה מעמיקה של מידול דאטה, פרטישינינג, טיונינג של ביצועים, ופורמטים עמודיים (Parquet, ORC).

ניסיון בעבודה עם Git ותהליכי CI/CD עבור פייפלייני דאטה.

ניסיון בפיתוח עם Apache Airflow- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8236166
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
מלם תים
דרושים במלם תים
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM.
דרישות:
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8261624
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Lead Data Engineer, youll join a super-talented & motivated engineering team responsible for our Data Engineering team and will take a key role in our site in TLV. You will lead development and work with complex transportation data, design streamlined systems to process data from ride bookings, payments, and more, ensuring its clean, fast and serves our business needs.

What You'll Do:
You will be responsible for scalable data, pipeline, and backend services with challenging data algorithms.
Participate in the end-to-end development cycle of architecture, design, development, QA, deployment, and monitoring.
Work with talented engineers, and a broad forum of experts and stakeholders to create a stable and scalable product.
Build highly scalable, efficient, and available data pipelines/solutions, serving our data across the organization and to stakeholders.
Monitor data quality, proactively correcting discrepancies ensuring data reliability & accuracy.
Requirements:
Passionate about data, with the ability to translate business needs into effective data models.
A self-driven learner, comfortable working independently in a complex technological environment.
Technologically curious, capable of identifying needs, designing POCs, and implementing scalable solutions.
Minimum of 4+ years of experience as a Data Engineer or BI developer- Must.
Minimum of 4+ years of experience with Python / SQL - Must.
Experience with DBT/ Airflow - a big advantage.
Experience with processing data over ICBERG storage - a big advantage.
Experience working with BI tools such as Looker/ Tableau - advantage.
Experience in executing Big Data solutions and in processing Relational DBs - Advantage.
Experience working with AWS big data tools, like: Glue, EMR, Athena,etc - advantage.
BSc/MSc in Computer Science or equivalent.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8259932
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Data Engineer who takes full ownership, works independently, and delivers results with speed and precision.
You are a fast learner who quickly adapts to new tools and concepts, communicates clearly across teams, and documents your work effectively. You pay attention to details, stay organized, and are committed to getting things done with continuous improvement.
Responsibilities
Design, implement, and maintain robust data pipelines to process and manage large-scale datasets, including auto-tagging for expanding training and validation data.
Develop intelligent search and filtering techniques and utilities to query relevant data and expedite data discovery.
Identify impactful driving scenarios across large datasets, enrich them into diverse, high-quality datasets for development usage.
Leverage NN models to support automatic labelling processes and data mining.
Create or customize data annotations tools, integrating automated quality assurance and auto-tagging algorithms to make data pipelines more efficient.
Design and manage processes for synthetic data generation.
Data processes documentation and communicates progress to stakeholders.
Requirements:
B.Sc. in Computer Science, Electrical Engineering, or related field. (M.Sc. is an advantage)
3+ years of experience in a data engineer/backend/tools dev role, preferably in AI or automotive environments.
Proficiency in Python and data tools (e.g., Pandas, NumPy).
Strong algorithmic thinking and data handling skills.
Familiarity with CV/ML pipelines is a strong plus.
Proficiency in building data queries from scratch.
Hands-on experience with large-scale data (video, sensors, logs, etc) and data visualisation tools.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8259880
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
14/07/2025
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time
At our company, were reinventing DevOps and MLOps to help the worlds greatest companies innovate -- and we want you along for the ride. This is a special place with a unique combination of brilliance, spirit and just all-around great people. Here, if youre willing to do more, your career can take off. And since software plays a central role in everyones lives, youll be part of an important mission. Thousands of customers, including the majority of the Fortune 100, trust our company to manage, accelerate, and secure their software delivery from code to production - a concept we call liquid software. Wouldn't it be amazing if you could join us in our journey?
About the Team
We are seeking a highly skilled Senior Data Engineer to join our company's ML Data Group and help drive the development and optimization of our cutting-edge data infrastructure. As a key member of the company's ML Platform team, you will play an instrumental role in building and evolving our feature store data pipeline, enabling machine learning teams to efficiently access and work with high-quality, real-time data at scale.
In this dynamic, fast-paced environment, you will collaborate with other data professionals to create robust, scalable data solutions. You will be responsible for architecting, designing, and implementing data pipelines that ensure reliable data ingestion, transformation, and storage, ultimately supporting the production of high-performance ML models.
We are looking for data-driven problem-solvers who thrive in ambiguous, fast-moving environments and are passionate about building data systems that empower teams to innovate and scale. We value independent thinkers with a strong sense of ownership, who can take challenges from concept to production while continuously improving our data infrastructure.
As a Data Engineer at our company's ML you will...
Design and implement large-scale batch & streaming data pipelines infrastructure
Build and optimize data workflows for maximum reliability and performance
Develop solutions for real-time data processing and analytics
Implement data consistency checks and quality assurance processes
Design and maintain state management systems for distributed data processing
Take a crucial role in building the group's engineering culture, tools, and methodologies
Define abstractions, methodologies, and coding standards for the entire Data Engineering pipeline.
Requirements:
5+ years of experience as a Software Engineer with focus on data engineering
Expert knowledge in building and maintaining data pipelines at scale
Strong experience with stream/batch processing frameworks (e.g. Apache Spark, Flink)
Profound understanding of message brokers (e.g. Kafka, RabbitMQ)
Experience with data warehousing and lake technologies
Strong Python programming skills and experience building data engineering tools
Experience with designing and maintaining Python SDKs
Proficiency in Java for data processing applications
Understanding of data modeling and optimization techniques
Bonus Points
Experience with ML model deployment and maintenance in production
Knowledge of data governance and compliance requirements
Experience with real-time analytics and processing
Understanding of distributed systems and cloud architectures
Experience with data visualization and lineage tools/frameworks and techniques.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8257535
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Now, were evolving our mission: applying our engineering excellence to the world of data engineering, metadata systems, and agentic AI.
This is a brand-new challenge, and were looking for an exceptional Data Engineer to join us.

If youre ready to pioneer the future of data engineering with AI, wed love to have you on board the rocketship.

What youll do:
Architect metadata-aware data platforms that support scalable and observable pipelines.
Create and evolve knowledge graphs, schemas, and lineage tracking systems.
Drive the teams expertise in data modeling, schema evolution, and privacy-first engineering.
Work with high-scale data ETLs and Data Serving layers on AWS and GCP.
Build and maintain data foundations for agentic AI systems.
Design and build advanced solutions to analyze metadata, identify data quality issues, and provide remediation insights.
Collaborate with internal teams across platform, product, and data domains.
Requirements:
What you have:
4+ years of hands-on experience in backend, data engineering, or data platform engineering roles.
Deep knowledge of data modeling, pipeline architecture, and data operations.
Proficiency in public cloud environments such as AWS and GCP, working with tools like Athena, EMR, BigQuery, Vertex AI.
Familiarity with data governance and schema evolution.
Solid backend engineering foundations, with the ability to design robust services and APIs.
A collaborative mindset, curiosity, and drive to learn and lead.

Bonus points:
Familiarity with metadata frameworks (DataHub, OpenMetadata, DataPlex, etc).
Passionate about building or integrating LLM-based systems (LangChain, RAG, vector DBs, etc.).
Recommended by our employee.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8256295
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Engineer to join our growing team!
In this role, you will be responsible for:
Designing, building, and maintaining scalable data pipeline architectures
Developing ETL processes to integrate data from multiple sources
Creating and optimizing data models for efficient storage and retrieval
Implementing data quality controls and monitoring systems
Collaborating with data scientists and analysts to deliver data solutions
Building and maintaining data warehouses and data lakes
Performing in-depth data analysis and providing insights to stakeholders
Taking full ownership of data quality, documentation, and governance processes
Building and maintaining comprehensive reports and dashboards
Ensuring data security and regulatory compliance.
Requirements:
Bachelor's degree in Computer Science, Engineering, or related field
3+ years experience in data engineering
Strong proficiency in SQL and Python
Experience with ETL tools and data warehousing solutions
Knowledge of big data technologies (Hadoop, Spark, etc.)
Experience with cloud platforms (AWS, Azure, or GCP)
Understanding of data modeling and database design principles
Familiarity with data visualization tools - Tableau, Sisense
Strong problem-solving and analytical skills
Excellent communication and collaboration abilities
Experience with version control systems (Git).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8256000
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/07/2025
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time
Were looking for a Senior Data Product Manager to lead the strategy and design of B2B data products that empower our companys sales, marketing, finance, and customer success teams with intelligent, insight-driven tools. This role is key to transforming commercial and customer data into trusted, high-quality, and meaningful Data & AI solutions that unlock business growth, optimize the customer journey, and enable AI-powered decision-making.
You will partner with business & data professionals stakeholders to understand their data needs and design platforms & solutions that drive business value, leveraging cutting-edge Data & AI technologies. This is an opportunity to shape the future of data and AI at our company and make a lasting impact.
As a Senior Data Product Manager in our company you will
Own the strategy and roadmap for commercial-facing Data & AI products, delivering actionable insights across the customer journey to support demand generation, sales pipeline optimization, customer success, and account growth.
Translate business goals and analytical needs into clear data product and platform requirements that support our companys evolution into a truly data-driven organization.
Turn account data from across the B2B commercial funnel into intuitive tools, dashboards, and data services that help teams make smarter decisions and identify revenue opportunities.
Partner with AI and engineering teams to build GenAI applications that assist sales reps and CS managers with contextual, real-time recommendations, customer insights, and next-best-actions.
Define and drive the structure for core business entities such as accounts, products, and usersensuring consistency and clarity across all data products through strong master data foundations.
Collaborate with data governance, privacy, and legal stakeholders to ensure that data products are compliant, secure, and high-quality, while building confidence in the data across the business.
Requirements:
5+ years of experience in product management, with at least 3 years focused on data products in a B2B SaaS or enterprise tech environment.
Previous background as BI developer or data analyst or Data engineer.
Proven ability to design and deliver data products that serve commercial functions such as sales, marketing, customer success, or GTM operations.
Strong understanding of B2B funnels, account-based models, and customer journey data across the lifecycle.
Experience with data modeling, master data management, analysis, and structuring core business entities such as accounts, users, products, and usage.
Familiarity with GenAI/AI-driven product capabilities, including building or collaborating on intelligent assistants, recommendations, or automated insights.
Solid grasp of data governance, privacy, and compliance frameworks (e.g., GDPR, CCPA), with experience ensuring data products meet legal and ethical standards.
Ability to work with technical teams and understand modern data architectures (e.g., data lakes, analytics layers), even if not directly responsible for infrastructure.
Comfortable defining metrics, managing roadmaps, and prioritizing based on business value and impact.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8255924
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/07/2025
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time
We are looking for a Data Engineering Lead to join our Platform Group at our company. In this role, you will drive the development of scalable data pipelines and infrastructures that are crucial to our platforms success. You will collaborate across departments, and innovate to ensure our data ecosystem is robust, secure, and optimized for growth.
As a Data Engineering Lead at our company you will...
Architect and develop data pipelines Lead the design and implementation of data pipelines that support our company's platform, ensuring high data quality, security, and governance. Introduce new tools and technologies to enhance data workflows and integration
Develop a strategic roadmap that outlines key engineering solutions to support our platforms scalability and performance, aligned with our company's overall vision and objectives
Collaborate across teams Work closely with internal teams including DevOps, BI, Product, and development groups to ensure seamless data integration and drive data-driven decision-making across the organization
Establish data guidelines and documentation Define best practices for data generation, consumption, and management within the platform. Create thorough documentation for all data processes to facilitate clear communication and future maintenance.
Requirements:
5+ years hands-on proven experience designing, building, and optimizing scalable and highly available data-intensive systems
In-depth understanding of big data engines and frameworks, such as Spark, and experience with ETL/ELT tools for robust data pipeline development
Proven ability to lead initiatives and drive technical agendas in a hands-on capacity, with potential for team building in the future
Knowledge of machine learning frameworks and strategic industry trends a plus
Strong business skills and strategic thinking, an innovative and growth mindset
Strong interpersonal skills to collaborate with internal teams and external partners effectively.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8255790
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Main responsibilities:
Provide the direction of our data architecture. Determine the right tools for the right jobs. We collaborate on the requirements and then you call the shots on what gets built.
Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Optimize and monitor the team-related cloud costs.
Design and construct monitoring tools to ensure the efficiency and reliability of data processes.
Implement CI/CD for Data Workflows.
Requirements:
5+ Years of Experience in data engineering and big data at large scales. - Must
Extensive experience with modern data stack - Must:
Snowflake, Delta Lake, Iceberg, BigQuery, Redshift
Kafka, RabbitMQ, or similar for real-time data processing.
Pyspark, Databricks
Strong software development background with Python/OOP and hands-on experience in building large-scale data pipelines. - Must
Hands-on experience with Docker and Kubernetes. - Must
Expertise in ETL development, data modeling, and data warehousing best practices.
Knowledge of monitoring & observability (Datadog, Prometheus, ELK, etc)
Experience with infrastructure as code, deployment automation, and CI/CD.
Practices using tools such as Helm, ArgoCD, Terraform, GitHub Actions, and Jenkins.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8255612
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/07/2025
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time
As a Big Data & GenAI Engineering Lead within our company's Data & AI Department, you will play a pivotal role in building the data and AI backbone that empowers product innovation and intelligent business decisions. You will lead the design and implementation of our companys next-generation lakehouse architecture, real-time data infrastructure, and GenAI-enriched solutions, helping drive automation, insights, and personalization at scale. In this role, you will architect and optimize our modern data platform while also integrating and operationalizing Generative AI models to support go-to-market use cases. This includes embedding LLMs and vector search into core data workflows, establishing secure and scalable RAG pipelines, and partnering cross-functionally to deliver impactful AI applications.
As a Big Data & GenAI Engineering Lead in our company you will...
Design, lead, and evolve our companys petabyte-scale Lakehouse and modern data platform to meet performance, scalability, privacy, and extensibility goals.
Architect and implement GenAI-powered data solutions, including retrieval-augmented generation (RAG), semantic search, and LLM orchestration frameworks tailored to business and developer use cases.
Partner with product, engineering, and business stakeholders to identify and develop AI-first use cases, such as intelligent assistants, code insights, anomaly detection, and generative reporting.
Integrate open-source and commercial LLMs securely into data products using frameworks such as LangChain, or similar, to augment AI capabilities into data products.
Collaborate closely with engineering teams to drive instrumentation, telemetry capture, and high-quality data pipelines that feed both analytics and GenAI applications.
Provide technical leadership and mentorship to a cross-functional team of data and ML engineers, ensuring adherence to best practices in data and AI engineering.
Lead tool evaluation, architectural PoCs, and decisions on foundational AI/ML tooling (e.g., vector databases, feature stores, orchestration platforms).
Foster platform adoption through enablement resources, shared assets, and developer-facing APIs and SDKs for accessing GenAI capabilities.
Requirements:
8+ years of experience in data engineering, software engineering, or MLOps, with hands-on leadership in designing modern data platforms and distributed systems.
Proven experience implementing GenAI applications or infrastructure (e.g., building RAG pipelines, vector search, or custom LLM integrations).
Deep understanding of big data technologies (Kafka, Spark, Iceberg, Presto, Airflow) and cloud-native data stacks (e.g., AWS, GCP, or Azure).
Proficiency in Python and experience with GenAI frameworks like LangChain, LlamaIndex, or similar.
Familiarity with modern ML toolchains and model lifecycle management (e.g., MLflow, SageMaker, Vertex AI).
Experience deploying scalable and secure AI solutions with proper attention to privacy, hallucination risk, cost management, and model drift.
Ability to operate in ambiguity, lead complex projects across functions, and translate abstract goals into deliverable solutions.
Excellent communication and collaboration skills, with a passion for pushing boundaries in both data and AI domains.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8255562
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Main responsibilities:
Provide the direction of our data architecture. Determine the right tools for the right jobs. We collaborate on the requirements and then you call the shots on what gets built.
Manage end-to-end execution of high-performance, large-scale data-driven projects, including design, implementation, and ongoing maintenance.
Optimize and monitor the team-related cloud costs.
Design and construct monitoring tools to ensure the efficiency and reliability of data processes.
Implement CI/CD for Data Workflows.
Requirements:
3+ Years of Experience in data engineering and big data at large scales. - Must
Extensive experience with modern data stack - Must:
Snowflake, Delta Lake, Iceberg, BigQuery, Redshift
Kafka, RabbitMQ, or similar for real-time data processing.
Pyspark, Databricks.
Strong software development background with Python/OOP and hands-on experience in building large-scale data pipelines. - Must.
Hands-on experience with Docker and Kubernetes. - Must.
Expertise in ETL development, data modeling, and data warehousing best practices.
Knowledge of monitoring & observability (Datadog, Prometheus, ELK, etc).
Experience with infrastructure as code, deployment automation, and CI/CD.
Practices using tools such as Helm, ArgoCD, Terraform, GitHub Actions, and Jenkins.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8255547
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/07/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a brilliant, quick learner Data Engineer for our data engineering team - an independent, logical thinker who understands the importance of data structuring for macro-business decisions.
The position combines high technical skills with a business orientation. It involves working closely with the analysts and the R&D team and directly affecting the company's cross-department decisions. Our Data Engineer should be able to speak in technical and practical terms and, more importantly, lead from one to the other while dealing with challenges and creating them to make our team even better.
Roles and Responsibilities:
Creating and structuring end-to-end data pipelines and ETLs in light of business requirements: from the source to the analyst's hands, enabling them the ideal conditions to make smart and data-driven business decisions.
Cracking top industry data challenges while initiating and building creative technical solutions- in-house Device Graph, Server-to-Server to multiple systems, Privacy challenges, Online-to-Offline, and more.
Deep understanding of the business needs, technical requirements, and the companys roadmap, translating it into custom-made data solutions and scalable products.
Craft code following best practices to ensure efficiency while integrating CI/CD principles.
Writing multi-step scalable processes from more than 50 data sources- Marketing, Operations, CS, Product, CRM, and more, tying them up to a valuable and useful source of insights for the analysts.
Understanding data challenges and weaknesses, and managing high standards, monitoring, and reliability processes.
Requirements:
B.A / B.Sc. degree in a highly quantitative field
3+ years of hands-on experience as a Data Engineer querying data warehouses (SQL), and structuring data processes using quantitative techniques
Fast learner with high attention to detail, and proven ability and passion to multitask on several projects at a time
Strong communication skills and a proven ability to collaborate effectively with different stakeholders on various projects and business/technical goals
Proven experience in Python and Infrastructure in the data context
High analytical skills and the ability to deep dive into details
Google Cloud Data tools (BigQuery, Cloud Composer/Airflow, Pub/Sub, Cloud Functions) or parallel tools on AWS
Experience in designing and building scalable data systems for various data applications - an advantage
Experience in analyzing data and deriving actionable insights - an advantage
Experience working for a data-driven company in a large-scale environment - an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8255373
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/07/2025
Location: Herzliya
Job Type: Full Time
CodeValue is looking for a passionate and skilled Data Engineer to join our growing data team. If you're excited about designing robust data pipelines, working with modern cloud data stacks, and exploring the world of Generative AI – we’d love to meet you. This is a hands-on position where you'll build and optimize data infrastructure, collaborate with analysts and stakeholders, and help shape data-driven solutions for a wide range of clients and industries.
Requirements:
• 3+ years of hands-on experience in Data Engineering. • Background in either Python development or data analytics/BI. • Proven experience working with Snowflake (including modeling, performance tuning, etc.). • Familiarity with cloud platforms (e.g., AWS, Azure, GCP). • Experience with SQL and data modeling best practices. • Exposure to Generative AI tools and techniques (e.g., prompt engineering, embeddings, LLM APIs). • Strong problem-solving skills and ability to work independently and as part of a team. • Good communication skills in English
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8255281
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/07/2025
Location: Tzafon
Job Type: Full Time
We are looking for a skilled and proactive Database Administrator to join our dynamic team. As a Database Administrator , you will be responsible for designing, implementing, and managing data lake architecture to meet business needs while ensuring high performance, security, and compliance. Key Responsibilities:
* Design, implement, and manage data lake architecture to support business objectives.
* Monitor and optimize data lake performance for high availability and reliability.
* Develop and enforce data governance policies and procedures.
* Collaborate with data engineers, data scientists, and other stakeholders to integrate data sources and support analytics initiatives.
* Implement security measures to safeguard sensitive data and ensure regulatory compliance.
* Troubleshoot and resolve issues related to data ingestion, storage, and processing.
* Maintain comprehensive documentation of data lake processes, configurations, and best practices.
* Stay up-to-date with the latest trends and technologies in data management and analytics.
Requirements:
* Bachelor's degree in Computer Science, Information Technology, or a related field (preferred).
* Proven experience in data lake administration, data management, or similar roles (required).
* Strong expertise in MS-SQL administration (required).
* In-depth knowledge of Azure Data Factory, Synapse, and Data Fabric (required).
* Experience with Terraform (preferred).
* Familiarity with data lake technologies such as Hadoop, Spark, and cloud-based solutions (e.g., AWS, Azure) (required for Azure; AWS is a plus).
* Proficiency in programming languages such as Python, Java, or Scala (preferred).
* Experience with data governance and security practices (preferred).
* Excellent problem-solving skills with strong attention to detail.
* Strong communication and collaboration skills.
* Fluent in English, both written and verbal.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8155102
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/07/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
At UVeye, we are on a mission to redefine vehicle safety and reliability on a global scale. Founded in 2016, we have pioneered the world's first fully automated suite of vehicle inspection systems. At the heart of this innovation lies our advanced AI-driven technology, representing the pinnacle of machine learning, GenAI, and computer vision within the automotive sector. With close to $400 million in funding and strategic partnerships with industry giants such as Amazon, General Motors, Volvo, and CarMax, UVeye stands at the forefront of automotive technological advancement. Our growing global team of over 200 employees is committed to creating a workplace that celebrates diversity and encourages teamwork. Our drive for innovation and pursuit of excellence are deeply embedded in our vibrant company culture, ensuring that each individual's efforts are recognized and valued as we unite to build a safer automotive world.
We are looking for an experienced Senior Data Engineer to join our Data team. In this role, you will lead and strengthen our Data Team, drive innovation, and ensure the robustness of our data and analytics platforms.
A day in the life and how you’ll make an impact:
* Design and develop high-performance data pipelines and ETL processes to support diverse business needs.
* Work closely with business intelligence, sales, and other teams to integrate data solutions, ensuring seamless alignment and collaboration across functions.
* Continuously improve our data analytics platforms, optimizing system performance while ensuring a robust and reliable data infrastructure.
* Oversee the entire data lifecycle, from infrastructure setup and data acquisition to detailed analysis and automated reporting, driving business growth through data-driven insights.
* Implement robust data quality checks, monitoring mechanisms, and data governance policies to maintain data integrity and security, troubleshooting and resolving any data-related issues efficiently.
Requirements:
* B.Sc. in computer science/information systems engineering
* 5+ years of experience in data engineering (Preferably from a startup company)
* Familiarity with data engineering tech stack, including ETL tools (Airflow, Spark, Flink, Kafka, Pubsub).
* Strong SQL expertise, working with various databases (relational and NoSQL) such as MySQL, FireStore, Redis, and ElasticSearch.
* Experience with cloud-based data warehouse solutions like BigQuery, Snowflake, and Oracle, and proficiency in working with public clouds (AWS/GCP).
* Coding experience with Python
* Experience with dashboard tools.
* Ability to communicate ideas and analyze results effectively, both verbally and in writing.

Why UVeye: Pioneer Advanced Solutions: Harness cutting-edge technologies in AI, machine learning, and computer vision to revolutionize vehicle inspections. Drive Global Impact: Your innovations will play a crucial role in enhancing automotive safety and reliability, impacting lives and businesses on an international scale. Career Growth Opportunities: Participate in a journey of rapid development, surrounded by groundbreaking advancements and strategic industry partnerships.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8155581
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/07/2025
מיקום המשרה: רעננה
לחברה מצליחה ברעננה דרוש/ה Pre-Sale data Solutions
3 פעמים בשבוע מהמשרד. פעמיים מהבית.
הגשת מועמדות במייל.
דרישות:
ניסיון 2+ שנים בתפקידי data Pre-Sale או בתפקידי data engineer המעוניינים בתפקיד Presale - חובה
תואר ראשון רלוונטי או הכשרה מקצועית רלוונטי - חובה
ניסיון בתהליכי POC- יתרון
ניסיון או היכרות עם פתרונות Talend יתרון
הבנה חזקה של השוק העסקי הישראלי ויכולת חשיבה עסקית.
כושר ורבלי גבוה, יכולת שכנוע והצגת פתרונות טכנולוגיים למול לקוחות.
אנגלית ברמה גבוהה מאוד (קריאה וכתיבה).
יכולת הדרכה טובה
ניסיון 2+ שנים בתפקידי data מכירה מוקדמת או בתפקידי מהנדס נתונים הרצון בתפקיד מכירה מוקדמת חובה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8251190
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו