רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 28 דקות
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data -driven solutions for the business.

Key Responsibilities:
Design, develop, and optimize ETL /ELT pipelines for large-scale data processing.
Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
Troubleshoot and optimize queries and jobs for performance improvements.
Implement best practices for data governance, security, and monitoring.
Stay updated with industry trends and emerging technologies
Requirements:
4 years of experience in data engineering or related fields.
Proficiency in Python for data processing and automation (mandatory).
Deep understanding of Apache Spark and Databricks for Big Data processing (mandatory).
Experience with Git (mandatory).
Expertise in Apache Airflow for workflow orchestration.
Familiarity with cloud-based environments, particularly Azure.
Advanced proficiency in SQL and query optimization.
Familiarity with data modeling, ETL /ELT principles, and performance tuning.
Knowledge of CI/CD and containerization (Docker).
An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8593710
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 33 דקות
דרושים בריקרוטיקס בע"מ
Location: More than one
Job Type: Full Time and Hybrid work
We are a pioneer company that integrates statistics modules and algorithms with a passion to sports, mainly soccer.
We are looking for a data analyst to join our research department. The data analyst function will support several stakeholders in our company.
As a part of your job you'll be:
Working with the research team and be the one to look and understand the bigger picture.
Learning the data gathering mechanism.
Face and solve business problems by analyzing data and provide insights to the business.
Develop complex logic flows to identify predefined events and generate desired insights.
Support the researchers on their projects.
Responsible for conducting both recurring and ad hoc analysis for business stake holders.
Research and integrate new tools and methods to enrich datasets.
Requirements:
A least 2 years of experience as a data Analyst - a must
High hands-on SQL skills ( SQL server ) - a must
R or Python programming skills- a must
Knowledge in statistics - a must
Interest in FinTech, Algo Trading - an advantage
Interest in sports (soccer in particular) - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8480663
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
התפקיד כולל אחריות על תהליכי קליטה, עיבוד וניתוח נתונים, וכן פיתוח יישומים מבוססי דאטה על גבי פלטפורמת Splunk (כמו דשבורדים, אנליזות והתראות).
דרישות:
-ניסיון מוכח כ- data Engineer תהליכי ETL, עולמות data Pipelines ואינטגרציה בין מקורות מגוונים.
-ידע וניסיון בעבודה עם מערכות לינוקס.
-שליטה בשפות scripting כגון Python וShell.
-הכרות עם מימוש יישומים מבוססי דאטה דשבורדים, דוחות, אנליזות או מערכות ניטור.
-ניסיון בעבודה עם Splunk  יתרון משמעותי.
-ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) יתרון.
-תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8411908
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים בhumanlink
מיקום המשרה: רעננה
שכר: 22,000-25,000
אנחנו פלטפורמת מימון טריידרים מהצומחות בעולם, וצוות הדאטה שלנו עובד AI-first - משלבים בינה מלאכותית בכל שלב, מהתשתית ועד הדוחות.
דרישות:
ניתוח נתונים מקצה לקצה - משאלה עסקית ועד תובנה ברורה
? עבודה עם SQL וכלי ויזואליזציה
? שילוב כלי AI בתהליכי העבודה היומיומיים
מה אנחנו מחפשים?
?? SQL ברמה גבוהה
?? ניסיון בכלי ויזואליזציה
?? שימוש יומיומי בכלי AI - חובה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8595608
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
מיקום המשרה: יקום
סוג משרה: משרה מלאה
אנחנו מחפשים מפתח/ת ETL מנוסה להצטרף לצוות האוטומציה והאינטגרציה שלנו, לתפקיד מאתגר ודינמי הכולל פיתוח ותחזוקה של תהליכי העברת נתונים מורכבים בין מערכות ובסיסי נתונים, כחלק ממערכת האוטומציה הארגונית של החברה, תוך שימוש בApache NiFi, Oracle וSQL מתקדם.
התפקיד משלב עבודה אינטנסיבית עם שאילתות SQL מורכבות, טרנספורמציות נתונים, גזירות לוגיות ומניפולציות על מידע, המועבר בין מערכות שונות כחלק מתהליכי אוטומציה ואינטגרציה ארגוניים.
דרישות:
לפחות שנה ניסיון בפיתוח ETL או תהליכי data Integration
ניסיון בפיתוח Apache NiFi ותהליכי data Flow
היכרות טובה עם Linux ועבודה בCLI
ניסיון חזק בSQL: Join-ים מורכבים, Subqueries, Aggregations וTransformations המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525495
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים ביוביטק סולושנס
Job Type: Full Time
We are looking for a hands-on data Tech Lead to build and grow our Azure data practice from the ground up.
This role combines deep technical expertise with business impact and ownership.
What youll do:
Lead the end-to-end data domain within the company
Design and implement modern data platforms on Azure
Work with technologies such as Microsoft Fabric, Azure data Factory, Azure SQL, Synapse, Power BI
Drive customer engagements - from pre-sale and architecture to hands-on delivery
Act as a trusted advisor for customers on data strategy, analytics, and AI-driven insights
Build best practices, methodologies, and scalable solutions
Requirements:
What were looking for:
Strong hands-on experience with Azure data services
Experience building data pipelines, data warehouses/lakehouses, and BI solutions
Ability to work directly with customers (both technical and business stakeholders)
Experience in pre-sales / solution design - big advantage
Entrepreneurial mindset - ability to build a domain, not just execute tasks
Why join us:
Opportunity to build a new domain from scratch
High ownership and real impact
Work with cutting-edge Azure and AI technologies
Small, strong team with a startup mindset
The position is open to both women and men
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8590082
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בפרוסיד
מיקום המשרה: כפר סבא
סוג משרה: משרה מלאה
פרוסיד מגייסת Marketing Analytics Engineer ל-50% משרה!

תפקיד אנליטי-טכנולוגי בסביבה דיגיטלית מתקדמת, עם חיבור ישיר לעולמות השיווק, הדאטה והקמעונאות. הזדמנות לעבוד עם לקוחות משמעותיים ולהשפיע על החלטות עסקיות מבוססות דאטה.

במסגרת התפקיד:

ניתוח ביצועי קמפיינים, אפליקציות ומסעות לקוח (המרות, LTV, ROAS, Retention ועוד)
בניית סגמנטים מבוססי התנהגות וערך לקוח
כתיבת שאילתות SQL וחיבור למקורות דאטה
בנייה, תחזוקה ושיפור של דשבורדים ודוחות KPI
הפקת תובנות עסקיות והמלצות לפעולה
עבודה שוטפת מול צוותי שיווק, דיגיטל, סחר ומערכות מידע

*עבודה במודל 100% היברידי*
דרישות:
דרישות:
1-2 שנות ניסיון באנליזה / BI / דאטה - חובה
שליטה טובה ב-SQL - חובה
ניסיון בבניית דשבורדים בכלי BI (Looker / Power BI / Tableau או דומה) - חובה
הבנה בעולמות שיווק דיגיטלי (פאנלים, מסעות לקוח, מדדים עסקיים) - חובה
רקע בעולמות הקמעונאות (Retail), כולל עבודה עם חנויות פיזיות ואונליין, Omnichannel, מבצעים ועונתיות- יתרון משמעותי.
ניסיון עם Google Cloud / BigQuery / GA4 - יתרון משמעותי
היכרות עם מערכות Marketing Automation או CDP כגון Emarsys, salesforce - יתרון
ניסיון עם GTM- יתרון
ניסיון עם Python או R- יתרון
תואר רלוונטי (סטטיסטיקה, כלכלה, מדעי נתונים, תעשייה וניהול)- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589376
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתחום ה-Fintech דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה שכוללת פיתוח בעולמות ה- data, שימוש ב- Python
שימוש ב-Airflow כלי data מתקדמים וכן עבודה בצוות חוד בחברה.
דרישות:
תואר ראשון טכנולוגי
לפחות 6 שנות ניסיון בעולמות data - חובה
רקע בפיתוח backend - יתרון אך לא חובה
ניסיון ב- Python - חובה
ניסיון ב-Air Flow
ניסיון בכלי data נוספים
אנגלית טובה מאוד המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8580111
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
קצת על התפקיד
אנו מחפשים מפתח/ת BI  מנוסה עם יכולות אנליטיות גבוהות והבנה טובה של ארכיטקטורת דאטה.
המועמד/ת המתאים/ה ישתלב בקבוצת ה- BI ויהיה אחראי/ת על פיתוח פתרונות אנליטיקה ברמה הארגונית, בעולמות תוכן מגוונים ובטכנולוגיות מתקדמות.             

אופי התפקיד:
- פיתוח ויישום פתרונות BI  מתקדמים ותובנות עסקיות מנתונים מורכבים.
- הגדרת ויישום מטריקות KPI מרכזיים עבור תהליכי פיתוח בעולמות התוכן המגוונים
- גיבוש קונספט ותכנון פתרונות אנליטיים
- עבודה עם טכנולוגיות מובילות בארכיטקטורות  BI וניתוח מידע
דרישות:
מה אנחנו מחפשים:
- תואר ראשון בהנדסת מערכות מידע, תעשייה וניהול, מדעי המחשב או תחום רלוונטי אחר
- 3 שנות ניסיון בפיתוח דוחות ודשבורדים בכלי ניתוח נתונים
- 3 שנות ניסיון מעשי ב-SQL מורכבים, פתרון בעיות וכוונון שאילתות
- כישורים אנליטיים מעולים והתמצאות בנתונים
- הבנה של ארכיטקטורת BI : DWH, ETL  ומידול נתונים
- ניסיון בפיתוח OBIEE או כלי פיתוח BI  אחר (Qlik View, Tableau) - יתרון
- ניסיון בפיתוח ETL - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8576355
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Herzliya
Job Type: Full Time
we are expanding, seeking an experienced Data Engineer for challenging work in the world of Big Data.
Design, develop & maintain the BIG DATA platform (SingleStore/Vertica).
Design, develop & maintain the BIG DATA infrastructure (development, monitoring, installation, integration, etc)
Be part of the dynamic and agile core DBA team.
Collaborate with field engineers for the deployment phases.
Work on major, challenging projects with enterprise and startup customers.
Job location - Herzliya, Israel.
Requirements:
Over 3 years' experience as a Data Engineer.
Experience with databases.
Undergraduate degree in computer science / engineering or candidates with army service in software development / system administration - a significant advantage.
Patient and service-oriented, can fit well into a team, good self-learning skills and lateral, high-pressure work.
Experience in working with customers.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8602152
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Netanya
Job Type: Full Time and Hybrid work
Required Senior Data Engineer - Core Data Platform Team
Our Core Data Platform team
We're a leading force in the ad tech industry, revolutionizing how brands connect with their audiences. Our platform processes billions of ad impressions daily, generating massive datasets that drive our core business. We thrive on innovation and seek a Senior Data Engineer to help us build and scale the data infrastructure that powers our insights and analytics. This is a unique opportunity to work with cutting-edge technologies and make a direct impact on our products.
What will you do?
As a Senior Data Engineer, you'll be a key part of our data platform team, responsible for designing, building, and maintaining robust and scalable data pipelines. You'll work closely with data scientists, analysts, and server side engineers to ensure our data is reliable, accessible, and ready for analysis. Your expertise will be crucial in expanding our data warehouse and data lake capabilities, enabling us to deliver next-generation ad tech solutions.
Your mission will be to:
Develop and Optimize Data Pipelines: Design, build, and maintain ETL/ELT pipelines using Apache Spark to ingest, process, and transform large-scale datasets from various sources.
Manage Cloud Infrastructure: Architect and manage our data infrastructure primarily on Google Cloud Platform (GCP) or Amazon Web Services (AWS). This includes services like BigQuery, S3, GCS, EMR, and AirFlow.
Enhance Data Storage: Improve and manage our data warehouse and data lake solutions, ensuring data quality, consistency, and accessibility for business intelligence and machine learning applications.
Collaborate and Innovate: Partner with cross-functional teams to understand data needs and implement solutions that support new product features and business initiatives.
Ensure Data Integrity: Implement monitoring, alerting, and logging systems to maintain data pipeline health and ensure data accuracy.
Requirements:
7+ years of professional experience in a data engineering or similar role.
Good programming abilities. Testing your code is second nature to you. You are mindful of your applications architecture, performance, maintainability, and overall quality.
Technical skills
Strong proficiency in SQL / Java or Scala / Python.
Extensive experience with distributed data processing frameworks like Apache Spark / Flink / Hive / Trino.
Proven experience working with cloud-based data services on GCP or AWS (e.g.BigQuery, S3, GCS, EMR, DataProc).
Experience with real-time data streaming technologies like Kafka or Flink.
Deep understanding of data warehouse and data lake concepts and best practices
Knowledge of Apache Iceberg or Delta Lake
Solid understanding of IaC using Terraform
Familiarity with SQL and NoSQL databases.
Good communication skills and ability to work collaboratively within a team. You are an active listener and a dialogue facilitator, you know how to explain your decision and like sharing your knowledge.
Multiple shipped projects in Software Engineering.
Production knowledge and practices (Release, Observability, Troubleshooting, ), thanks to multiple shipped projects / applications. Strong problem-solving skills.
Nice to Have
Familiarity with containerization (Docker/OrbStack, Kubernetes).
Knowledge of the ad tech ecosystem (e.g., DSPs, SSPs, Ad Exchanges).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8601666
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Netanya
Job Type: Full Time
Required Data Engineer - Finance Solutions
The Finance Solutions team is a growing team that builds and owns products supporting the company's financial processes for internal users, customers (advertisers), and partners (publishers). Our core mission is to make finance operations simpler, more efficient, accurate, and trustworthy by continuously identifying and resolving pain points through automation, system integrations, and the use of AI. Our team operates in a truly international and heterogeneous environment, with members and partners split between Israel, France, UK and NY.
What will you do?
As a Data Engineer, you will be the backbone of our data-driven financial operations. You will focus on building and maintaining the infrastructure that turns raw financial data into actionable insights. You will serve as a technical liaison between engineering and business stakeholders to translate analytics requirements into scalable data solutions.
Collaborate with colleagues (engineering, product managers and finance) to understand data requirements and deliver data solutions.
Design, build, and maintain data models that are scalable, extendable and easy to use by other teams.
Design, build, and maintain scalable and reliable data pipelines to collect, process, and store data from various data sources.
Implement data quality checks and monitoring to ensure data accuracy and integrity.
Create and maintain dashboards and reports that provide visibility into key financial metrics like revenue, usage, and cost.
Requirements:
What will you bring to the team?
We are looking for a seasoned professional with a "growth mindset" who is eager to learn and share knowledge. The ideal candidate should have the following qualifications:
Proven experience (4+ years) in data engineering, BI, or analytics engineering, ideally within finance or customer management domains.
Strong expertise in SQL.
Strong experience using Google data stack including Google BigQuery and Looker
Experience using tools like dbt and orchestration platforms like Apache Airflow.
Good knowledge of Python for carrying out data related tasks
Proficiency in building dashboards and reports.
Experience managing client-facing projects and troubleshooting technical issues.
Bonus Points
Experience in the Ad-Tech industry.
Experience in Finance/Accounting operations.
Experience in writing software in Java and/or Scala.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8601560
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Netanya
Job Type: Full Time
We are seeking a Data Engineer to join our growing data team to design, build, and maintain data pipelines and infrastructure. You will work on distributed systems, orchestration frameworks, cloud environments, and modern data technologies to ensure that data flows reliably and efficiently across the organization.
Key Responsibilities:
Optimize processes for scalability and efficiency in distributed environments.
Ensure data quality, integrity, and performance across workflows.
Work with cloud-native solutions and containerized environments (Docker/Kubernetes).
Implement and manage orchestration frameworks (Airflow/Dagster/etc.).
Collaborate with cross-functional teams to support business and research needs.
Develop and enforce CI/CD processes and data testing frameworks (pytest, GE, or similar).
Monitor, troubleshoot, and continuously improve pipeline reliability and performance.
Requirements:
Youll be a great fit if you have
4+ years of professional experience with Python and SQL.
Proven experience building and maintaining ETL/ELT pipelines (batch/streaming) with orchestration frameworks (Airflow, Dagster, or similar).
Hands-on experience with distributed computing frameworks (Spark, Dask, Beam) and large-scale data processing.
Experience with major cloud platforms (AWS, GCP, or Azure); GCP/BigQuery is an advantage.
Proficiency with Docker/Kubernetes and CI/CD pipelines (GitLab CI, GitHub Actions, or similar).
Solid understanding of software engineering practices (data structures, algorithms, TDD, code quality).
Familiarity with data testing and monitoring frameworks (pytest, Great Expectations, observability tools).
Nice to Have:
Experience with dbt, ClickHouse, or Ray.
Familiarity with Python data libraries (pandas, NumPy, Apache Arrow, Jinja).
Background in functional programming.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8600774
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for an Experienced Big Data Engineer who loves solving complex problems at an extreme scale. In this role, you arent just building "internal pipelines"-you are developing the actual product our clients interact with. You will write high-performance code, optimize your own Spark processes for client freshness, and own features end-to-end. We need a "problem solver by nature, optimizer in their soul" who brings both technical depth and a great personality to a high-speed, deep technical team.

What youll do
Build Client-Facing Features: Design and implement high-scale product features for premium clients - from architecture to production deployment.
Performance Engineering: Optimize scalable data pipelines and distributed processes to meet strict client SLAs. Every millisecond of freshness matters.
System Integrity: Ensure uncompromising data accuracy and performance across massive, complex datasets.
Strategic Collaboration: Partner with upstream data providers, client-side teams, and Product Managers to turn raw events into production-grade features.
Requirements:
The Foundation: B.Sc. in Computer Science or an equivalent.
Relevant Track Record: 3+ years in Big Data Engineering (Backend experience is a plus, provided youve worked at scale).
Spark Mastery: 1+ years of deep, hands-on experience with Spark (or equivalent). You should understand "under the hood" complexities like memory management and execution plans.
Engineering Craft: Strong programming skills (Ideally Scala) with a deep understanding of distributed programming paradigms. You write clean, production-ready code that is optimized for execution across large-scale clusters.
The Scale Mindset: A natural obsession with high-scale problem solving and system optimization.
The Right DNA: A pragmatic, ownership-driven mindset with a personality that thrives in a collaborative environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8564986
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/03/2026
Location: Ra'anana
Job Type: Full Time
we are looking for a Senior Data Engineer responsible for designing, building, and maintaining the infrastructure necessary for analyzing large data sets. This individual should be an expert in data management, ETL (extract, transform, load) processes, and data warehousing and should have experience working with various big data technologies, such as Hadoop, Spark, and NoSQL databases. In addition to technical skills, a Senior Data Engineer should have strong communication and collaboration abilities, as they will be working closely with other members of the data and analytics team, as well as other stakeholders, to identify and prioritize data engineering projects and to ensure that the data infrastructure is aligned with the overall business goals and objectives.
What You'll Do
Work closely with data scientists/analytics and other stakeholders to identify and prioritize data engineering projects and to ensure that the data infrastructure is aligned with business goals and objectives
Design, build and maintain optimal data pipeline architecture for extraction, transformation, and loading of data from a wide variety of data sources, including external APIs, data streams, and data stores.
Continuously monitor and optimize the performance and reliability of the data infrastructure, and identify and implement solutions to improve scalability, efficiency, and security
Stay up-to-date with the latest trends and developments in the field of data engineering, and leverage this knowledge to identify opportunities for improvement and innovation within the organization
Solve challenging problems in a fast-paced and evolving environment while maintaining uncompromising quality.
Implement data privacy and security requirements to ensure solutions comply with security standards and frameworks.
Enhance the team's dev-ops capabilities.
Requirements:
Bachelor's or Master's degree in Computer Science, Engineering, or a related field
2+ years of proven experience developing large-scale software using an object-oriented or functional language.
5+ years of professional experience in data engineering, focusing on building and maintaining data pipelines and data warehouses
Strong experience with Spark, Scala, and Python, including the ability to write high-performance, maintainable code
Experience with AWS services, including EC2, S3, Athena, Kinesis/Firehose Lambda and EMR
Familiarity with data warehousing concepts and technologies, such as columnar storage, data lakes, and SQL
Experience with data pipeline orchestration and scheduling using tools such as Airflow
Strong problem-solving skills and the ability to work independently as well as part of a team
High-level English - a must.
A team player with excellent collaboration skills.
Nice to Have:
Expertise with Vertica or Redshift, including experience with query optimization and performance tuning
Experience with machine learning and/or data science projects
Knowledge of data governance and security best practices, including data privacy regulations such as GDPR and CCPA.
Knowledge of Spark internals (tuning, query optimization).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8596960
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ra'anana
Job Type: Full Time
we are looking for a skilled Data Center Engineer to join our Lab team. The ideal candidate will be responsible for maintaining, monitoring, and optimizing our data center environments to ensure high availability, resiliency, and performance. This role involves hands-on technical work, troubleshooting hardware and network issues, and collaborating with cross-functional teams to support mission-critical systems. You will report to the Lab Manager.
Key Responsibilities
Data Center Operations
Perform installation, configuration, and maintenance of servers, network equipment, storage systems, and cabling.
Monitor facility systems, including power, cooling, fire suppression, and physical security.
Conduct routine inspections to ensure environmental and operational stability.
Manage data center capacity planning (space, power, cooling).
Hardware & Infrastructure Support
Troubleshoot and resolve hardware failures for servers, routers, switches, and other equipment.
Coordinate with vendors for RMA processes and hardware lifecycle management.
Perform firmware upgrades and hardware refresh activities.
Network & Systems Support
Support deployment and maintenance of network infrastructure (LAN/WAN, routing, switching).
Assist with installation and configuration of OS and virtualization technologies (Linux, VMware, Hyper-V, etc.).
Work with IT/security teams to ensure compliance and secure configuration of data center assets.
Monitoring & Incident Response
Monitor systems and respond to alerts to ensure uptime and SLA adherence.
Maintain accurate documentation of incidents, configurations, and procedures.
Process & Documentation
Follow and improve standard operating procedures.
Maintain asset inventory, rack diagrams, and documentation.
Support audits and compliance requirements.
Requirements:
Must-Have
2-5+ years of experience in data center operations or infrastructure engineering (adjust depending on level).
Strong understanding of server hardware, cabling standards, and rack/stack procedures.
Experience with network fundamentals (TCP/IP, VLANs, routing & switching).
Ability to lift and move equipment (up to ~25 kg / 50 lbs if required).
Knowledge of monitoring tools and ticketing systems.
Excellent troubleshooting and problem-solving skills.
Nice-to-Have
Experience with virtualization platforms (VMware, KVM, Hyper-V).
Knowledge of Linux/Windows system administration.
Familiarity with Data Center Infrastructure Management (DCIM) tools.
Experience in cloud or hybrid environments.
Certifications: CompTIA Server+, Network+, CCNA, or equivalent.
Soft Skills
Strong communication and documentation abilities.
Ability to work independently and collaboratively.
High attention to detail and operational discipline.
Ability to perform in high-pressure, mission-critical environments.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8595763
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are searching for an innovative and experienced Data Engineer that will join us and be part of our reference and alternative data team in our data group.
As a Data Engineer, you will:
Be a part of a cross functional team of data and backend engineers.
Be responsible for ingesting financial data and providing it over numerous APIs in close collaboration with algorithmic teams and other partners.
Lead the architecture, planning, design and development of missin-critical and diverse data pipelines over both public and on-prem cloud solutions.
Requirements:
At least 5 years of experience working as a Data Engineer
At least 5 years of experience working in python development with emphasis on data analysis tools such as NumPy, pandas, polars, Jupyter notebook.
Hands-on experience working with AWS data processing tools and concepts.
Proven understanding in designing, developing and optimizing complex solutions.
Proven experience with the following technologies: Neo4j, MongoDB, Redis, Snowflake
Experience with Docker, Linux, CI/CD tools and concepts, Kubernetes.
Experience with data pipelining tools such as Airflow, Kubeflow or similar.
BSc / MSc degree in Computer Science/ Engineering / Mathematics or Statistics.
Advantages:
Hands-on experience with DataBricks platform.
Experience working on large scale and complex on-premises systems.
Hands-on experience in lower-level programming languages such as C++ or RUST
Familiarity with Capital markets and basic economics knowledge.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8595621
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
26/03/2026
Location: Herzliya
Job Type: Full Time
Responsibilities
Design, build, and maintain scalable ETL/ELT pipelines to integrate data from diverse sources, optimizing for performance and cost efficiency.
Leverage Databricks and other modern data platforms to manage, transform, and process data
Collaborate with software teams to understand data needs and ensure data solutions meet business requirements.
Optimize data processing workflows for performance and scalability.
Requirements:
5+ years of experience in Data Engineering, including cloud-based data solutions.
Proven expertise in implementing large-scale data solutions.
Proficiency in Python, PySpark.
Experience with ETL / ELT processes.
Experience with cloud and technologies such as Databricks (Apache Spark).
Strong analytical and problem-solving skills, with the ability to evaluate and interpret complex data.
Experience leading and designing data solutions end-to-end, integrating with multiple teams, and driving tasks to completion.
Advantages
Familiarity with either On-premise or Cloud storage systems
Excellent communication and collaboration skills, with the ability to work effectively in a multidisciplinary team.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8593222
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Job Type: Full Time
As part of our Customers Company Data Engineering team, you will not only build scalable data features and pipelines but also directly enable portfolio growth by supporting new business capabilities in the Credit Card and Servicing business units.

Responsibilities

Design and build data solutions that support Credit Card and Servicing business goals.
Develop advanced data pipelines to support the infrastructure, architecture and the product growth initiatives.
Create ETL/ELT processes and SQL queries to bring data to the data warehouse and other data sources.
Own and evolve data lake pipelines, maintenance, schema management, and improvements.
Collaborate with stakeholders across Product, Backend Engineering, and Data Science to align technical work with business outcomes.
Implement new tools and modern development approaches that improve both scalability and business agility.
Ensure adherence to coding best practices and development of reusable code.
Constantly monitor the data platform and make recommendations to enhance architecture, performance, and cost efficiency.
Requirements:
4+ years of experience as a Data Engineer.
4+ years of Python and SQL experience.
4+ years of experience in data modeling and building scalable ELT/ETL pipelines across leading Data Warehouses (Snowflake - Preferred, Redshift, BigQuery).
3+ years of experience designing and managing automated data pipelines using Apache Airflow.
3+ years of experience developing scalable, production-grade data models with DBT.
Hands-on experience with cloud environments (AWS preferred) and big data technologies.
Strong troubleshooting and debugging skills in large-scale systems.
Proven experience packaging applications with Docker and utilizing Argo Workflows to automate, execute, and monitor containerized task sequences.
Experience with design patterns, coding best practices.
Proficiency with Git and modern source control.
Basic Linux/Unix system administration skills.
Experience with AI tools and a strong interest in continuously exploring and applying them in everyday work are highly valued.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8591958
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Were looking for a senior‑level Data Platform Solutions Engineer who is both data‑savvy and customer‑focused. In this role youll help our customers run large‑scale data and AI workloads, tackling technical challenges across modern data environments. Youll blend deep troubleshooting expertise with tool‑building and solution design, while partnering closely with our teams and customers to ensure successful deployment and operation of our data‑platform offerings-both on‑premises and SaaS.
You will:
Assist customers with complex data‑lake and AI workloads on our data platform.
Diagnose and remediate high‑severity, multi‑layer issues spanning infrastructure, Kubernetes, data engines, storage, and networking.
Create and refine tools, automation, and solutions that boost environment stability and operational efficiency.
Deliver architectural guidance and configuration best practices to enhance performance, scalability, and resiliency.
Serve as the technical liaison among Customer Support, Product Management, and R&D, turning customer insights into product enhancements.
Take the first step towards your dream career
Job ID:R285903.
Requirements:
Essential Requirements:
Data & Platform Engineering: 4+ years of experience working with data platforms, developing Python-based tools, automation, or data pipelines for managing complex datasets and workflows.
Databases: Strong hands-on experience with relational databases (SQL) and NoSQL technologies such as MongoDB, including performance tuning.
Cloud-Native & Kubernetes: Experience deploying and operating containerized workloads on Kubernetes in hybrid or multi-cloud environments.
Data Pipelines: Experience building, maintaining, or supporting scalable ETL/ELT pipelines and data processing solutions.
Observability & Troubleshooting: Experience with monitoring and log platforms (ELK, Splunk) and troubleshooting complex production environments, preferably in customer-facing contexts.
Desirable Requirements:
Experience with Starburst or Trino (highly preferred).
Strong verbal and written English communication skills for global collaboration.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8588964
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
19/03/2026
Location: More than one
Job Type: Full Time
We are looking for an expert Data Engineer to build and evolve the data backbone for our R&D telemetry and performance analytics ecosystem. Responsibilities include processing raw, large quantities of data from live systems at the cluster level: hardware, communication units, software, and efficiency indicators. Youll be part of a fast paced R&D organization, where system behavior, schemas, and requirements evolve constantly. Your mission is to develop flexible, reliable, and scalable data handling pipelines that can adapt to rapid change and deliver clean, trusted data for engineers and researchers.

What youll be doing:

Build flexible data ingestion and transformation frameworks that can easily handle evolving schemas and changing data contracts.

Develop and maintain ETL/ELT workflows for refining, enriching, and classifying raw data into analytics-ready form.

Collaborate with R&D, hardware, DevOps, ML engineers, data scientists and performance analysts to ensure accurate data collection from embedded systems, firmware, and performance tools.

Automate schema detection, versioning, and validation to ensure smooth evolution of data structures over time.

Maintain data quality and reliability standards, including tagging, metadata management, and lineage tracking.

Enable self-service analytics by providing curated datasets, APIs, and Databricks notebooks.
Requirements:
What we need to see:

B.Sc. or M.Sc. in Computer Science, Computer Engineering, or a related field.

5+ years of experience in data engineering, ideally in telemetry, streaming, or performance analytics domains.

Confirmed experience with Databricks and Apache Spark (PySpark or Scala).

Understanding of streaming processes and their applications (e.g., Apache Kafka for ingestion, schema registry, event processing).

Proficiency in Python and SQL for data transformation and automation.

Shown knowledge in schema evolution, data versioning, and data validation frameworks (e.g., Delta Lake, Great Expectations, Iceberg, or similar).

Experience working with cloud platforms (AWS, GCP, or Azure) - AWS preferred.

Familiarity with data orchestration tools (Airflow, Prefect, or Dagster).

Experience handling time-series, telemetry, or real-time data from distributed systems.

Ways to stand out from the crowd:

Exposure to hardware, firmware, or embedded telemetry environments.

Knowledge of real-time analytics frameworks (Spark Structured Streaming, Flink, Kafka Streams).

Understanding of system performance metrics (latency, throughput, resource utilization).

Experience with data cataloging or governance tools (DataHub, Collibra, Alation).

Familiarity with CI/CD for data pipelines and infrastructure-as-code practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8585234
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
02/03/2026
Location: Tel Aviv-Yafo and Ra'anana
Job Type: Full Time
Responsibilities:
Design and maintain scalable data pipelines with Spark Structured Streaming.
Implement Lakehouse architecture with Apache Iceberg.
Develop ETL processes for data transformation.
Ensure data integrity, quality, and governance.
Collaborate with stakeholders and IT teams for seamless solution integration.
Optimize data processing workflows and performance.
Requirements:
5+ years in data engineering.
Expertise in Apache Spark and Spark Structured Streaming.
Hands-on experience with Apache Iceberg or similar data lakes.
Proficiency in Scala, Java, or Python.
Knowledge of big data technologies (Hadoop, Hive, Presto).
Experience with cloud platforms (AWS, Azure, GCP) and SQL.
Strong problem-solving, communication, and collaboration skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566447
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
Experienced Data Engineer? Excellent team player?

Come join a great team to overcome meaningful cyber challenges!

Our Data Solutions Group is looking for an exceptional Python developer with Data Engineering experience.
Requirements:
Requirements:
Excellent team player.
Excellent Python developer.
BSc Computer Science or similar.
2+ years of experience with big data frameworks such as Spark or Hadoop.
2+ years of experience in managing ETLs in AirFlow or similar, multi-source data flows and processing of large data sets.
3+ years of experience with SQL.
Attention to details, high responsibility and open minded.
Ability to take initiative with a self-motivated attitude and reliability.
Critical thinker and problem-solving skills.

Advantages:
Proven capabilities in data analysis and data-driven conclusions.
Experience with the ElasticSearch suite.
Java development experience.
Experience with Linux environment.
Background in the cyber domain.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8566408
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
01/03/2026
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced Data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data-driven solutions for the business. Key Responsibilities:
* Design, develop, and optimize ETL/ELT pipelines for large-scale data processing.
* Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
* Troubleshoot and optimize queries and jobs for performance improvements.
* Implement best practices for data governance, security, and monitoring.
* Stay updated with industry trends and emerging technologies in data engineering. If you're passionate about building scalable data solutions and thrive in a fast-paced environment, we’d love to hear from you!
Requirements:
* 4 years of experience in data engineering or related fields.
* Proficiency in Python for data processing and automation (mandatory).
* Deep understanding of Apache Spark and Databricks for big data processing (mandatory).
* Experience with Git (mandatory).
* Expertise in Apache Airflow for workflow orchestration.
* Familiarity with cloud-based environments, particularly Azure.
* Advanced proficiency in SQL and query optimization.
* Familiarity with data modeling, ETL/ELT principles, and performance tuning.
* Knowledge of CI/CD and containerization (Docker).
* An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8500308
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו