רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
30/03/2026
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for an experienced Backend Developer with a passion for data to join our big data group.
Job Id: 25074
As a member of the team you will be a part of a fast, highly-scalable and fully managed data platform which handles terabytes of data per day in a cloud environment.
We are looking for an engineer who will work with multiple technologies stack: Kafka (Azure Event Hub), Kubernetes, Function Apps, Azure Data Explorer, MongoDB, etc.
Using several coding languages like Golang, NodeJS (TypeScript), and Python.
We are required to write efficient code that supports large-scale distributed systems.
Key Responsibilities
Design and build new solutions/features to help our customers improve their cloud security.
Gain experience with new technologies and languages, develop challenging solutions, and have a great opportunity to grow and create impact.
Constantly Improve existing implementations.
Adapt and take on more responsibilities and own your share of the product.
Work with product managers, business, and other teams.
Requirements:
At least 3 years of experience as a backend/Big Data developer.
Excellent with at least two of the languages: NodeJS(TypeScript)/Python/Golang.
B.Sc Graduate in Computer Science or related engineering degree.
Azure cloud environment experience - an advantage.
Large-scale production data experience - an advantage.
We are looking for a team player that will integrate well with our team.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8597352
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
29/03/2026
Job Type: Full Time
we are looking for a Data Engineer to join our growing BI team. This role goes beyond building pipelines. You will help shape our data platform as a shared product - supporting analytics, reporting, and decision-making across key company data domains such as Product, Sales, HR, and others. Your work will directly influence how stakeholders interact with data today and how the platform evolves in the years ahead.

What Youll Be Doing

Architect & Own: Lead the design and development of scalable data warehouse and BI solutions. You will make early-stage architectural decisions and own their long-term impact.
Infrastructure as a Product: Build core data infrastructure and developer experiences that others rely on, ensuring high availability and system reliability.
End-to-End ELT/ETL: Solve complex integration problems by sourcing data from structured and unstructured sources using Rivery, Python, and optimal ETL patterns.
Data Quality & Governance: Implement frameworks for schema evolution, anomaly detection, and data freshness. You will determine security models based on privacy requirements and evolve governance processes.
Strategic Collaboration: Partner with Engineers, Product Managers, and Data Analysts to conceptualize data needs and represent key insights in a meaningful way.
Optimization: Assist in owning production processes, optimizing complex code through advanced algorithmic concepts to manage operational cost-benefit tradeoffs.
Requirements:
Experience: 5+ years of experience in Data Engineering, Infrastructure, or Platform Engineering (ideally in organizations operating at a meaningful scale).
Technical Mastery: 5+ years of hands-on experience with Python and SQL. Deep proficiency in data modeling (Star/Snowflake schema) and DWH methodologies.
Cloud & Tools: Proven experience with Snowflake and AWS. Familiarity with Rivery or similar orchestration tools (like DBT) is a major advantage.
Production-First Mindset: Track record of leading data initiatives end-to-end from design and building to shipping and operating production flows.
Analytical Rigor: Ability to triage issues, resolve data quality problems, and design systems that handle system complexity with ease.
Education: Bachelors degree in Computer Science, Computer Engineering, or a relevant technical field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8595997
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Job Type: Full Time
As part of our Customers Company Data Engineering team, you will not only build scalable data features and pipelines but also directly enable portfolio growth by supporting new business capabilities in the Credit Card and Servicing business units.

Responsibilities

Design and build data solutions that support Credit Card and Servicing business goals.
Develop advanced data pipelines to support the infrastructure, architecture and the product growth initiatives.
Create ETL/ELT processes and SQL queries to bring data to the data warehouse and other data sources.
Own and evolve data lake pipelines, maintenance, schema management, and improvements.
Collaborate with stakeholders across Product, Backend Engineering, and Data Science to align technical work with business outcomes.
Implement new tools and modern development approaches that improve both scalability and business agility.
Ensure adherence to coding best practices and development of reusable code.
Constantly monitor the data platform and make recommendations to enhance architecture, performance, and cost efficiency.
Requirements:
4+ years of experience as a Data Engineer.
4+ years of Python and SQL experience.
4+ years of experience in data modeling and building scalable ELT/ETL pipelines across leading Data Warehouses (Snowflake - Preferred, Redshift, BigQuery).
3+ years of experience designing and managing automated data pipelines using Apache Airflow.
3+ years of experience developing scalable, production-grade data models with DBT.
Hands-on experience with cloud environments (AWS preferred) and big data technologies.
Strong troubleshooting and debugging skills in large-scale systems.
Proven experience packaging applications with Docker and utilizing Argo Workflows to automate, execute, and monitor containerized task sequences.
Experience with design patterns, coding best practices.
Proficiency with Git and modern source control.
Basic Linux/Unix system administration skills.
Experience with AI tools and a strong interest in continuously exploring and applying them in everyday work are highly valued.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8591958
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
25/03/2026
מיקום המשרה: מרכז
דרוש/ה מפתח/ת מנועי חיפוש לתפקיד מעניין ומאתגר הכולל הגדרת ארכיטקטורה, פיתוח מנועי חיפוש, תמיכה בהיקפי מידע וביצועים מהירים.
דרישות:
תנאי סף:
שלוש שנות ניסיון בתחום פיתוח Big-Data
שלוש שנות ניסיון ב- troubleshooting ופתרון תקלות production
יתרון:
ניסיון מוכח באחד או יותר מהתחומים הבאים: solr, elasticsearch,spark - יתרון
ניסיון עבודה עם טכנולוגיות הבאות: kafka, rabitmq, openshift ודומות - יתרון
יכולת למידה עצמית והתמודדות עם אתגרים טכנולוגיים מורכבים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8591132
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
25/03/2026
מיקום המשרה: מרכז
דרוש/ה מפתח/ת DevOps בתחום תשתיות ואופרציות ביג דאטה לתפקיד הכולל ארכיטקטורה ניהול והקמת סביבות מבוססות טכנולוגיות לעיבוד מידע בהיקפים גדולים מאוד ( Big-Data ), תמיכה בתהליכי ניהול קוד ופיתוח תהליכי ci/cd.
דרישות:
תנאי סף:
שלוש שנות ניסיון בעבודה עם תשתיות מבוססות Linux שנתיים ניסיון פיתוח בלפחות אחת מהשפות JAVA ו- Python
רקע מעשי בתחומי data lake, data warehouse
עבודה והכרות עם תשתיות opensource שונות (כגון kafka, elastic וכד')
יתרון:
הכרות עם תשתיות cassandra, trino, hadoop - יתרון
הכרות עם dockers ו/או kubernetes בדגש על openshift - יתרון
ניסיון בעבודה ופיתוח ענן (aws, gcp, azure) - יתרון
יכולת לימוד עצמית וכניסה מהירה לטכנולוגיות - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8591093
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
19/03/2026
Location: Jerusalem
Job Type: Full Time
We're in search of an experienced and skilled Senior Data Engineer to join our growing data team. As part of our data team, you'll be at the forefront of crafting a groundbreaking solution that leverages cutting-edge technology to combat fraud. The ideal candidate will have a strong background in designing and implementing large-scale data solutions, with the potential to grow into a leadership role. This position requires a deep understanding of modern data architectures, cloud technologies, and the ability to drive technical initiatives that align with business objectives.

Our ultimate goal is to equip our clients with resilient safeguards against chargebacks, empowering them to safeguard their revenue and optimize their profitability. Join us on this thrilling mission to redefine the battle against fraud.

Your Arena

Design, develop, and maintain scalable, robust data pipelines and ETL processes
Architect and implement complex data models across various storage solutions
Collaborate with R&D teams, data scientists, analysts, and other stakeholders to understand data requirements and deliver high-quality solutions
Ensure data quality, consistency, security, and compliance across all data systems
Play a key role in defining and implementing data strategies that drive business value
Contribute to the continuous improvement of our data architecture and processes
Champion and implement data engineering best practices across the R&D organization, serving as a technical expert and go-to resource for data-related questions and challenges
Participate in and sometimes lead code reviews to maintain high coding standards
Troubleshoot and resolve complex data-related issues in production environments
Evaluate and recommend new technologies and methodologies to improve our data infrastructure
Requirements:
5+ years of experience in data engineering, with specific, strong proficiency in Python & software engineering principles - Must
Extensive experience with GraphDB - MUST
Extensive experience with AWS, GCP, Azure and cloud-native architectures - Must
Deep knowledge of both relational (e.g., PostgreSQL) and NoSQL databases - Must
Designing and implementing data warehouses and data lakes - Must
Strong understanding of data modeling techniques - Must
Expertise in data manipulation libraries (e.g., Pandas) and big data processing frameworks - Must
Experience with data validation tools such as Pydantic & Great Expectations - Must
Proficiency in writing and maintaining unit tests (e.g., Pytest) and integration tests - Must
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8585533
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו