רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

Senior BigData Developer

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 6 שעות
דרושים בריקרוטיקס בע"מ
Location: More than one
Job Type: Full Time and Hybrid work
We are a pioneer company that integrates statistics modules and algorithms with a passion to sports, mainly soccer.
We are looking for a data analyst to join our research department. The data analyst function will support several stakeholders in our company.
As a part of your job you'll be:
Working with the research team and be the one to look and understand the bigger picture.
Learning the data gathering mechanism.
Face and solve business problems by analyzing data and provide insights to the business.
Develop complex logic flows to identify predefined events and generate desired insights.
Support the researchers on their projects.
Responsible for conducting both recurring and ad hoc analysis for business stake holders.
Research and integrate new tools and methods to enrich datasets.
Requirements:
A least 2 years of experience as a data Analyst - a must
High hands-on SQL skills ( SQL server ) - a must
R or Python programming skills- a must
Knowledge in statistics - a must
Interest in FinTech, Algo Trading - an advantage
Interest in sports (soccer in particular) - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621093
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בנס השמת בכירים - סימה מרטין
סוג משרה: משרה מלאה
הזדמנות להשתלבות בעולם מרתק של דאטה קליני, הטמעה והכשרה של כלים מודרניים בסביבת ענן בנקודה משמעותית בפרויקט טרנספורמציה טכנולוגית רחבת היקף
משרה מלאה 8:00 עד 16:30
הובלת פרויקטי דאטה מקצה לקצה - משלב האפיון והניתוח, דרך הפיתוח והיישום ועד לעלייה לאוויר
ניתוח מערכות ואפיון פתרונות דאטה מורכבים מול לקוחות עסקיים וגורמים קליניים
פיתוח תהליכי ETL ומודלי DWH
פיתוח backend ו- frontend בעולמות ה- BI והדאטה
עבודה בסביבות Microsoft ובענן (AWS)
השתלבות בצוות פיתוח של אנשי/נשות BI ו- data Engineers
התפקיד מתאים לאיש BI מנוסה, בעל/ת יכולת הובלה ועצמאות מקצועית, המסוגל/ת לקחת אחריות מלאה על משימות ופרויקטים ולהוות גורם מקצועי מוביל בצוות
דרישות:
לפחות 5 שנות ניסיון בפיתוח BI (לרבות פיתוח בכלי ETL)
לפחות 3 שנות ניסיון משמעותי בניתוח מערכות ואפיון פתרונות דאטה
ניסיון במידול DWH והובלת פרויקטי דאטה מקצה לקצה (backend ו- frontend)
ניסיון בעבודה עם כלי Microsoft: Power BI, SSIS, SSRS - חובה
ניסיון בעבודה בסביבות פיתוח מודרניות ובענן
יכולת עבודה עצמאית, הובלה מקצועית וראייה מערכתית רחבה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628085
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 7 שעות
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה באזור הצפון מגייסת data Engineer
התפקיד כולל: פיתוח והטמעה של תהליכי data Pipeline והזרמת מידע בין מערכות שונות, יישום לוגיקות עסקיות בפלטפורמת Splunk, התממשקות למערכות נוספות ועוד.
דרישות:
- שנתיים ניסיון כ- data Engineer
- ידע וניסיון בעבודה עם מערכות Linux
- שליטה בשפות Scripting כגון: Python וShell
- הכרות עם מימוש יישומים מבוססי דאטה
- ניסיון בעבודה עם Splunk - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8617088
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Senior Big Data Engineer to join our growing ML Platform team. This is a great opportunity for an experienced Data Engineer who wants to apply their skills to the world of Machine Learning. Together, well provide the high-throughput tools and distributed systems needed to process billions of data points, ensuring that our models have the feature-rich, reliable data they need to perform in real-time.
ML is central to our work. It enables us to process billions of dollars worth of e-commerce transactions and identify fraud rings. Precision at scale is crucial-our models depend on engineered features derived from massive datasets. As the volume of data and the complexity of these models grow, we need senior engineers who can solve the "Big Data" challenges inherent in modern MLOps.
Why should you join us?
Youll be part of a highly proficient engineering team that is the focal point for all ML engineering activity. This role is perfect for a Big Data specialist who wants to own the data-intensive side of ML-building the pipelines and infrastructure that transform raw global traffic into actionable intelligence.
What you will be doing:
Designing and building the data-heavy components of our ML infrastructure, allowing our models to make billions of real-time decisions every year.
Building distributed data processing pipelines that power model training, feature engineering, and offline research at scale.
Optimizing the "Feature Store" concept-ensuring that the data used for training matches the data used in production for real-time serving.
Acting as a technical consultant to data scientists and researchers, helping them navigate massive datasets and providing the Spark-based tooling they need to iterate faster.
Expanding our ML data infrastructure to be scalable and efficient, focusing on the performance of data ingestion and transformation for diverse model types.
Improving MLOps standards by ensuring data reproducibility, lineage, and quality across the entire model lifecycle.
Requirements:
5+ years of experience with large-scale data processing, with deep expertise in Apache Spark.
5+ years developing complex software with at least one general-purpose language (preferably Python or Scala).
Backend and server-side development experience of complex, highly scalable systems.
Strong understanding of Data Engineering patterns (Partitioning, Sharding, Schema evolution) and how they apply to model performance.
Interest in Machine Learning concepts-you don't need to be a researcher, but you should understand how data flows into a model.
Experience working with public clouds (AWS / GCP / Azure).
Fluent in written and spoken English.
Itd be really cool if you also:
Are familiar with Databricks or Airflow for orchestrating complex ML workflows.
Are comfortable in a containerized environment (Kubernetes/Docker).
Have experience with low-latency, real-time data serving or streaming (Kafka).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8633530
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for a talented Senior Big Data Developer.
Join a core team of experts responsible for developing innovative cyber-attack techniques for Cloud-based environments (AWS, Azure, GCP, Kubernetes) that integrate into our fully automated attack simulation.
This role provides the opportunity to lead end-to-end design & implementation of advanced server-side features using a wide range of technologies: Apache Spark, Apache Airflow, Scala, k8s, Node.js (JS/Typescript) with MongoDB, Redis, Kafka, Dockers and Flink (Big Data Stream Processing)
If you are up for the challenge and you have the X factor, come and join us!
Requirements:
5+ years of experience in software development with proven ability to take full responsibility and lead advanced software projects that require team collaboration.
Capable of facing a wide range of cutting edge technologies and challenging development tasks, designing new features from scratch and diving into existing infrastructure.
2+ years experience of spark with scala/Python - Must.
Experience in server-side development with APIs, Microservices Architecture (Docker), databases, caches, queues.
Experience in delivering fully tested production-level code using CI/CD pipeline and maintaining large-scale production systems.
Highly motivated leader with a can-do approach and strong interpersonal skills that thrives in a fast-paced startup environment.
Relevant Cyber Security experience - Advantage
Experience in cloud development (AWS / Azure / GCP) - Advantage
Experience with k8s operator, spark and airflow - Big Advantage
Experience with Node.js (JS/Typescript) - Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8626355
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Operate and debug object store-backed data lake infrastructure, enabling schema-on-read access, high-throughput ingestion, advanced searching strategies, and performance tuning for large-scale workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616791
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו