דרושים » דאטה » data Operation Specialist

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 3 שעות
דרושים בדיאלוג
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברת גלובאלית העוסקת בתחום ה-Fintech אשר פיתחה פלטפורמת SaaS הנותנת פתרונות טכנולוגיים לבעיות שהבנקים מעלים מולם דרוש/ה data Operation Specialist. החברה עובדת עם בנקים גדולים מכל העולם.
משרדי החברה נמצאים בהרצליה, קו רכבת, עובדים במודל היברידי.
דרישות:
2+ שנות ניסיון בתפקידי data Operations Specialist or data / system Analyst
ניסיון בכתיבת סקריפטים בPython
ניסיון בבנית תשתית QA
ניסיון עבודה עם databases המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527722
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתל אביב שגייסה 50 מיליון דולר דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה בצוות data מוביל בחברה, עבודה מורכבת בעיקר ב- Python
בשילוב Spark עבודה ב-Airflow, שימוש בכלים מתקדמים וכן דיווח ישיר ל-Head of data
של החברה
דרישות:
תואר ראשון טכנולוגי - חובה
5-6 שנות ניסיון בפיתוח דאטה
רקע בחברות Start up
ניסיון מעשי ב- Python - חובה
רקע ב-Spark ו-Airflow - חובה
ניסיון בעבודה מול גורמים גלובליים
רמה אישית מעולה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8508865
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת פלטפורמה מבוססת AI, NLP שסורקת מקורות מידע ברשת במטרה לאתר עבירות והפרות חוק שחברות גדולות ותאגידים עושים כלפי אזרחים.

החברה ממוקמת בתל אביב- קו רכבת, משלבת מודל עבודה היברידי ומונה מאות עובדים גלובלית.

מהות התפקיד: חלק מצוות של 4 עובדים, דיווח לראש צוות, צוות שאחראי על בניית הפלטפורמה מאפס. העבודה כוללת אחריות מלאה על Design, Build ו-Scale של data Platform Cloud Native לפתרונות AI ו-LLM של החברה. הקמה ותחזוקה של data Lakes ו- data Warehouses, פיתוח data Pipelines מורכבים ל-Batch ו-Streaming, חיבור AI/LLM Workloads ל-Production. ניהול ואופטמיזציה של data Bases- Postgres, Elasticsearch, Vector DBs, Graph DBs.
דרישות:
- 7 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח עם AWS
- ניסיון בפיתוח עם data lake- Databricks, Snowflake המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525804
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 5 שעות
דרושים בפרוסיד
סוג משרה: משרה מלאה ואיקון מתאים גם למגזר הדתימתאים גם למגזר הדתי
פרוסיד מגייסת data Engineer (GCP Focus | data AI Platforms) להובלת פרויקטי דאטה ו- AI חדשניים!

במסגרת התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בסביבת Google Cloud Platform (GCP).
בנייה וניהול של data Pipelines מקצה לקצה - איסוף, עיבוד, טרנספורמציה ואחסון נתונים על גבי GCP.
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים כגון.dbt
עבודה Hands-on עם מחסן נתונים מודרני בענן.BigQuery
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins או GitLab CI בסביבת.GCP
שיתוף פעולה הדוק עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום ארכיטקטורות דאטה ופתרונות.AI
בחינת טכנולוגיות חדשות ב-GCP הובלת PoC והטמעת חדשנות מתמדת בתהליכי הדאטה וה.AI
דרישות:
דרישות:
ניסיון של שנה לפחות כמהנדס/ת דאטה - חובה.
ניסיון מוכח בעבודה עם Google Cloud Platform (GCP) - חובה.
ניסיון Hands-on עם BigQuery - חובה.
שליטה מלאה בSQL וב- Python - חובה.
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt) - חובה.
ניסיון בעבודה עם כלי BI (Looker / Looker Studio / Power BI / Tableau) או רקע קודם כ- BI Developer - חובה.
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI) חובה.
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות בסביבת GCP -חובה.
ידע מעשי בתחום ה,GenAIכולל Prompt Engineering ושימוש בכלי AI - חובה.
יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות כגון data Mesh / data Fabric - יתרון משמעותי
ניסיון בהטמעת פתרונות ML/AI ו MLOps - יתרון משמעותי
רקע בכתיבת אפיונים טכניים ופונקציונליים- יתרון
ניסיון עם כלי data Governance, data Catalog ו- data Quality- יתרון
תואר אקדמי רלוונטי- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527293
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בNishapro
סוג משרה: משרה מלאה ועבודה היברידית
איסוף, ניתוח ועיבוד של נתונים פיננסיים והתנהגותיים לצורך הבנה, מדידה וניהול של האשראי.
פיתוח ויישום מודלים סטטיסטיים ואלגוריתמים מתקדמים לניבוי סיכון, דירוג אשראי, סיווג לקוחות וזיהוי מגמות חריגות.
ביצוע ניתוחים אנליטיים לצורך תמיכה בהחלטות עסקיות, רגולטוריות וניהול סיכונים.
עבודה עם מאגרי נתונים גדולים ( Big Data ), תוך שימוש בכלי BI, SQL ושפות תכנות רלוונטיות (כגון Python / R).
בדיקות תקופתיות לבחינת ביצועי המודלים (Model Monitoring Validation) ושיפורם בהתאם לצורך.
משרה היברידית- יום 1 מהבית
מיקום- לוד
דרישות:
תואר ראשון לפחות בסטטיסטיקה / מתמטיקה / כלכלה / מדעי המחשב / הנדסה תעשייה וניהול או תחום רלוונטי - חובה
ניסיון של שנתיים לפחות כאנליסט/ית נתונים או מפתח/ת מודלים חובה
עדיפות לניסיון בתחום הפיננסים/בנקאות.
שליטה גבוהה ב- SQL - חובה - שנתיים אחרונות לפחות
ניסיון בעבודה עם Python או SAS לצורך ניתוח סטטיסטי ופיתוח מודלים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8471406
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
סוג משרה: משרה מלאה ועבודה היברידית
לחברת סקיוריטי בעולם הרכב דרוש/ה Senior data Engineer
תיאור המשרה:
תכנון, בנייה ותחזוקה של פייפלייני נתונים סקיילביליים לטעינה ועיבוד של דאטה בBatch בData Lake, כולל תמיכה באנליטיקה ו-ML, תוך שמירה על איכות נתונים, ממשל (governance), תצפיות (observability) וCI/CD.
בנייה והרחבה של תשתית הנתונים הבסיסית data Lake, מנוע אנליטיקה, ומערכי Batch Processing.
יצירת תשתיות חזקות שיאפשרו פייפליינים אוטומטיים לטעינה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלים וטכנולוגיות קוד פתוח, Cloud-agnostic.
פיתוח ותחזוקת ארכיטקטורות ופריסות הData Lake לגישה יעילה לנתונים ולניתוחים מתקדמים.
בניית פלטפורמת הML ואוטומציה של מחזור חיי הML.
הובלת פרויקטי ML חוצי-ארגון מהיבט הנדסי.
פיתוח וניהול כלי אקטרציה, כלים לממשל נתונים, כלים לגילוי נתונים ועוד.
עבודה בשיתוף פעולה עם אדריכלי נתונים, אנליסטים ומדעני נתונים, לצורך בניית פתרונות מבוססי Use Cases המגדירים זרימות נתונים טכניות.
דרישות:
תואר ראשון במדעי המחשב, הנדסה או תחום רלוונטי
לפחות 5 שנות ניסיון בתכנון ובנייה של פייפלייני נתונים, כלים אנליטיים וData Lakes
לפחות 7 שנות ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכו)
ניסיון בטכנולוגיות data Engineering: כלים לETL ואורקסטרציה (כמו Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כמו Spark, Kafka, Presto)
ניסיון בעבודה עם Python חובה
ניסיון בעבודה עם מוצרים מבוססי קוד פתוח יתרון גדול
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כמו Kubernetes) יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439164
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Data/Backend Engineer with strong hands-on experience in Python-based ETL pipelines and cloud-native development on AWS.
You will work directly with the customers technical leadership, participating in architecture discussions, solution design, and ongoing implementation for a long-term project.
Core Responsibilities:
Develop and maintain Python ETL pipelines, data ingestion flows, and processing jobs.
Build backend components and microservices deployed on AWS Kubernetes (EKS).
Integrate and optimize data models, APIs, and batch/real-time processes.
Collaborate with technical stakeholders to understand requirements and translate them into scalable solutions.
Ensure reliability, observability, and performance of pipelines and services.
Work in a hybrid environment, coordinating closely with onsite teams and customer technical representatives.
Requirements:
Required Skills & Experience:
3-5+ years of hands-on backend or data engineering experience.
Strong proficiency in Python, specifically for ETL/data pipelines.
Experience with AWS services (Lambda, S3, EC2, IAM, VPC, etc.).
Hands-on work with Kubernetes (preferably AWS EKS).
Understanding of CI/CD processes and Git-based workflows.
Ability to work independently with customer teams and present technical solutions clearly.
Nice to Have:
Experience with Neo4j or other graph databases.
Experience with Frontend (React) development.
Knowledge of streaming platforms, data modeling, or distributed systems.
Experience working in consulting, retainer, or hourly engagement models.
Personal Qualities:
Strong communication skills, especially in customer-facing environments.
Self-driven, responsible, and comfortable handling end-to-end technical tasks.
Team player with the ability to work onsite when needed.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8521670
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Engineer at Meta, you will shape the future of people-facing and business-facing products we build across our entire family of applications. Your technical skills and analytical mindset will be utilized designing and building some of the world's most extensive data sets, helping to craft experiences for billions of people and hundreds of millions of businesses worldwide.
In this role, you will collaborate with software engineering, data science, and product management teams to design/build scalable data solutions across Meta to optimize growth, strategy, and user experience for our 3 billion plus users, as well as our internal employee community.
You will be at the forefront of identifying and solving some of the most interesting data challenges at a scale few companies can match. By joining Meta, you will become part of a world-class data engineering community dedicated to skill development and career growth in data engineering and beyond.
Data Engineering: You will guide teams by building optimal data artifacts (including datasets and visualizations) to address key questions. You will refine our systems, design logging solutions, and create scalable data models. Ensuring data security and quality, and with a focus on efficiency, you will suggest architecture and development approaches and data management standards to address complex analytical problems.
Product leadership: You will use data to shape product development, identify new opportunities, and tackle upcoming challenges. You'll ensure our products add value for users and businesses, by prioritizing projects, and driving innovative solutions to respond to challenges or opportunities.
Communication and influence: You won't simply present data, but tell data-driven stories. You will convince and influence your partners using clear insights and recommendations. You will build credibility through structure and clarity, and be a trusted strategic partner.
Data Engineer, Product Analytics Responsibilities
Collaborate with engineers, product managers, and data scientists to understand data needs, representing key data insights in a meaningful way
Design, build, and launch collections of sophisticated data models and visualizations that support multiple use cases across different products or domains
Define and manage Service Level Agreements for all data sets in allocated areas of ownership
Solve challenging data integration problems, utilizing optimal Extract, Transform, Load (ETL) patterns, frameworks, query techniques, sourcing from structured and unstructured data sources
Improve logging
Assist in owning existing processes running in production, optimizing complex code through advanced algorithmic concepts
Optimize pipelines, dashboards, frameworks, and systems to facilitate easier development of data artifacts
Influence product and cross-functional teams to identify data opportunities to drive impact.
Requirements:
Minimum Qualifications
Bachelor's degree in Computer Science, Computer Engineering, relevant technical field, or equivalent
2+ years of experience where the primary responsibility involves working with data. This could include roles such as data analyst, data scientist, data engineer, or similar positions
2+ years of experience with SQL, ETL, data modeling, and at least one programming language (e.g., Python, C++, C#, Scala or others.)
Preferred Qualifications
Master's or Ph.D degree in a STEM field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8478332
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
we are seeking a Senior Data Infra Engineer. You will be responsible for designing and building all data, ML pipelines, data tools, and cloud infrastructure required to transform massive, fragmented data into a format that supports processes and standards. Your work directly empowers business stakeholders to gain comprehensive visibility, automate key processes, and drive strategic impact across the company.
Responsibilities
Design and Build Data Infrastructure: Design, plan, and build all aspects of the platform's data, ML pipelines, and supporting infrastructure.
Optimize Cloud Data Lake: Build and optimize an AWS-based Data Lake using cloud architecture best practices for partitioning, metadata management, and security to support enterprise-scale operations.
Lead Project Delivery: Lead end-to-end data projects from initial infrastructure design through to production monitoring and optimization.
Solve Integration Challenges: Implement optimal ETL/ELT patterns and query techniques to solve challenging data integration problems sourced from structured and unstructured data.
Requirements:
Experience: 5+ years of hands-on experience designing and maintaining big data pipelines in on-premises or hybrid cloud SaaS environments.
Programming & Databases: Proficiency in one or more programming languages (Python, Scala, Java, or Go) and expertise in both SQL and NoSQL databases.
Engineering Practice: Proven experience with software engineering best practices, including testing, code reviews, design documentation, and CI/CD.
AWS Experience: Experience developing data pipelines and maintaining data lakes, specifically on AWS.
Streaming & Orchestration: Familiarity with Kafka and workflow orchestration tools like Airflow.
Preferred Qualifications
Containerization & DevOps: Familiarity with Docker, Kubernetes (K8S), and Terraform.
Modern Data Stack: Familiarity with the following tools is an advantage: Kafka, Databricks, Airflow, Snowflake, MongoDB, Open Table Format (Iceberg/ Delta)
ML/AI Infrastructure: Experience building and designing ML/AI-driven production infrastructures and pipelines.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8478237
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
11/01/2026
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
Were seeking an experienced and skilled Data and AI Infra Tech Lead to join our Data Infrastructure team and drive the companys data capabilities at scale.
As the company is fast growing, the mission of the data and AI infrastructure team is to ensure the company can manage data at scale efficiently and seamlessly through robust and reliable data infrastructure.
Requirements:
7+ years of experience in data infra or backend engineering.
Strong knowledge of data services architecture, and ML Ops.
Experience with cloud-based data infrastructure in the cloud, such as AWS, GCP, or Azure.
Deep experience with SQL and NoSQL databases.
Experience with Data Warehouse technologies such as Snowflake and Databricks.
Proficiency in backend programming languages like Python, NodeJS, or an equivalent.
Proven leadership experience, including mentoring engineers and driving technical initiatives.
Strong communication, collaboration, and stakeholder management skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8495880
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
29/12/2025
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a skilled and motivated Data Engineer with expertise in Elasticsearch, cloud technologies, and Kafka. As a data engineer, you will be responsible for designing, building and maintaining scalable and efficient data pipelines that will support our organization's data processing needs.
The role will entail:
Design and develop data platforms based on Elasticsearch, Databricks, and Kafka
Build and maintain data pipelines that are efficient, reliable and scalable
Collaborate with cross-functional teams to identify data requirements and design solutions that meet those requirements
Write efficient and optimized code that can handle large volumes of data
Implement data quality checks to ensure accuracy and completeness of the data
Troubleshoot and resolve data pipeline issues in a timely manner.
Requirements:
Bachelor's or Master's degree in Computer Science, Engineering, or a related field
3+ years of experience in data engineering
Expertise in Elasticsearch, cloud technologies (such as AWS, Azure, or GCP), Kafka and Databricks
Proficiency in programming languages such as Python, Java, or Scala
Experience with distributed systems, data warehousing and ETL processes
Experience with Container environment such AKS\EKS\OpenShift is a plus
high security clearance is a plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8477781
סגור
שירות זה פתוח ללקוחות VIP בלבד