דרושים » ניהול ביניים » Senior DataOps Engineer

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
We are looking for a DataOps Engineer to own the infrastructure that powers our large-scale data processing platform. This is a platform-facing role sitting at the intersection of data engineering and infrastructure - you'll be the person who makes Spark run reliably and efficiently on Kubernetes, so that data engineers can build with confidence.
You understand data workloads deeply enough to make smart infrastructure decisions, and you have the production instincts to keep complex systems healthy at scale. If you get excited about shaving minutes off Spark job runtimes, right-sizing cluster autoscalers, and building the internal tooling that makes a data platform feel effortless, this role is for you.
RESPONSIBILITIES:
Design, deploy, and operate the Kubernetes-based infrastructure that runs Apache Spark and large-scale data processing workloads
Own the reliability, performance, and cost-efficiency of the data platform - including SLAs, autoscaling, resource quotas, and workload isolation
Manage Spark-on-K8s configurations, Airflow infrastructure, and Databricks integration; tune for throughput, latency, and cost
Build and maintain CI/CD pipelines and infrastructure-as-code for data platform components
Develop observability tooling - metrics, logging, alerting, and data quality dashboards - to proactively surface issues across the pipeline stack
Collaborate closely with Data Engineers to understand workload patterns and translate them into infrastructure decisions
Manage cloud storage (GCS/S3), Delta Lake, and Unity Catalog infrastructure
Drive platform improvements end-to-end: from design through deployment and ongoing ownership.
Requirements:
5+ years of experience in a production infrastructure, SRE, or DevOps role
Strong Kubernetes experience, autoscaling, resource management, and the broader K8s ecosystem
2+ years with infrastructure-as-code tools (Terraform, Pulumi, or similar)
Proficiency in at least one general-purpose language - Python or Go preferred
Experience with workflow orchestration tools, particularly Apache Airflow
Solid understanding of cloud infrastructure - GCP preferred (GCS, GKE, IAM)
Strong observability skills: metrics pipelines, structured logging, alerting frameworks
OTHER REQUIREMENTS:
Hands-on experience running data processing workloads (Apache Spark, Flink, or similar) in production
Familiarity with Delta Lake, Parquet, and columnar storage formats
Experience with data quality frameworks and pipeline lineage tooling
Knowledge of query optimization, partition strategies, and Spark performance tuning
Experience managing queues and databases (Kafka, PostgreSQL, Redis, or similar).
This position is open to all candidates.
 
Hide
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8599274
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה להצטרף לצוות הדאטה שלנו ולהיות שותף מרכזי בהקמה, פיתוח ותפעול של פלטפורמת Data & AI ארגונית מתקדמת בסביבת Azure.

במסגרת התפקיד:
תכנון, פיתוח ותפעול Lakehouse ארגוני על גבי Azure Databricks
בניית Data Pipelines מודרניים מקצה לקצה על בסיס Delta Lake במודל Bronze / Silver / Gold
פיתוח תהליכי Data Ingestion חכמים ממערכות ליבה, APIs וEvent Streams, כולל Incremental Loading וCDC
עבודה עם Unity Catalog לניהול Data Governance, הרשאות, Lineage ושיתוף נתונים מאובטח בין צוותים
שימוש יומיומי ביכולות מתקדמות של Databricks:
Workflows & Jobs
Autoloader
Delta Live Tables
Structured Streaming
עבודה שוטפת וצמודה עם Data Scientists ותמיכה בML Workflows
הטמעה וניהול של MLflow:
ניהול ניסויים
Model Tracking
Versioning וReproducibility
בניית סטנדרטים ארגוניים לData Quality, Monitoring וObservability
אופטימיזציה של ביצועים ועלויות בסביבת Azure (Cluster Sizing, Caching, Partitioning)
תמיכה בהקמת AI / Data Platform ארגונית התומכת בAgents, Machine Learning ומוצרי דאטה
דרישות:
מה אנחנו מחפשים?
ניסיון של 3-5 שנים בתפקיד Data Engineer בסביבת Cloud
ניסיון מעשי משמעותי עם Azure Databricks
שליטה גבוהה ב Python,SQL, Spark / PySpark
ניסיון בעבודה עם: Delta Lake, Unity Catalog, Databricks Workflows / Jobs
ניסיון בבניית Data Pipelines בסביבת Production, ניסיון בעבודה משותפת עם Data Scientists וML Pipelines
היכרות עם MLflow לניהול מודלים וניסויים
הבנה טובה של Data Modeling בסביבת Lakehouse
ניסיון בעבודה עם Git וCI/CD לתהליכי דאטה
יכולת עבודה בצוות רבתחומי, חשיבה מוצרית וראייה מערכתית על דאטה

אנחנו ממוקמים ברמת גן,
מתחם הבורסה, בסמוך לרכבת סבידור מרכז ולרכבת הקלה

* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8570851
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בהורייזן טכנולוגיות
סוג משרה: מספר סוגים
לארגון ממשלתי גדול ומוביל טכנולוגית בירושלים דרוש/ה  DevOps Engineer!
עבודה במודל היברידי!
תיאור התפקיד: ליווי צוותי המוצר של מערך הדיגיטל במעבר לענן.
החל משלב הייזום, הגדרת הארכיטקטורה, תרגום דרישות תשתית לקוד, כתיבת ה- IAC, הקמת הסביבה בענן, חיבור לפייפליינים, טיפול בתקלות ותחזוקה שוטפת.
דרישות:
2 - 4 שנות ניסיון בתחום DevOps בענן ציבורי
ניסיון בכתיבת תהליכי אוטומציה מבוססי Python /cloud formation  
ידע וניסיון בכתיבת תהליכי CICD  
ידע וניסיון בעבודה בטכנולוגיות Docker,k8s  
ידע וניסיון בעבודה מול העננים הציבוריים, יתרון לניסיון עבודה ב- AWS ו- GCP  
ניסיון בעבודה עם מוצרי תקשורת, מערכות הפעלה ואבטחת מידע: WAF, FW וכדומה
ניסיון בכתיבת Terraform המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8592708
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 40 דקות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
בואו להוביל יוזמות AI וחדשנות!


מה אנחנו מחפשים?
מנהל/ת פרויקטים טכנולוגיים עם זיקה לעולמות ה-Product - התפקיד פועל בתוך יחידת ה AI של הראל, ומטרתו להוביל יוזמות AI ואוטומציה מקצה לקצה החל מהיכרות, תיעדוף וזיהוי הצרכים העסקיים ועד הטמעה ובקרה שוטפת.
התפקיד מהווה ציר מחבר בין היחידות העסקיות, הדאטה, מערכות מידע ותפעול – תוך כדי הובלה מטריציונית של Squad ייעודי לתהליכי עבודה שבתיעדוף יוזמות ה AI של הארגון.
 
אחריות מרכזית
הובלת פרויקטים טכנולוגיים מקצה לקצה (E2E):
תכנון, ניהול וביצוע פרויקטים טכנולוגיים מעמיקים הן בעולמות ה AI, בניית Roadmap והגדרת אבני דרך בהתאם ליעדי היחידות העסקיות
הובלה על בסיס מתודולוגיית עבודה אג'ילית, ניהול שוטף של ההתקדמות, תקציבים, סיכונים ותפוקות
 
הובלת squads מטריציונים :
ניהול סקוואדים הכוללים: אנשי Data Science ,ארכיטקטים, מפתחים, מעצבים QA ,
יצירת תיאום בין יחידות עסקיות עם עולמות תוכן שונים בארגון
הנעת תהליכים טכנולוגים ואנושיים כאחד בסביבה מרובת גורמים, התנגשויות
בקרה שוטפת, ניתוח תהליכים פרויקטאלים בשלבים שונים (הוכחת יכולת, פיילוטים, הטמעה בייצור, אופטימיזציה וכו')
תכנון שוטף, תוכנית עבודה roadmap, ואבני דרך
הובלה בסביבת עבודה אג'ילית
הטמעת מוצרים ותהליכי AI בקרב משתמשים פנימיים, עסקיים ולקוחות הקצה
דרישות:
מינימום 3-5 שנות ניסיון בניהול פרויקטים טכנולוגיים.
ניסיון במתודולוגיות Agile וProduct Ownership
ניסיון מוכח של עבודה צמודה לבעלי תפקידים עסקיים בכירים ובסביבה מורכבת מרובת ממשקים ואינטגרציות למערכות ליבה.
ניסיון מוכח בבניה של תהליכי עבודה, roadmap, תיעדוף אבני דרך וכתיבת דרישות ניהול      )Product אפיון, כתיבת דרישות)
יכולת הובלה ולקיחת יוזמות משלב הרעיון ל-Delivery
יכולת לחשוב מחוץ לקופסא לזיהוי פתרונות טכנולוגיים יצירתיים לצד פתרונות AIחדשניים.
ידע בעולמות AI/ML/LLM - יתרון משמעותי
ניסיון בהובלת יוזמות DATA/AI - יתרון
ניסיון בביטוח/פיננסיםHealthcare  - יתרון
אנגלית ברמה גבוהה
 
אנחנו יושבים ברמת גן, מתחם הבורסה, סמוך לרכבת סבידור מרכז ולרכבת הקלה.
 * המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8582883
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון פיננסי באזור המרכז מגייס data Engineer
התפקיד כולל: בנייה והובלה של תשתיות דאטה מתקדמות לצורך פיתוח, אימון והסקה של מודלים, פיתוח תהליכי ETL /ELT ועבודה עם Snowflake, יצירת data Pipelines ופאנלים דינמיים, חיבור למקורות מידע ארגוניים וניתוח נתונים, עבודה שוטפת עם data Scientists, אנליסטים וצוותי MLOps, הובלת תהליכי דאטה מקצה לקצה בסביבה טכנולוגית מתקדמת ועוד.
דרישות:
- 3 שנות ניסיון כ- data Engineer
- ניסיון ב-SQL וכתיבה אופטימלית לביצועים
- ניסיון בפיתוח תהליכי ETL /ELT ובניית data Pipelines
- ניסיון בעבודה עם Snowflake
- ניסיון עם DBT או Feature Store - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8582116
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בMertens – Malam Team
סוג משרה: מספר סוגים
חברת Mertens Malam Team מגייסת מפתח.ת Informatica ETL מנוסה לארגון מוביל בפתח תקווה.
התפקיד כולל פיתוח ותחזוקה של תהליכי אינטגרציית נתונים בסביבת Informatica בסביבת DWH ארגוני, כולל תכנון data Pipelines מורכבים ל data Lakes ולמערכות BI מקצה לקצה. עבודה עם Informatica PowerCenter ו IICS, עבודה מול מקורות מידע מגוונים כולל מערכות ארגוניות, APIs ולוגים, ושיתוף פעולה עם צוותי תשתיות, אבטחת מידע ופיתוח לצורך תחקור, שיפור ואופטימיזציה של תהליכים.
דרישות:
לפחות 4 שנות ניסיון מעשי בפיתוח ETL באמצעות Informatica PowerCenter בסביבת DWH ארגוני.
ניסיון בעבודה עם SQL ברמה גבוהה כולל אופטימיזציה ו Performance Tuning ויכולת עבודה עם מבני נתונים מורכבים.
ניסיון בעבודה עם בסיסי נתונים רלציוניים Oracle, SQL server, Teradata.
ניסיון בעבודה עם Informatica IICS.
היכרות עם סביבות ענן AWS, Azure, GCP ועם data Lakes. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8597453
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
we are seeking a Senior Infrastructure Engineer to join our Core SRE team and help build the next generation of our stream-based observability platform. We deliver real-time data analytics at scale to some of the worlds leading tech companies
The Core SRE team is responsible for the foundational infrastructure that powers :
Kubernetes Infrastructure: Managing over 10,000 nodes across multiple cloud providers and regions. production is 100% Kubrenetes based
Kafka Clusters: Maintaining critical, large-scale Kafka clusters processing billions of events per second.
Automation & Operators: Building and maintaining both open-source and custom Kubernetes operators to manage complex stateful workloads like Kafka. Our tech stack is constantly evolving. It includes: Kubernetes, Go (Golang), AWS, GCP, Kafka, Istio, and more.
Responsibilities:
Act as a hands-on technical leader with deep expertise in modern cloud infrastructure.
Serve as a go-to person in the team - leading through influence, not hierarchy.
Collaborate cross-functionally to refine requirements and propose innovative, scalable solutions.
Drive long-term, high-impact infrastructure projects across multiple teams, from design to implementation, within defined timelines.
Contribute to improving system reliability, performance, and cost-efficiency at scale.
Requirements:
5+ years of experience in DevOps, SRE, platform engineering, or infrastructure roles.
Deep understanding of Kubernetes: API, CNI, scheduling, container runtimes and such.
Strong hands-on experience with Kafka and Istio (or similar technologies ), and core networking protocols (HTTP, gRPC, TLS).
Proven experience managing large-scale cloud infrastructure (AWS, GCP, etc.).
Experience in incident response and troubleshooting complex distributed systems.
Some software engineering experience, preferably in Golang.
Passion for automation, performance tuning, and operational excellence.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8559448
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
01/03/2026
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
we are looking for a DevOps Tech Lead - a hands-on technical leader who thrives on bridging development and operations at scale. This role is ideal for someone passionate about automation, reliability, and mentoring others while driving architectural and operational excellence across our cloud infrastructure.
As the DevOps Tech Lead, youll be responsible for designing, implementing, and evolving our infrastructure and delivery pipelines while leading a team of talented DevOps engineers. Youll collaborate closely with development, product, and operations teams to ensure efficient, secure, and high-quality releases aligned with business goals.
Role:
Lead and mentor a team of DevOps engineers, guiding best practices in automation, reliability, and cloud infrastructure.
Architect, provision, and manage AWS cloud infrastructure, including EKS/Kubernetes clusters, EC2 instances, CloudFront, and serverless applications.
Design, build, and optimize CI/CD pipelines to enable fast, safe, and repeatable delivery.
Collaborate cross-functionally with R&D teams to design scalable systems, troubleshoot complex issues, and support new product initiatives.
Champion Infrastructure as Code principles using tools like Terraform and CloudFormation.
Drive observability and reliability through monitoring, logging, and alerting systems (Prometheus, Grafana, ELK, etc.).
Foster innovation and continuous improvement, adopting new tools and practices to increase efficiency, scalability, and cost optimization.
Contribute to hands-on coding and automation efforts when needed - lead by example.
Partner with stakeholders to align DevOps initiatives with business objectives, including uptime, deployment velocity, and cost efficiency.
Requirements:
6+ years of experience in DevOps or SRE roles, including at least 2 years in a technical leadership or team lead capacity.
Strong Linux systems administration background and deep familiarity with AWS cloud environments.
Proven experience with container orchestration and tooling (Kubernetes, Helm, Docker Compose).
Hands-on experience with infrastructure-as-code (Terraform, CloudFormation).
Strong understanding of CI/CD pipelines (GitHub Actions, Jenkins, etc.).
Proficient in scripting and programming (Bash, Python, Go, or Groovy).
Experience with monitoring and observability platforms (Prometheus, Grafana, ELK).
Excellent communication skills and the ability to work effectively with developers, QA, NOC, and support teams.
Experience with FinOps or cost optimization in cloud environments - a strong advantage.
Demonstrated ownership mindset, prioritization skills, and ability to thrive in a fast-paced, multi-tasking environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8565355
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
we are seeking a seasoned Senior CI/CD DevOps Engineer to join our CloudOps team. In this pivotal role, you will be the architect of our delivery ecosystems, designing and scaling high-performance CI/CD engines and Kubernetes-based infrastructure across multi-cloud environments.
You will bridge the gap between code and production, leveraging GitOps principles and advanced automation to accelerate our SaaS and On-Prem release cycles. If you thrive on building "Infrastructure as Code," mastering complex Jenkins pipelines, and securing cloud-native systems at scale, this is your next challenge.
Key Responsibilities:
Architect CI/CD Ecosystems: Design, implement, and maintain enterprise-grade CI/CD pipelines using Jenkins and Shared Libraries (Groovy) to standardize delivery across R&D.
Infrastructure as Code (IaC): Drive the automation of global cloud footprints (AWS) using Terraform, ensuring modularity, reusability, and state management.
Kubernetes Orchestration: Manage and optimize large-scale EKS clusters, focusing on high availability, auto-scaling, and cost-optimization.
GitOps Advocacy: Implement and champion GitOps workflows to ensure the "source of truth" always resides in Git, automating deployments and drift detection.
Advanced Scripting: Develop sophisticated tooling and automation logic using Python and Bash to eliminate manual toil.
Hybrid Cloud Delivery: Support complex release automation for both high-velocity SaaS environments and secure On-Prem deployments.
System Reliability: Troubleshoot complex production bottlenecks, optimize container performance, and mentor junior engineers on best practices.
Requirements:
Experience: 5+ years of experience in DevOps/SRE roles, with at least 3 years focused on high-scale CI/CD architecture.
Jenkins & Groovy Mastery: Expert-level knowledge of Jenkins, including Pipeline-as-Code and writing custom Groovy Shared Libraries.
AWS Expertise: Extensive, hands-on experience with AWS core services (EC2, S3, IAM, VPC) and deep proficiency with EKS.
Kubernetes Specialist: Comprehensive knowledge of K8s internals, including Helm charts, ingress controllers, CNI, and service meshes.
Terraform Pro: Proven track record of managing production environments solely through Terraform.
Developer Mindset: Strong proficiency in Python for automation and tool development, complemented by expert-level Bash scripting.
Git Professional: Deep understanding of Git internals, complex branching strategies (GitFlow, Trunk-based), and Hook management.
Modern Delivery: Practical experience implementing GitOps (e.g., ArgoCD or Flux) and container security best practices.
Nice to Have:
Experience with Go (Golang) for custom Kubernetes operators.
Familiarity with multi-cloud deployments (GCP/Azure) and OpenShift.
Background in security-focused DevOps (DevSecOps).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8565157
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
you will be part of our company rem department. our road experience management (rem) is an end-to-end mapping and localization engine. this process leverages advanced algorithms, massive parallelization, and Big Data technologies, creating a highly complex system that demands both a deep understanding of the map creation workflow and strong technical expertise. were looking for a senior data engineer to lead the architecture and development of large-scale, production-grade data pipelines supporting ml inference systems. what will your job look like:
architect and own end-to-end data pipelines for large-scale model inference
design high-throughput, scalable data streaming to the cloud
integrate data conversion into data collection and inference pipelines
drive performance, scalability, and reliability across distributed systems
partner with ml, platform, and infrastructure teams
Requirements:
all you need is: 5+ years of experience as a data engineer in production environments
strong Python expertise
hands-on experience with spark, polars, pandas, duckdb, aws
proven experience designing distributed data architectures
strong understanding of data performance, i/o, and scalability
experience working with ml or inference pipelines .we change the way we drive, from preventing accidents to semi and fully autonomous vehicles. if you are an excellent, bright, hands-on person with a passion to make a difference come to lead the revolution!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8579321
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
09/03/2026
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
Were looking for an experienced Senior DevOps Engineer to join our Cloud R&D team.

You will design, implement, and manage a highly scalable cloud infrastructure environment that hosts all our cloud websites. Youll also support our R&D cloud operations by providing automated tools and CI/CD processes.

Responsibilities:
Continuously improve our infrastructure to be more secure, scalable, and robust.
Apply new technologies for internal and external services.
Design, build, and maintain CI/CD pipelines and IaC for our infrastructure.
Architecture planning for cloud-based solutions.
Performance optimization to our workloads and GKE clusters.
Control and develop the monitoring and observability solutions.
Requirements:
At least 5 years of experience as a DevOps.
At least 3 years of hands-on experience with Kubernetes.
Knowledge and experience with cloud vendors such as GCP/AWS - Must.
Hands-on experience in production environments - Must.
DB management - MySQL, MongoDB, Redis - Must.
Experience with CI/CD tools such as Github Actions, Jenkins, or GitLab - Must.
Experience with Terraform or other provisioning tools - Advantage.
Development of Kubernetes Operators - Advantage.
High Documentation skills - Advantage.
Experience with operation of 24/7 Highly available production systems - Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8573226
סגור
שירות זה פתוח ללקוחות VIP בלבד