דרושים » תוכנה » מפתח /ת בכיר /ה בתחום הנדסת מידע senior data engineer

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
מיקום המשרה: מרכז
דרוש/ה מפתח /ת בכיר /ה בתחום הנדסת מידע senior data engineer
פיתוח בתחום הנדסת מידע ( data engineer) בעולמות ה- Big Data, בשפת Python. התפקיד כולל פיתוח הן במסגרת פרוייקט חדש ומשמעותי בארגון והן עבור פרוייקטים קיימים. במסגרת התפקיד נדרשת עבודה עם הטכנולוגיות הבאות:
א. טכנולוגיות ביג- דאטה דוגמת hadoop ecosystem, cassandra, redis, mongodb, s3, spark.
5ב. טכנולוגיות פתוחות כגון airflow, open shift.
דרישות:
תנאי סף:
ניסיון מוכח בתחום הפיתוח שלא יפחת מ-3 שנים במצטבר מתוך 5 השנים האחרונות
ניסיון מוכח בטכנולוגיות Big Data דוגמת spark, hadoop
ניסיון מוכח בשפות תכנות high level וכלי פיתוח, בפרט רמה גבוהה ב- JAVA או Python
ניסיון שלא יפחת משנה אחת מתוך 3 השנים האחרונות בפיתוח פרוייקטים וכן עבודה בסביבת ייצור ועבודה עם כלי DevOps דוגמת ci/cd
ניסיון של 3 שנים מתוך 5 השנים האחרונות במצטבר בעבודה עם תורים, כגון rabbit, kafka
יתרון:
יכולת עיצוב, תכנון, פתרון בעיות ומימוש פתרון טכנולוגי באופן עצמאי ובעבודת צוות - יתרון
תואר או הסמכה מיח' צבאית בעלת אופי דומה, בתחום רלוונטיים לתפקיד, כדוגמת מדעי המחשב, הנדסת תוכנה - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8591237
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
סוג משרה: משרה מלאה ועבודה היברידית
לחברת סקיוריטי בעולם הרכב דרוש/ה data Engineer
טכנולוגיות מרכזיות:
Iceberg, Trino, Prefect, GitHub Actions, Kubernetes, JupyterHub, MLflow, dbt
תיאור המשרה:
תכנון, פיתוח ותחזוקה של צינורות דאטה סקיילביליים לקליטה ועיבוד של נתוני Batch ב- data Lake, תוך הקפדה על איכות נתונים, ממשל נתונים (Governance), נראות (Observability) ו-CI/CD.
פיתוח והרחבת תשתיות הדאטה הבסיסיות, כולל data Lake, מנוע אנליטיקה ומסגרות לעיבוד Batch.
בניית תשתיות יציבות לאוטומציה של תהליכי קליטה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלי Open-Source ופתרונות Cloud-Agnostic.
פיתוח ותחזוקת ארכיטקטורות ומבני data Lake לגישה יעילה לנתונים ואנליטיקה מתקדמת.
פיתוח וניהול כלי אורקסטרציה, Governance, גילוי נתונים ( data Discovery) ועוד.
עבודה שוטפת עם חברי צוות נוספים - ארכיטקטי דאטה, אנליסטים ודאטה סיינטיסטים - בגישה מבוססת Use-Cases לבניית זרימות דאטה טכנולוגיות.
אחריות מקצה לקצה (End-to-End Ownership) וגישה פרואקטיבית
דרישות:
תואר ראשון במדעי המחשב / הנדסה או תחום רלוונטי
לפחות 4 שנות ניסיון בתכנון ובניית צינורות דאטה, כלי אנליטיקה ו- data Lakes
ניסיון בטכנולוגיות data Engineering: כלי ETL ואורקסטרציה (כגון Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כגון Spark, Kafka, Presto)
ניסיון מוכח ב Python - חובה
ניסיון בעבודה עם מוצרי Open-Source - יתרון
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כגון Kubernetes) - יתרון
ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכד) - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8531732
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 23 שעות
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה ועבודה היברידית
לארגון אנטרפרייז מוביל במרכז דרוש/ה data ENGINEER
התפקיד כולל ניהול תהליכי הסבת נתונים ממערכות המקור לבסיסי נתונים ו/או מאגרי אחסון בסביבת הענן.
הובלת תהליכי פיתוח, ניטור ובקרה על תהליכי עיבוד נתונים וניהול ממשקי עבודה מול הגורם העסקי
דרישות:
תואר ראשון במדעי המחשב / הנדסת תוכנה / תחום רלוונטי
מינימום 3 שנות ניסיון מוכח כ- data Engineer
היכרות עם כלי AWS: Glue, Lambda, EMR/Spark
היכרות עם כלי CI/CD: Jenkins / GitLab CI / GitHub Actions, Harness
אורקסטרציה: Apache Airflow (DAG design, XCom, pools)
שפות תכנות: JAVA / Python
יתרונות:
היכרות עם DB מבוססי ענן (PostgreSQL, DocumentDB, OpenSearch)
היכרות עם Apache Kafka
ניסיון בKubernetes / EKS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355779
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 20 שעות
דרושים בG-NESS
מיקום המשרה: בני ברק
סוג משרה: משרה מלאה ועבודה היברידית
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
קצת על התפקיד
אנו מחפשים מפתח/ת BI  מנוסה עם יכולות אנליטיות גבוהות והבנה טובה של ארכיטקטורת דאטה.
המועמד/ת המתאים/ה ישתלב בקבוצת ה- BI ויהיה אחראי/ת על פיתוח פתרונות אנליטיקה ברמה הארגונית, בעולמות תוכן מגוונים ובטכנולוגיות מתקדמות.             

אופי התפקיד:
- פיתוח ויישום פתרונות BI  מתקדמים ותובנות עסקיות מנתונים מורכבים.
- הגדרת ויישום מטריקות KPI מרכזיים עבור תהליכי פיתוח בעולמות התוכן המגוונים
- גיבוש קונספט ותכנון פתרונות אנליטיים
- עבודה עם טכנולוגיות מובילות בארכיטקטורות  BI וניתוח מידע
דרישות:
מה אנחנו מחפשים:
- תואר ראשון בהנדסת מערכות מידע, תעשייה וניהול, מדעי המחשב או תחום רלוונטי אחר
- 3 שנות ניסיון בפיתוח דוחות ודשבורדים בכלי ניתוח נתונים
- 3 שנות ניסיון מעשי ב-SQL מורכבים, פתרון בעיות וכוונון שאילתות
- כישורים אנליטיים מעולים והתמצאות בנתונים
- הבנה של ארכיטקטורת BI : DWH, ETL  ומידול נתונים
- ניסיון בפיתוח OBIEE או כלי פיתוח BI  אחר (Qlik View, Tableau) - יתרון
- ניסיון בפיתוח ETL - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8576355
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים ביוניטסק
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה מובילה באזור הצפון דרוש/ה data Engineer מנוסה להצטרפות לצוות דאטה, לעבודה עם טכנולוגיות מתקדמות בסביבת נתונים בזמן אמת.
במסגרת התפקיד:
פיתוח והטמעה של תהליכי data Pipelines והזרמת מידע בין מערכות שונות
עבודה עם לוגים ונתונים ממערכות מגוונות (Machine data )
פיתוח דשבורדים, ויזואליזציות והתראות בפלטפורמת Splunk
עבודה בסביבת Linux כולל התקנות, קונפיגורציה ותחזוקה
התממשקות למערכות חיצוניות באמצעות APIs
דרישות:
ניסיון של 3+ שנים כ- data Engineer (עבודה עם data Pipelines / תהליכי ETL )
שליטה בשפת Python / JAVA / PowerShell
ניסיון בעבודה עם לוגים/ מערכות ניטור/ ניתוח נתונים
ניסיון בעבודה עם Splunk - יתרון משמעותי.
ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) - יתרון.
תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי - יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8589478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בIngima
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
1. הובלה טכנולוגית של פיתוח בסביבת Snowflake - תכנון ארכיטקטורת הפתרון, שימוש במתודולוגיית פיתוח מתאימה, טיפול בהיבטי ביצועים.
2. אחראי על ניהול תוכנית עבודה של צוות מפתחים תוך שימוש במתודולוגיית פיתוח אג'ילית.
3. אחריות על שימוש יעיל במשאבי המערכת וניהול תקציב (Finops).
4. אחריות על אימוץ פיצ'רים חדשים של המוצר, עם דגש על יכולות ה-AI, על פי צרכי הארגון.
5. אחריות על כל היבטי אבטחת מידע ורגולציה - ניהול הרשאות לפי קבוצות הרשאה (RBAC), מימוש הנחיות גישה לנתוני PII, ניהול סביבות עבודה שונות.
6. ניהול הקשר מול שותפים בצד הטכנולוגיות - ניהול ענן, צוות DBA, צוות רשת.
דרישות:
1. שנות ניסיון: ניסיון מעל 5 שנים כData Engineer. מתוך זה, לפחות 3 שנים של ניסיון משמעותי בסביבת Snowflake.
2. ידע מקצועי: Snowflake, DBT, Python, Kafka - חובה. Spark, JAVA - יתרון.
3. התמודדות עם אתגרי Tuning Performance בסביבות מרובות נתונים.
4. ניסיון במימוש מנגנון הרשאות עבור תרחישים עסקיים מאתגרים.
5. ניסיון ניהול פיתוח בשיטת אג'ייל. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8592061
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Senior Algo Data Engineer
Realize your potential by joining the leading performance-driven advertising company!
As a Senior Algo Data Engineer on the Infra group, youll play a vital role in develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools.
About Algo platform:
The objective of the algo platform group is to own the existing algo platform (including health, stability, productivity and enablement), to facilitate and be involved in new platform experimentation within the algo craft and lead the platformization of the parts which should graduate into production scale. This includes support of ongoing ML projects while ensuring smooth operations and infrastructure reliability, owning a full set of capabilities, design and planning, implementation and production care.
The group has deep ties with both the algo craft as well as the infra group. The group reports to the infra department and has a dotted line reporting to the algo craft leadership.
The group serves as the professional authority when it comes to ML engineering and ML ops, serves as a focal point in a multidisciplinary team of algorithm researchers, product managers, and engineers and works with the most senior talent within the algo craft in order to achieve ML excellence.
How youll make an impact:
As a Senior Algo Data Engineer, youll bring value by:
Develop, enhance and maintain highly scalable Machine-Learning infrastructures and tools, including CI/CD, monitoring and alerting and more
Have end to end ownership: Design, develop, deploy, measure and maintain our machine learning platform, ensuring high availability, high scalability and efficient resource utilization
Identify and evaluate new technologies to improve performance, maintainability, and reliability of our machine learning systems
Work in tandem with the engineering-focused and algorithm-focused teams in order to improve our platform and optimize performance
Optimize machine learning systems to scale and utilize modern compute environments (e.g. distributed clusters, CPU and GPU) and continuously seek potential optimization opportunities.
Build and maintain tools for automation, deployment, monitoring, and operations.
Troubleshoot issues in our development, production and test environments
Influence directly on the way billions of people discover the internet
Our tech stack:
Java, Python, TensorFlow, Spark, Kafka, Cassandra, HDFS, vespa.ai, ElasticSearch, AirFlow, BigQuery, Google Cloud Platform, Kubernetes, Docker, git and Jenkins.
Requirements:
Experience developing large scale systems. Experience with filesystems, server architectures, distributed systems, SQL and No-SQL. Experience with Spark and Airflow / other orchestration platforms is a big plus.
Highly skilled in software engineering methods. 5+ years experience.
Passion for ML engineering and for creating and improving platforms
Experience with designing and supporting ML pipelines and models in production environment
Excellent coding skills - in Java & Python
Experience with TensorFlow - a big plus
Possess strong problem solving and critical thinking skills
BSc in Computer Science or related field.
Proven ability to work effectively and independently across multiple teams and beyond organizational boundaries
Deep understanding of strong Computer Science fundamentals: object-oriented design, data structures systems, applications programming and multi threading programming
Strong communication skills to be able to present insights and ideas, and excellent English, required to communicate with our global teams.
Bonus points if you have:
Experience in leading Algorithms projects or teams.
Experience in developing models using deep learning techniques and tools
Experience in developing software within a distributed computation framework.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8559383
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
seeking a Data Infra Engineer. You will be responsible for designing and building all data, ML pipelines, data tools, and cloud infrastructure required to transform massive, fragmented data into a format that supports processes and standards. Your work directly empowers business stakeholders to gain comprehensive visibility, automate key processes, and drive strategic impact across the company.

Responsibilities

Design and Build Data Infrastructure: Design, plan, and build all aspects of the platform's data, ML pipelines, and supporting infrastructure.
Optimize Cloud Data Lake: Build and optimize an AWS-based Data Lake using cloud architecture best practices for partitioning, metadata management, and security to support enterprise-scale operations.
Lead Project Delivery: Lead end-to-end data projects from initial infrastructure design through to production monitoring and optimization.
Solve Integration Challenges: Implement optimal ETL/ELT patterns and query techniques to solve challenging data integration problems sourced from structured and unstructured data.
Requirements:
Experience: 3+ years of hands-on experience designing and maintaining big data pipelines in on-premises or hybrid cloud SaaS environments.
Programming & Databases: Proficiency in one or more programming languages (Python, Scala, Java, or Go) and expertise in both SQL and NoSQL databases.
Engineering Practice: Proven experience with software engineering best practices, including testing, code reviews, design documentation, and CI/CD.
AWS Experience: Experience developing data pipelines and maintaining data lakes, specifically on AWS.
Streaming & Orchestration: Familiarity with Kafka and workflow orchestration tools like Airflow.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8547799
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/02/2026
חברה חסויה
Location: Petah Tikva
Job Type: Full Time
We are looking for an experienced, opinionated, and highly technical Staff Data Engineer to define the long-term direction of our Data Platform.
This role is ideal for a senior data leader who combines deep hands-on expertise with strong architectural judgment, enjoys mentoring others, and takes full ownership of complex, high-scale data systems.
You will drive platform architecture, set engineering standards, and lead the design and delivery of scalable batch and streaming data solutions on AWS.
Key Responsibilities:
Technical Leadership & Architecture:
Own and evolve the overall data platform architecture-scalability, reliability, security, and maintainability.
Lead the long-term strategic direction of the platform, balancing performance, cost, and operational excellence.
Introduce and drive adoption of modern data paradigms: lakehouse (Iceberg), event-driven pipelines, schema-aware processing.
Data Lake & Architecture Ownership:
Design, model, and evolve the Data Lake architecture, including:
Storage layout and data organization
Data formats and table design (e.g., Iceberg)
Batch and streaming ingestion patterns
Schema governance and lifecycle policies
Define and promote best practices for data modeling, partitioning, and data quality.
Ensure the Data Lake supports analytics, ML workloads, and operational systems at scale.
Platform Engineering:
Design and build high-scale ETL/ELT pipelines leveraging Apache Spark (EMR/Glue) and AWS-native services.
Optimize production-grade pipelines using S3, Athena, Kinesis, Lambda, Step Functions, and EKS.
Lead the rollout of modern patterns such as lakehouse architectures and event-driven data pipelines.
Security & Governance:
Ensure alignment with AWS security best practices-IAM, encryption, auditing, and compliance frameworks.
Partner with security and governance teams to support regulated and sensitive data environments.
Mentorship & Collaboration:
Serve as a technical mentor to data engineers; elevate team capabilities.
Lead architecture reviews and cross-team design discussions.
Work closely with Data Science, ML Engineering, Backend, and Product teams to deliver end‑to‑end data solutions.
Requirements:
Technical Expertise:
Advanced experience with Apache Spark (EMR, Glue, PySpark).
Deep expertise in AWS data ecosystem: S3, EMR, Glue, Athena, Lambda, Step Functions, Kinesis.
Strong understanding of Data Lake and Lakehouse architectures.
Experience building scalable batch and streaming pipelines.
Hands-on experience with Infrastructure as Code (Terraform / CDK / SAM).
Python as a primary programming language (TypeScript is a plus).
Leadership Mindset:
Opinionated yet pragmatic; able to defend architectural trade-offs.
Strategic thinker capable of translating long-term vision into actionable roadmaps.
Strong end‑to‑end ownership mentality, from design to production operations.
Passionate about automation, simplicity, and scalable engineering.
Excellent communicator capable of explaining complex decisions to diverse stakeholders.
Nice to Have:
AWS certifications (Solutions Architect, Data Engineer).
Experience supporting ML pipelines or AI-driven analytics.
Familiarity with data governance, data mesh, or self‑service data platforms.
Experience working in regulated, security‑sensitive, or law‑enforcement domains.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8545999
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a Senior Data Engineer to join our Platform group in the Data Infrastructure team.
Youll work hands-on to design and deliver data pipelines, distributed storage, and streaming services that keep our data platform performant and reliable. As a senior individual contributor you will lead complex projects within the team, raise the bar on engineering best-practices, and mentor mid-level engineers - while collaborating closely with product, DevOps and analytics stakeholders.
About the Platform group
The Platform Group accelerates our productivity by providing developers with tools, frameworks, and infrastructure services. We design, build, and maintain critical production systems, ensuring our platform can scale reliably. We also introduce new engineering capabilities to enhance our development process. As part of this group, youll help shape the technical foundation that supports our entire engineering team.
Job responsibilities
Code & ship production-grade services, pipelines and data models that meet performance, reliability and security goals
Lead design and delivery of team-level projects - from RFC through rollout and operational hand-off
Improve system observability, testing and incident response processes for the data stack
Partner with Staff Engineers and Tech Leads on architecture reviews and platform-wide standards
Mentor junior and mid-level engineers, fostering a culture of quality, ownership and continuous improvement
Stay current with evolving data-engineering tools and bring pragmatic innovations into the team.
Requirements:
5+ years of hands-on experience in backend or data engineering, including 2+ years at a senior level delivering production systems
Strong coding skills in Python, Kotlin, Java or Scala with emphasis on clean, testable, production-ready code
Proven track record designing, building and operating distributed data pipelines and storage (batch or streaming)
Deep experience with relational databases (PostgreSQL preferred) and working knowledge of at least one NoSQL or columnar/analytical store (e.g. SingleStore, ClickHouse, Redshift, BigQuery)
Solid hands-on experience with event-streaming platforms such as Apache Kafka
Familiarity with data-orchestration frameworks such as Airflow
Comfortable with modern CI/CD, observability and infrastructure-as-code practices in a cloud environment (AWS, GCP or Azure)
Ability to break down complex problems, communicate trade-offs clearly, and collaborate effectively with engineers and product partners
Bonus Skills:
Experience building data governance or security/compliance-aware data platforms
Familiarity with Kubernetes, Docker, and infrastructure-as-code tools
Experience with data quality frameworks, lineage, or metadata tooling.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8558192
סגור
שירות זה פתוח ללקוחות VIP בלבד