דרושים » דאטה » דרוש /ה data Architect לחברה מובילה בר"ג!

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בקומפאי טכנולוגיות בע"מ
סוג משרה: משרה מלאה
חברה גלובלית מובילה באנרגיה סולרית מחפשת data Architect שיגבש את אסטרטגיית הדאטה ארוכת הטווח ויוביל את תחום הדאטה בחברה.

התפקיד כולל:
עיצוב ובעלות על פלטפורמת דאטה מודרנית מבוססת ענן (Azure או מקבילה)
חיבור מערכות והגדרת מודלים סקיילביליים
הקפדה על איכות ואבטחת מידע
הנגשת דאטה מהימן לצוותי החברה ודשבורדים ב-Power BI
דרישות:
5+ שנות ניסיון בארכיטקטורת דאטה / הנדסת דאטה
ניסיון מעשי בפלטפורמות ענן, SQL ו- Python
ניסיון ב- ETL /ELT ודאטה בהיקפים גדולים. המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8372746
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
דרושים בדטה קיוב בע''מ
סוג משרה: משרה מלאה
- ניהול והובלת צוות פיתוח, מנהלי מערכת, תפעול ו- DBA
- ניהול פלטפורמות פיתוח לצוותים בתחום
-תפעול וניהול מחסן נתונים ותהליכי ETL /ELT
- ניהול ותחזוקת שרתים WIN/ Linux
-בחינת כלים חדשים והטמעתם
- ניהול אפליקציות וביצוע שדרוגי גרסאות
דרישות:
-הבנה בארכיטקטורת data warehouse ובמודלים מורכבים של BI
-ידע בבסיס הנתונים של אורקל, Exadata
-ידע באפליקציות ETL - יתרון לאינפורמטיקה/ Datastage/TALEND
-ידע ב- Python יתרון
-ידע בעבודה עם פלטפורמות ענן, לרבות AWS/ Snowflake יתרון
- ניהול צוות BI לפחות שנה ניסיון
- ניהול פרויקטים יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8329164
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
סוג משרה: משרה מלאה
חברה באזור המרכז מגייסת מנהל /ת צוות data
התפקיד כולל: הובלת מחלקת הדאטה בארגון, אחריות על ארכיטקטורת נתונים, תהליכי ETL ו- data Governance, קידום פרויקטים חוצי ארגון בתחום BI ו-Analytics, תרגום צרכים עסקיים לפתרונות data -Driven, עבודה ישירה מול יחידות, הצגת תובנות ודו"חות ניהוליים להנהלה לצורך קבלת החלטות אסטרטגיות ועוד.
דרישות:
- 5 שנות ניסיון בניהול מחלקות data / BI בארגונים טכנולוגיים או פיננסיים
- ניסיון בהובלת צוותים רב-תחומיים הכוללים אנליסטים, BI Developers ו- data
Engineers
-שליטה בכלי BI כגון: Power BI, Tableau, Qlik או Looker
- ניסיון בעבודה עם data Warehouse ופלטפורמות ענן כגון:
Snowflake / BigQuery / AWS
- רקע בניהול פרויקטי data & Analytics עם דגש על יישום אסטרטגיות דאטה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8369344
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בG-NESS
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
לחברה פיננסית גדולה אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר.
התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
תחומי אחריות-
פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
- ניסיון של 5 שנים בפיתוח פתרונות דאטה - חובה.
- שליטה ב- Python - חובה.
- ניסיון בעבודה עם בסיסי נתונים (SQL)- חובה.
- הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים
- אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
- יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות וגמישות מחשבתית
- ניסיון מחברת ביטוח או פיננסים- יתרון משמעותי.
- שליטה ב Informatica- יתרון.
- ניסיון עם ענן AWS / Azure המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8358756
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בG-NESS
מיקום המשרה: בני ברק
סוג משרה: משרה מלאה ועבודה היברידית
לארגון ציבורי גדול במרכז הארץ דרוש.ה data Engineer. המשרה כוללת:
פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Nifi Apache ו Apache spark
עבודה עם Flink Apache לפיתוח תהליכי עיבוד נתונים בזמן אמת
ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוני ים
פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של 4 שנים לפחות כ data Engineer - תוך עבודה משמעותית באחד או יותר מהשירותים
הבאים:
Apache Spark
NiFi Apache
Flink Apache
ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
שליטה מלאה ב - SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים:
MongoDB וכתיבת Aggregation Piplines
כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
שירותי Cloudera בסביבת CDP
Kafka
מודולי AI ותהליך שילובם בפתרונות
הכרות עם פיתוח לעולם ה Micro-Services בכלל ו OpenShift בפרט
עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8218399
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה ועבודה היברידית
לארגון אנטרפרייז מוביל
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות BI מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.

תחומי אחריות:

פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL) חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים

מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות
גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355699
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בOne data
סוג משרה: משרה מלאה ועבודה היברידית
הזדמנות להשתלב בארגון גדול ודינמי, עם מאות משתמשים, הנמצא בתנופת עשייה ומעבר לטכנולוגיות חדשניות ומתקדמות!
הצטרף/י לצוות BI שאחראי על תפעול, פיתוח והובלת פרויקטים משמעותיים משלב האפיון ועד ליישום והטמעה מלאה של פתרונות דאטה ובינה עסקית.
במסגרת התפקיד:
אפיון דרישות עסקיות ומיפוי נתונים
הגדרת תהליכי ETL ותרשימי ERD
פיתוח ותחזוקת pipelines בסביבת data Lake
פיתוח דשבורדים ודוחות במערכות BI
מתן מענה שוטף לדרישות עסקיות, תקלות, ופרויקטים
עבודה עם טכנולוגיות מתקדמות בסביבת ענן
דרישות:
לפחות 8 שנות ניסיון בבניית ותחזוקת data Pipelines מקצה לקצה
ניסיון עם כלי SAP חובה
ניסיון עם Databricks ו-Snowflake חובה
שליטה מעמיקה ב-SQL (כולל stored procedures, Indexing, Performance Tuning)
ניסיון בפיתוח תהליכי שינוע נתונים בעולמות רלציוניים
ניסיון בכלי תשתית: SSIS, SAP -DI / SAP -DS, SQR
עבודה עם תהליכי CI/CD
ניסיון בעבודה בסביבת ענן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8347624
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בLog-On Software
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
מתן שירותי מידע - מענה לשאלות בנושא כריית מידע ממחסן הנתונים
יישום והטמעת מתודולוגיות עבודה ובקרה על שלמות המידע.
יישום ופיתוח דו"חות ו- ETL בכלי SSBI - Excel services, Qlik Sense,PBI.
ניתוח תהליכי BI כתמיכה לפניות בנושא תקלות.
דרישות:
ניסיון קודם של שלוש שנים לפחות כ- data ANALYST - חובה.
ידע וניסיון מוכח ב- SQL ברמה גבוהה (כולל שאילתות מורכבות, פונקציות שונות) - חובה.
ידע וניסיון מוכח ב-Excel ברמה גבוהה (VLOOKUP, נוסחאות מורכבות וכו') - חובה.
הכרות עם כלי תחקור שונים (Power BI, Qlik וכו') - חובה.
ידע וניסיון ב- Python - חובה! המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7919925
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה פיתחה פלטפורמת SaaS B2B מבוססת AI עבור לקוחות Enterprise בעולמות המזון והמשקאות בשוק הגלובלי. המוצר מספק insights בכל הקשור להתנהגות צרכנית והעדפות צרכניות ובכך הוא מאפשר ללקוחותיהם לתכנן את האסטרטגיה הפיתוחית והשיווקית בהתאם לשוק. המידע שנאסף ומנותח מאפשר לזהות איזה אוכל אנשים מכינים, מזמינים ואוהבים.
החברה ממוקמת בתל אביב- קו רכבת קלה, משלבת מודל עבודה היברידי ומונה 90 עובדים בעולם, 50 מתוכם בארץ.
מהות התפקיד: חלק מצוות ה- data, כפיפות לראש צוות. תפקיד ב-Core של המוצר, עבודה צמודה ל- data Scientists. עבודה על data מגוון- תמונות, טקסטים וסרטונים. פיתוח ETL ב- Python. ומעט ב- JavaScript /TypeScript. סטאק טכנולוגי: Python, TypeScript, NodeJS, AWS, Spark, Kafka, Elastic, ETL.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח NoSQL
- ניסיון בפיתוח עם AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8351433
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
דרושים במלונות אסטרל
מיקום המשרה: בני ברק
סוג משרה: משרה מלאה
אפיון, פיתוח ותחזוקה של דוחות ודשבורדים ב- QlikView בהתאם לצרכים העסקיים
כתיבת סקריפטים לטעינה, ניקוי ואיחוד נתונים ממקורות כמו SQL, Excel ו-APIs
פיתוח תהליכי ETL משלב איסוף הנתונים ועד הצגתם במערכת
עבודה עם בסיסי נתונים וכתיבת שאילתות SQL מורכבות
בקרה על איכות הנתונים וזיהוי בעיות או כפילויות
הבנת הדרישות העסקיות והגדרת מדדים (KPIs) יחד עם מנהלים בכירים
תכנון מבנה דשבורדים - בחירת מדדים, פילוחים, ויזואליזציות וסדר הצגה
שיפור ביצועים ואופטימיזציה של דוחות קיימים
ניהול הרשאות וגישה למידע לפי מדיניות הארגון
הטמעת פתרונות ה- BI, הדרכת משתמשים בארגון והבטחת שימוש רציף במודלים המפותחים
דרישות:
ניסיון- לפחות שלוש שנים
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8370542
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
10/09/2025
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands-on data infrastructure and platform engineer with proven leadership skills to lead and evolve our self-service data platform that powers petabyte-scale batch and streaming, near-real-time analytics, experimentation, and the feature platform. Youll guide an already excellent team of senior engineers, own reliability and cost efficiency, and be the focal point for pivotal, company-wide data initiatives- feature platform, lakehouse, and streaming.
Own the lakehouse backbone: Mature Iceberg at high scalepartitioning, compaction, retention, metadataand extend our IcebergManager in-house product to automate the lakehouse management in a self serve fashion.
Unify online/offline for features: Drive Flink adoption and patterns that keep features consistent and low-latency for experimentation and production.
Make self-serve real: Build golden paths, templates, and guardrails so product/analytics/DS engineers can move fast safely.
Run multi-tenant compute efficiently: EMR on EKS powered by Karpenter on Spot instances; right-size Trino/Spark/Druid for performance and cost.
Cross-cloud interoperability: BigQuery + BigLake/Iceberg interop where it makes sense (analytics, experimentation, partnership).
What you'll be doing:
Leading a senior Data Platform team: setting clear objectives, unblocking execution, and raising the engineering bar.
Owning SLOs, on-call, incident response, and postmortems for core data services.
Designing and operating EMR on EKS capacity profiles, autoscaling policies, and multi-tenant isolation.
Tuning Trino (memory/spill, CBO, catalogs), Spark/Structured Streaming jobs, and Druid ingestion/compaction for sub-second analytics.
Extending Flink patterns for the feature platform (state backends, checkpointing, watermarks, backfills).
Driving FinOps work: CUR-based attribution, S3 Inventory-driven retention/compaction, Reservations/Savings Plans strategy, OpenCost visibility.
Partnering with product engineering, analytics, and data science & ML engineers on roadmap, schema evolution, and data product SLAs.
Leveling up observability (Prometheus/VictoriaMetrics/Grafana), data quality checks, and platform self-service tooling.
Requirements:
2+ years leading engineers (team lead or manager) building/operating large-scale data platforms; 5+ years total in Data Infrastructure/DataOps roles.
Proven ownership of cloud-native data platforms on AWS: S3, EMR (preferably EMR on EKS), IAM, Glue/Data Catalog, Athena.
Production experience with Apache Iceberg (schema evolution, compaction, retention, metadata ops) and columnar formats (Parquet/Avro).
Hands-on depth in at least two of: Trino/Presto, Apache Spark/Structured Streaming, Apache Druid, Apache Flink.
Strong conceptual understanding of Kubernetes (EKS), including autoscaling, isolation, quotas, and observability
Strong SQL skills and extensive experience with performance tuning, with solid proficiency in Python/Java.
Solid understanding of Kafka concepts, hands-on experience is a plus
Experience running on-call for data platforms and driving measurable SLO-based improvements.
You might also have:
Experience building feature platforms (feature definitions, materialization, serving, and online/offline consistency).
Airflow (or similar) at scale; Argo experience is a plus.
Familiarity with BigQuery (and ideally BigLake/Iceberg interop) and operational DBs like Aurora MySQL.
Experience with Clickhouse / Snowflake / Databricks / Starrocks.
FinOps background (cost attribution/showback, Spot strategies).
Data quality, lineage, and cataloging practices in large orgs.
IaC (Terraform/CloudFormation).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8341689
סגור
שירות זה פתוח ללקוחות VIP בלבד