רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

Senior BigData Developer

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
חברות מגייסות
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Ramat Gan
Job Type: Full Time
Were looking for a hands-on Individual Contributor Data Engineer to design, build, and operate large-scale data products. Youll own mission-critical pipelines and services, balancing pre-computation with on-demand execution to deliver complex, business-critical insights with the right cost, latency, and reliability.
RESPONSIBILITIES:
Design and run Spark data pipelines, orchestrated with Airflow, governed with Unity Catalog.
Build scalable batch and on-demand data products, aiming for the sweet spot between pre-compute and on-demand for complex logic - owning SLAs/SLOs, cost, and performance.
Implement robust data quality, lineage, and observability across pipelines.
Contribute to the architecture and scaling of our Export Center for off-platform report generation and delivery.
Partner with Product, Analytics, and Backend to turn requirements into resilient data systems.
Requirements:
BSc degree in Computer Science or an equivalent
5+ years of professional Backend/Data-Engineering experience
2+ years of Data-Engineering experience
Production experience with Apache Spark, Airflow, Databricks, and Unity Catalog.
Strong SQL and one of Python/Scala; solid data modeling and performance tuning chops.
Proven track record building large-scale (multi-team, multi-tenant) data pipelines and services.
Pragmatic approach to cost/latency trade-offs, caching, and storage formats.
Experience shipping reporting/exports pipelines and integrating with downstream delivery channels.
IC mindset: you lead through design, code, and collaboration (no direct reports).
OTHER REQUIREMENTS:
Delta Lake, query optimization, and workload management experience.
Observability stacks (e.g., metrics, logging, data quality frameworks).
GCS or other major cloud provider experience.
Terraform IAC experience.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8490351
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן -1 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >