רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

Senior Oracle / PL/SQL Developer

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
חברה חסויה
סוג משרה: משרה מלאה
לחברה מובילה בתחום הפינטק דרוש/ה מפתח/ת ‎.NET מנוסה לעבודה בצוות backend, בסביבה טכנולוגית מתקדמת ודינמית.

דרישות חובה:

ניסיון של 5+ שנים בפיתוח ב c# / ‎.NET
אוריינטציה חזקה לפיתוח backend
שליטה גבוהה בSQL Server
חשיבה אנליטית, סקרנות מקצועית ויכולת למידה עצמאית
יכולת עבודה בצוות
דרישות:
היכרות מעמיקה עם תחום שוק ההון / פיננסים / מערכות מסחר
הבנה של האקוסיסטם הפיננסי בישראל - גופים, ספקים ושחקנים מרכזיים
ניסיון בעבודה עם פרוטוקולים פיננסיים כגון FIX, CTCI
ניסיון בשימוש בכלי AI (כגון Claude) כחלק מתהליך הפיתוח
ניסיון בעבודה עם תהליכי CI/CD וDevelopment Pipelines המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8645494
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo and Yokne`am
Job Type: Full Time
We are looking for a Senior Data Engineer to join the NSV (Network Solutions Validation) group. NSV builds high-performing software automation for our Data Center environments and helps drive the data growth of the world's biggest companies. In this role, you will design, build, and maintain scalable, high-performance data pipelines that handle massive volumes of data from hardware, communication modules, firmware, and large-scale AI and HPC clusters. You'll also contribute to our growing Agentic AI initiatives, helping develop AI Agents that bring our data capabilities to the next level.
What you'll be doing:
Define and execute the group's data technical roadmap, aligning with Infra, DevOps, and Performance teams
Design and maintain flexible ETL/ELT frameworks for ingesting, transforming, and classifying cluster verification and telemetry data
Build and optimize streaming pipelines using Apache Spark, Kafka, and Databricks, ensuring high throughput, reliability, and adaptability to evolving data schemas
Ensure data quality and pipeline health through observability standards, schema validation, lineage tracking, monitoring, and alerting
Deliver reliable insights for cluster performance analysis, telemetry visibility, and end-to-end test coverage
Support self-service analytics for engineers and researchers via Databricks notebooks, APIs, and datasets
Drive best practices in data modeling, code quality, and operational excellence; collaborate with cross-functional teams to support data-driven decision-making
Contribute to the development of AI Agents that enhance the visibility and accessibility of insights and data for our users.
Requirements:
B.Sc. or M.Sc. in Computer Science, Data Science, or a related field
5+ years of hands-on experience in data engineering
Strong practical experience with Apache Spark( PySpark or Scala) and Databricks
Proficiency in Python and SQL for data transformation, automation, and pipeline logic
Experience with Apache Kafka, including stream ingestion and event processing
Experience with schema evolution, data versioning, and validation frameworks (Delta Lake, Iceberg, or Great Expectations)
Strong problem-solving skills and ability to debug and troubleshoot complex data-related issues
Strong communication skills and ability to work effectively across teams
Ways to stand out from the crowd:
Experience with real-time analytics frameworks (Spark Structured Streaming, Flink, Kafka Streams)
Exposure to hardware, firmware, or embedded telemetry environments
Experience with data cataloging or governance tools (DataHub, Collibra, or Alation)
Hands-on experience building or deploying AI Agents or LLM-based applications.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8644490
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן -2 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >