רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 37 דקות
דרושים באלעד מערכות
מיקום המשרה: חיפה
אלעד מערכות מגייסת  data Engineer לחברה ביטחונית מובילה בצפון לתפקיד החלפה לחל"ד!

 מה בתפקיד?
- פיתוח ותחזוקה של תהליכי ETL
-בניית מודלי נתונים לאנליטיקה ודוחות
-עבודה עם SQL וData Warehousing
-פיתוח פתרונות סקיילביליים בPython וPySpark
-עבודה צמודה עם צוותים חוציארגון ותרגום צרכים עסקיים לפתרונות טכנולוגיים
דרישות:
מה אנחנו מחפשים?
?? תואר רלוונטי (מדעי המחשב / מערכות מידע / הנדסת תוכנה )
?? ניסיון בSQL, data Modeling וETL
?? ניסיון בPython וPySpark
?? היכרות עם data Lake ופלטפורמות דאטה מודרניות (Microsoft Fabric - יתרון)
?? חשיבה אנליטית ויכולת עבודה בסביבה מהירה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8492823
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
לחברת סקיוריטי בעולם הרכב דרוש/ה Senior data Engineer
תיאור המשרה:
תכנון, בנייה ותחזוקה של פייפלייני נתונים סקיילביליים לטעינה ועיבוד של דאטה בBatch בData Lake, כולל תמיכה באנליטיקה ו-ML, תוך שמירה על איכות נתונים, ממשל (governance), תצפיות (observability) וCI/CD.
בנייה והרחבה של תשתית הנתונים הבסיסית data Lake, מנוע אנליטיקה, ומערכי Batch Processing.
יצירת תשתיות חזקות שיאפשרו פייפליינים אוטומטיים לטעינה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלים וטכנולוגיות קוד פתוח, Cloud-agnostic.
פיתוח ותחזוקת ארכיטקטורות ופריסות הData Lake לגישה יעילה לנתונים ולניתוחים מתקדמים.
בניית פלטפורמת הML ואוטומציה של מחזור חיי הML.
הובלת פרויקטי ML חוצי-ארגון מהיבט הנדסי.
פיתוח וניהול כלי אקטרציה, כלים לממשל נתונים, כלים לגילוי נתונים ועוד.
עבודה בשיתוף פעולה עם אדריכלי נתונים, אנליסטים ומדעני נתונים, לצורך בניית פתרונות מבוססי Use Cases המגדירים זרימות נתונים טכניות.
דרישות:
תואר ראשון במדעי המחשב, הנדסה או תחום רלוונטי
לפחות 5 שנות ניסיון בתכנון ובנייה של פייפלייני נתונים, כלים אנליטיים וData Lakes
לפחות 7 שנות ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכו)
ניסיון בטכנולוגיות data Engineering: כלים לETL ואורקסטרציה (כמו Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כמו Spark, Kafka, Presto)
ניסיון בעבודה עם Python חובה
ניסיון בעבודה עם מוצרים מבוססי קוד פתוח יתרון גדול
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כמו Kubernetes) יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439164
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
Location: Tel Aviv-Yafo and Netanya
Job Type: Full Time and Hybrid work
We're hiring a data Engineer
Were looking for a data Engineer with solid experience building and maintaining large-scale data pipelines in the cloud.
Youll be joining a collaborative R D team working on cutting-edge SaaS products, with full ownership over data workflows, architecture and performance.
Requirements:
What were looking for:
2-3 years of experience in data engineering roles
Hands-on experience with Azure cloud services, especially data Factory, data Lake, and Databricks
Solid knowledge of Databricks, including Spark-based processing, notebook orchestration, and ML pipeline integration
Proficient in Python and SQL for data manipulation and automation
Experience with orchestration tools like Airflow
Familiarity with Docker, CI/CD, and working in cross-functional development teams
Youll work closely with data scientists, engineers and product teams to build data -driven features
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8302213
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים בG-NESS
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
אנחנו, חברה פיננסית מובילה, מחפשים data Engineer סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעולם העסקי, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
תחומי אחריות-
פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
הכרות עם DBT ותהליכי פיתוח מודרניים (CICD וכו)
דרישות:
5 שנות ניסיון שנים בפיתוח פתרונות דאטה - חובה.
שליטה ב- Python - חובה.
ניסיון בעבודה עם בסיסי נתונים (SQL)- חובה.
הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים
אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית
יצירתיות וגמישות מחשבתית, ראש גדול ויכולת פתרון בעיות מורכבות
ניסיון מחברת ביטוח או פיננסים- יתרון
שליטה ב Informatica- יתרון.
ניסיון עם ענן AWS / MICROSOFT- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519056
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים בTop-IT Solutions Ltd
מיקום המשרה: פתח תקווה
לארגון אנטרפרייז מוביל במרכז דרוש/ה data ENGINEER
התפקיד כולל ניהול תהליכי הסבת נתונים ממערכות המקור לבסיסי נתונים ו/או מאגרי אחסון בסביבת הענן.
הובלת תהליכי פיתוח, ניטור ובקרה על תהליכי עיבוד נתונים וניהול ממשקי עבודה מול הגורם העסקי
דרישות:
תואר ראשון במדעי המחשב / הנדסת תוכנה / תחום רלוונטי
מינימום 3 שנות ניסיון מוכח כ- data Engineer
היכרות עם כלי AWS: Glue, Lambda, EMR/Spark
היכרות עם כלי CI/CD: Jenkins / GitLab CI / GitHub Actions, Harness
אורקסטרציה: Apache Airflow (DAG design, XCom, pools)
שפות תכנות: JAVA / Python
יתרונות:
היכרות עם DB מבוססי ענן (PostgreSQL, DocumentDB, OpenSearch)
היכרות עם Apache Kafka
ניסיון בKubernetes / EKS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8355779
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 10 שעות
דרושים בריקרוטיקס בע"מ
Location: More than one
Job Type: Full Time and Hybrid work
We are a pioneer company that integrates statistics modules and algorithms with a passion to sports, mainly soccer.
We are looking for a data analyst to join our research department. The data analyst function will support several stakeholders in our company.
As a part of your job you'll be:
Working with the research team and be the one to look and understand the bigger picture.
Learning the data gathering mechanism.
Face and solve business problems by analyzing data and provide insights to the business.
Develop complex logic flows to identify predefined events and generate desired insights.
Support the researchers on their projects.
Responsible for conducting both recurring and ad hoc analysis for business stake holders.
Research and integrate new tools and methods to enrich datasets.
Requirements:
A least 2 years of experience as a data Analyst - a must
High hands-on SQL skills ( SQL server ) - a must
R or Python programming skills- a must
Knowledge in statistics - a must
Interest in FinTech, Algo Trading - an advantage
Interest in sports (soccer in particular) - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8480663
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
חברה חסויה
Location: Tel Aviv-Yafo
e are looking for a data Engineer expert with innovative thinking, initiative, and strong technological drive - someone who can take a business need and turn it into a smart and precise technological solution, from ideation to implementation.

This is an independent, end-to-end role that includes responsibility for designing, planning, and implementing data solutions in a cloud environment (primarily AWS), building data infrastructure and pipelines, and providing Technical Support to clients.
Requirements:
3-5 years of experience in designing, architecting, developing, and implementing end-to-end data solutions.
Experience in building a data Warehouse ( DWH ) from scratch - including data modeling, loading processes, and architecture.
At least 2 years of hands-on experience with AWS/AZURE based data technologies.
Experience in building and maintaining advanced data pipelines from various data sources.
Significant experience in designing, developing, and maintaining ETL processes.
Deep understanding of infrastructure, information security, and cloud architectures.
Experience working with clients/business teams - including gathering requirements and leading the technological solution.
Familiarity with common BI tools such as Power BI,
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8526604
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 18 שעות
דרושים בOne DatAI
מיקום המשרה: פתח תקווה
לבניית פתרונות דאטה מתקדמים מקצה לקצה
אנחנו מחפשים data Engineer עם תשוקה לבניית מערכות נתונים חכמות, סקיילביליות ומבוססות ענן, להצטרפות לצוות דאטה שעובד עם טכנולוגיות מתקדמות ופרויקטים משמעותיים בארגון.
התפקיד מתאים למועמדים עם רקע בData Engineering מודרני, Lakehouse, BI מתקדם או Microsoft Fabric - עם אפשרות להתמחות והעמקה בהתאם לניסיון.
מה תעשו בתפקיד:
תכנון, הקמה ותחזוקה של data Pipelines מקצה לקצה
שינוע נתונים ממקורות מגוונים (APIs, קבצים, DBs, Streaming)
פיתוח וטיוב תהליכי ETL / ELT
עבודה עם SQL וPython לפיתוח תהליכים וניתוח נתונים
בניית פתרונות דאטה בסביבות Lakehouse / data Platform
עבודה צמודה עם גורמים עסקיים, BI וAnalytics
השתלבות בפרויקטים חדשים (Greenfield) לצד תחזוקת מערכות קיימות
דרישות:
דרישות חובה:
לפחות 3 שנות ניסיון כData Engineer / BI Developer
שליטה גבוהה בSQL
ניסיון מעשי בPython (כולל עבודה עם Pandas / Notebooks)
ניסיון בפיתוח תהליכי ETL / ELT
היכרות עם עבודה בסביבת ענן
עבודה עם Source Control (Git / Azure DevOps )
חשיבה מערכתית, יכולת עבודה עצמאית ובצוות

תחומי התמחות - יתרון משמעותי (אחד או יותר):
המשרה פתוחה למועמדים עם ניסיון באחד או יותר מהאזורים הבאים:
data Engineering & Lakehouse
Apache Spark / PySpark
Databricks
ארכיטקטורות Lakehouse
Pipelines Incremental / Streaming
Microsoft data Stack
Microsoft Fabric
Power BI (DAX, Power Query, Semantic Models)
Power Automate
Azure Synapse / EventHub
Cloud & Modern data
AWS / GCP
Snowflake
dbt
פרויקטי Greenfield
AI / Copilot / data Prep

למה להצטרף?
עבודה עם טכנולוגיות מתקדמות וModern data Stack
גמישות והתאמה לתחום החוזקה שלך
פרויקטים משמעותיים עם השפעה אמיתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8511403
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 18 שעות
דרושים ביערה פיינר-אבחון והשמה
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה יזמית יזמית ציבורית גלובלית דרוש/ה
אנליסט/ית דאטה לצוות האנליטיקה ומערכת ניהול האנרגיה (EMS).

מיקום: מרכז הארץ

ה-EMS מהווה את המוח התפעולי של אתרי החברה אחראי על אופן ייצור האנרגיה, אגירתה, מסחר והזרמה לרשת. התפקיד כולל עבודה אנליטית שמשפיעה באופן ישיר על ביצועים, יציבות והכנסות הפרויקטים.

תחומי אחריות:
ניתוח נתונים תפעוליים ונתוני שוק לזיהוי פערי ביצועים, חוסר יעילות והזדמנויות לאופטימיזציה.
חקירת שורש חריגות בייצור, זמינות והכנסות, והפקת תובנות והמלצות אופרטיביות.
אחריות מקצה לקצה על דוחות, דשבורדים ותהליכי אוטומציה של נתונים ממערכות EMS, SCADA ומקורות חיצוניים.
תמיכה ושיפור תהליכי קבלת החלטות במערכת EMS להגדלת יעילות, יציבות ותפוקת אנרגיה.
יישום, מעקב וניטור אופטימיזציה תוךיומית (Intraday) לצורך מקסום הכנסות.
עבודה שוטפת מול צוותי הנדסה, תפעול ומסחר להטמעת תובנות אנלטיות בשטח
דרישות:
תואר ראשון בהנדסה / מדעי הנתונים / תחום כמותי רלוונטי בוגרי טכניון/ת"א עם התמחות במערכות מידע
ניסיון של 2-3 שנים כ- data Analyst / BI Analyst.
שליטה גבוהה בפיתוח- Python ו-SQL (יתרון ל- SQL server ).
ניסיון בעבודה עם כלי BI כגון Power BI או Tableau.
היכרות עם APIs, אוטומציות וData Pipelines.
חשיבה אנליטית חזקה, ירידה לפרטים ותחושת בעלות.
יכולת עבודה עצמאית ובממשקים מרובים, כישורי תקשורת מצוינים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8459515
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 19 שעות
דרושים במלם תים
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM.
דרישות:
אנחנו מחפשים data Engineer להשתלבות אצל לקוח גדול בלוד.
השתלבות בעבודת הצוות ופרויקטים בתחום הAI, אחראיות לקליטה של כמויות גדולות של נתונים חדשים ולאחר מכן להבנה מעמיקה ובחינה של נתונים בשיתוף פעולה עם data Scientist.
עיצוב ופיתוח של תהליכי data גם בסביבות ענן וגם ON PREM. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8261624
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 19 שעות
דרושים בNishapro
Location: More than one
Job Type: Full Time and Hybrid work
For a fast-growing company in the renewable energy sector, a data Architect is required to lead the organization's data infrastructure.
What youll do:

Design and own a modern cloud-based data platform (Azure or equivalent).
Connect everything from SCADA/EMS/BMS to market APIs, ERP (Priority), and finance systems.
Define scalable models, ensure data quality security, and deliver trusted datasets.
Empower teams with analytics and Power BI dashboards.
Lay the groundwork for AI/ML: predictive maintenance, Storage optimization, forecasting.
Shape the long-term data strategy and grow the team.
Requirements:
What were looking for:

5+ years in data architecture/engineering.
Hands-on with cloud platforms, SQL Python.
Strong ETL /ELT large-scale dataset experience (time-series/IoT a plus).
Bonus: energy/industrial data, Priority ERP, energy trading.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8413026
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 19 שעות
דרושים בדטה קיוב בע''מ
מיקום המשרה: יקום
במסגרת התפקיד אחריות על פיתוח תהליכי data Pipeline מקצה לקצה: החל מקליטת נתונים דרך עיבוד והעשרה, ועד אחסון וחשיפה שלהם במערכות שונות.
עבודה בסביבה טכנולוגית מתקדמת בשיתוף פעולה צמוד עם צוותי פיתוח וארכיטקטורה, תמיכה בפרויקטי data קיימים והובלת משימות חדשות בעולם הLakehouse.
דרישות:
שנה עד 3 שנות ניסיון בתחום הData Engineer
שליטה טובה בSQL
ניסיון מעשי בעבודה עם Databricks (יתרון לPython) - חובה
ניסיון של לפחות שנה בעבודה עם Azure data Factory מול בסיסי נתונים וקבצים - חובה
היכרות עם Azure data Explorer (ADX) - יתרון
יכולת למידה עצמאית ולקיחת אחריות על משימות מקצה לקצה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8522579
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 20 שעות
דרושים במונסייט
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
לחברת ביטוח מובילה במרכז דרוש/ה מפתח/ת אינפורמטיקה

פיתוח ותחזוקת תהליכי ETL
תכנון, פיתוח ותחזוקה של תהליכי גזירת נתונים, טרנספורמציות וטעינה ( ETL ) בסביבת Informatica PowerCenter.
פיתוח תהליכי אינטגרציה מתקדמים ב Informatica IICS, כולל חיבוריות למערכות On Prem ולענן.
תכנון data Pipelines מורכבים ל DWH ול data Lakes תוך הקפדה על ביצועים, יציבות ועמידות.
עבודה מול מערכות וממשקים מגוונים
חיבור למגוון רחב של מקורות מידע ארגוניים - מערכות תפעוליות, אפליקטיביות, לוגים, APIs ועוד.
שיתוף פעולה עם צוותי תשתיות, סיסטם, אבטחת מידע ופיתוח ליצירת פתרונות של end to end.
אחריות מקצועית בתהליכי BI ו data
הבנה מעמיקה של מודלים נתוניים, טבלאות, מידול לוגי ופיזי.
תמיכה בתחקור נתונים, איתור תקלות ופעילות כחלק ממעגל האיכות של תחום הנתונים.
שדרוג ושיפור מתמיד של תהליכים קיימים - אופטימיזציות, refactoring והטמעת Best Practices.
דרישות:
לפחות 4 שנים ניסיון מעשי בפיתוח ETL באמצעות Informatica PowerCenter בסביבת DWH ארגוני
ניסיון בעבודה עם מבני נתונים מורכבים, שאילתות SQL ברמה גבוהה, אופטימיזציה ו Performance Tuning.
ניסיון בעבודה עם בסיסי נתונים רלציונייםOracle, SQL server, Teradata
דרישות שהמהוות יתרון משמעותי
ניסיון בעבודה עם Informatica IICS
היכרות עם סביבות ענן (AWS / Azure / GCP) ו data Lakes המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8522982
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 20 שעות
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון טכנולוגי באזור המרכז מגייס data Engineer
התפקיד כולל: פיתוח, הקמה ותחזוקה של תשתיות דאטה מתקדמות בסביבת ענן, בדגש על עבודה עם Databricks, אחריות על בניית תהליכי data Pipelines מקצה לקצה, עיבוד כמויות דאטה גדולות (Batch ו-Streaming), שיפור ביצועים ואיכות נתונים ושיתוף פעולה צמוד עם צוותי BI, אנליסטים ו- data Scientists ועוד.
דרישות:
- שלוש שנות ניסיון data Engineering
- ניסיון מעשי בעבודה עם Databricks
- שליטה ב-SQL ברמה גבוהה
- ניסיון בפיתוח תהליכי ETL / ELT
- עבודה בסביבת ענן AWS / Azure / GCP המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8516275
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 21 שעות
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת פלטפורמה מבוססת AI, NLP שסורקת מקורות מידע ברשת במטרה לאתר עבירות והפרות חוק שחברות גדולות ותאגידים עושים כלפי אזרחים.

החברה ממוקמת בתל אביב- קו רכבת, משלבת מודל עבודה היברידי ומונה מאות עובדים גלובלית.

מהות התפקיד: חלק מצוות של 4 עובדים, דיווח לראש צוות, צוות שאחראי על בניית הפלטפורמה מאפס. העבודה כוללת אחריות מלאה על Design, Build ו-Scale של data Platform Cloud Native לפתרונות AI ו-LLM של החברה. הקמה ותחזוקה של data Lakes ו- data Warehouses, פיתוח data Pipelines מורכבים ל-Batch ו-Streaming, חיבור AI/LLM Workloads ל-Production. ניהול ואופטמיזציה של data Bases- Postgres, Elasticsearch, Vector DBs, Graph DBs.
דרישות:
- 7 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח עם AWS
- ניסיון בפיתוח עם data lake- Databricks, Snowflake המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8525804
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
Location: Ra'anana
Job Type: Full Time
The ideal candidate is not afraid of data in any form or scale, and is experienced with cloud services to ingest, stream, store, and manipulate data. The Data Engineer will support new system designs and migrate existing ones, working closely with solutions architects, project managers, and data scientists. The candidate must be self-directed, a fast learner, and comfortable supporting the data needs of multiple teams, systems, and products. The right candidate will be excited by the prospect of optimizing or re-designing our customers data architecture to support their next generation of products, data initiatives, and machine learning systems.

Summary of Key Responsibilities:
To meet compliance and regulatory requirements, keep our customers data separated and secure.
Design, Build, and operate the infrastructure required for optimal data extraction, transformation, and loading from a wide variety of data sources using SQL, cloud migration tools, and big data technologies.
Optimize various RDBMS engines in the cloud and solve customers' security, performance, and operational problems.
Design, build, and operate large, complex data lakes that meet functional / non-functional business requirements.
Optimize various data types' ingestion, storage, processing, and retrieval, from near real-time events and IoT to unstructured data such as images, audio, video, documents, and in between.
Work with customers' and internal stakeholders including the Executive, Product, Data, Software Development and Design teams to assist with data-related technical issues and support their data infrastructure and business needs.
Requirements:
5+ years of experience in a Data Engineer role in a cloud native ecosystem.
3+ years of experience in AWS Data Services (mandatory).
Bachelor's (Graduate preferred) degree in Computer Science, Mathematics, Informatics, Information Systems or another quantitative field.
Working experience with the following technologies/tools:
big data tools: Spark, ElasticSearch, Kafka, Kinesis etc.
Relational SQL and NoSQL databases, such as MySQL or Postgres and DynamoDB or Cassandra.
Functional and scripting languages: Python, Java, Scala, etc.
Advanced SQL.
Experience building and optimizing big data pipelines, architectures and data sets.
Working knowledge of message queuing, stream processing, and highly scalable big data stores.
Experience supporting and working with external customers in a dynamic environment.
Articulate with great communication and presentation skills
Team player who can train as well as learn from others.
Fluency in Hebrew and English is essential.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8526608
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 19 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Senior Data Engineer
What youll do:
Lead the design and development of scalable and efficient data lake solutions that account for high-volume data coming from a large number of sources both pre-determined and custom.
Utilize advanced data modeling techniques to create robust data structures supporting reporting and analytics needs.
Implement ETL/ELT processes to assist in the extraction, transformation, and loading of data from various sources into a data lake that will serve our users.
Identify and address performance bottlenecks within our data warehouse, optimize queries and processes, and enhance data retrieval efficiency.
Collaborate with cross-functional teams (product, analytics, and R&D) to enhance our data solutions.
Who youll work with:
Youll be joining a collaborative and dynamic team of talented and experienced developers where creativity and innovation thrive.
You'll closely collaborate with our dedicated Product Managers and Designers, working hand in hand to bring our developer portal product to life.
Additionally, you will have the opportunity to work closely with our customers and engage with our product community. Your insights and interactions with them will play an important role to ensure we deliver the best product possible.
Together, we'll continue to empower platform engineers and developers worldwide, providing them with the tools they need to create seamless and robust developer portals. Join us in our mission to revolutionize the developer experience!
Requirements:
5+ years of experience in a Data Engineering role
Expertise in building scalable pipelines and ETL/ELT processes, with proven experience with data modeling
Expert-level proficiency in SQL and experience with large-scale datasets
Strong experience with Snowflake
Strong experience with cloud data platforms and storage solutions such as AWS S3, or Redshift
Hands-on experience with ETL/ELT tools and orchestration frameworks such as Apache Airflow and dbt
Experience with Python and software development
Strong analytical and storytelling capabilities, with a proven ability to translate data into actionable insights for business users
Collaborative mindset with experience working cross-functionally with data engineers and product managers
Excellent communication and documentation skills, including the ability to write clear data definitions, dashboard guides, and metric logic
Advantages:
Experience in NodeJs + Typescript
Experience with streaming data technologies such as Kafka or Kinesis
Familiarity with containerization tools such as Docker and Kubernetes
Knowledge of data governance and data security practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8526151
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
In this role, you will shape our data infrastructure and tackle complex data challenges at a huge scale, by building a robust and efficient data platform.

What You'll Do:

Lead the Design and Development of Scalable Data Pipelines: You'll be instrumental in architecting, building, and optimizing data ingestion and processing pipelines from the ground up. This includes designing robust ETL/ELT processes to handle massive datasets, potentially reaching dozens of terabytes daily.

Collaborate Closely with Data Consumers: You'll partner with data analysts, data scientists, and engineering teams to understand their data requirements, translate them into technical solutions, and optimize data delivery for their specific use cases.

Champion Data Modeling and Data Quality: You'll apply your deep understanding of data modeling principles to design efficient and well-structured data schemas that facilitate insightful analysis and reporting. You'll also be a strong advocate for data quality and implement processes to ensure data accuracy and integrity.

Build and Maintain a Modern Data Platform: You'll contribute to the development and evolution of our cloud-based data platform, ensuring its reliability, performance, and scalability to meet the growing needs of our data consumers.

Drive Innovation in Data Processing: You'll continuously explore and implement new technologies and methodologies to enhance our data platform's capabilities and efficiency.
Requirements:
5+ Years of Data Engineering: building and maintaining high-scale data pipelines in a cloud environment.

SQL Expert: You go beyond writing queries. You understand database internals, cost-based optimizations, and how to debug bottlenecks in distributed SQL engines.

Coding: You write clean, modular, and maintainable Python code that goes beyond ad-hoc scripting. You are comfortable using version control (Git) for collaboration, participating in code reviews, and have a working understanding of containerization (e.g., Docker) and CI/CD basics.

Modern Data Stack: Deep experience with modern transformation and orchestration tools (dbt, Airflow) and an understanding of the "why" behind their architecture.

Business-Aligned Mindset: You treat data as a product. You have a strong interest in understanding the business domain and actively partner with stakeholders to ensure your technical designs drive meaningful impact for the product and the company.

Clear Communicator: You can articulate technical challenges and architectural decisions clearly, ensuring that both technical peers and non-technical partners understand the rationale behind your technical choices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8524830
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a talented Data Engineer to join our BI & Data team in Tel Aviv. You will play a pivotal role in building and optimizing the data infrastructure that powers our business. In this mid-level position, your primary focus will be on developing a robust single source of truth (SSOT) for revenue data, along with scalable data pipelines and reliable orchestration processes. If you are passionate about crafting efficient data solutions and ensuring data accuracy for decision-making, this role is for you.



Responsibilities:

Pipeline Development & Integration

- Design, build, and maintain robust data pipelines that aggregate data from various core systems into our data warehouse (BigQuery/Athena), with a special focus on our revenue Single Source of Truth (SSOT).

- Integrate new data sources (e.g. advertising platforms, content syndication feeds, financial systems) into the ETL/ELT workflow, ensuring seamless data flow and consolidation.

- Implement automated solutions for ingesting third-party data (leveraging tools like Rivery and scripts) to streamline data onboarding and reduce manual effort.

- Leverage AI-assisted development tools (e.g., Cursor, GitHub Copilot) to accelerate pipeline development

Optimization & Reliability

- Optimize ETL processes and SQL queries for performance and cost-efficiency - for example, refactoring and cleaning pipeline code to reduce runtime and cloud processing costs.

- Develop modular, reusable code frameworks and templates for common data tasks (e.g., ingestion patterns, error handling) to accelerate future development and minimize technical debt.

- Orchestrate and schedule data workflows to run reliably (e.g. consolidating daily jobs, setting up dependent task flows) so that critical datasets are refreshed on time.

- Monitor pipeline execution and data quality on a daily basis, quickly troubleshooting issues or data discrepancies to maintain high uptime and trust in the data.

Collaboration & Documentation

- Work closely with analysts and business stakeholders to understand data requirements and ensure the infrastructure meets evolving analytics needs (such as incorporating new revenue streams or content cost metrics into the SSOT).

- Document the data architecture, pipeline processes, and data schemas in a clear way so that the data ecosystem is well-understood across the team.

- Continuously research and recommend improvements or new technologies (e.g. leveraging AI tools for data mapping or anomaly detection) to enhance our data platforms capabilities and reliability and ensure our data ecosystem remains a competitive advantage.
Requirements:
4+ years of experience as a Data Engineer (or in a similar data infrastructure role), building and managing data pipelines at scale, with hands-on experience with workflow orchestration and scheduling (Cron, Airflow, or built-in scheduler tools)
Strong SQL skills and experience working with large-scale databases or data warehouses (ideally Google BigQuery or AWS Athena).
Solid understanding of data warehousing concepts, data modeling, and maintaining a single source of truth for enterprise data.
Demonstrated experience in data auditing and integrity testing, with ability to build 'trust-dashboards' or alerts that prove data reliability to executive stakeholders
Proficiency in a programming/scripting language (e.g. Python) for automating data tasks and building custom integrations.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8524462
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Data Engineer to join our dynamic data team. In this role, you will design, build, and maintain robust data systems and infrastructure that support data collection, processing, and analysis. Your expertise will be crucial in developing scalable data pipelines, ensuring data quality, and collaborating with cross-functional teams to deliver actionable insights.

Key Responsibilities:

Design, develop, and maintain scalable ETL processes for data transformation and integration.
Build and manage data pipelines to support analytics and operational needs.
Ensure data accuracy, integrity, and consistency across various sources and systems.
Collaborate with data scientists and analysts to support AI model deployment and data-driven decision-making.
Optimize data storage solutions, including data lakehouses and databases, to enhance performance and scalability..
Monitor and troubleshoot data workflows to maintain system reliability.
Stay updated with emerging technologies and best practices in data engineering.
Requirements:
3+ years of experience in data engineering or a related role within a production environment.
Proficiency in Python and SQL
Experience with both relational (e.g., PostgreSQL) and NoSQL databases (e.g., MongoDB, Elasticsearch).
Familiarity with big data AWS tools and frameworks such as Glue, EMR, Kinesis etc.
Experience with containerization tools like Docker and Kubernetes.
Strong understanding of data warehousing concepts and data modeling.
Excellent problem-solving skills and attention to detail.
Strong communication skills, with the ability to work collaboratively in a team environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8524239
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Our data engineering team is looking for an experienced professional with expertise in SQL, Python, and strong data modeling skills. In this role, you will be at the heart of our data ecosystem, designing and maintaining cross-engineering initiatives and projects, as well as developing high-quality data pipelines and models that drive decision-making across the organization.

You will play a key role in ensuring data quality, building scalable systems, and supporting cross-functional teams with clean, accurate, and actionable data.



What you will do:

Design, develop, and optimize data services and solutions required to support various company products (like FeatureStore or synthetic data management); Work closely with data analysts, data scientists, engineers, and cross-functional teams to understand data requirements and deliver high-quality solutions.
Design and integrate LLM- and agent-based capabilities into data platforms and services, enabling smarter data operations and AI-driven data products.
Design, develop, and optimize scalable data pipelines to ensure data is clean, accurate, and ready for analysis.
Build and maintain robust data models that support clinical, business intelligence, and operational needs.
Implement and enforce data quality standards, monitoring, and best practices across systems and pipelines.
Manage and optimize large-scale data storage and processing systems to ensure reliability and performance.
Requirements:
5+ years of experience as a Data Engineer / Backend Engineer (with strong emphasis on data processing)
Python Proficiency: Proven ability to build services, solutions, data pipelines, automations, and integration tools using Python.
SQL Expertise: Deep experience in crafting complex queries, optimizing performance, and working with large datasets.
Strong knowledge of data modeling principles and best practices for relational and dimensional data structures.
A passion for maintaining data quality and ensuring trust in business-critical data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8523783
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
About us:
We are international Multi-Cloud experts, utilizing the power of the cloud for smart digital transformation. With 5 sites over 4 continents around the globe, +450 experts, +1000 customers, and +30 years of proven experience, our mission is to deliver the best Multi-Cloud service to our customers, accelerate their business and help them grow. As tech-savvies, To help our customers stay on top of their game, our teams are constantly developing new strategies and tools that will help them improve cloud performance, spending, visibility, control, and automation. Our cloud experts will make any digital transformation a quick, smart, and easy process
What You'll Do:
Design, build, and maintain data pipelines and infrastructure
Develop and implement data quality checks and monitoring processes
Work with engineers to integrate data into our systems and applications
Collaborate with scientists and analysts to understand their data needs.
Requirements:
3 years of experience as a Data Engineer or a related role
Experience with big data technologies such as Hadoop, Spark, or Elastic Search.
Proven experience in designing, building, and maintaining data pipelines and infrastructure
Service in Unit 8200 or another technology unit- An Advance.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8523478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Data/Backend Engineer with strong hands-on experience in Python-based ETL pipelines and cloud-native development on AWS.
You will work directly with the customers technical leadership, participating in architecture discussions, solution design, and ongoing implementation for a long-term project.
Core Responsibilities:
Develop and maintain Python ETL pipelines, data ingestion flows, and processing jobs.
Build backend components and microservices deployed on AWS Kubernetes (EKS).
Integrate and optimize data models, APIs, and batch/real-time processes.
Collaborate with technical stakeholders to understand requirements and translate them into scalable solutions.
Ensure reliability, observability, and performance of pipelines and services.
Work in a hybrid environment, coordinating closely with onsite teams and customer technical representatives.
Requirements:
Required Skills & Experience:
3-5+ years of hands-on backend or data engineering experience.
Strong proficiency in Python, specifically for ETL/data pipelines.
Experience with AWS services (Lambda, S3, EC2, IAM, VPC, etc.).
Hands-on work with Kubernetes (preferably AWS EKS).
Understanding of CI/CD processes and Git-based workflows.
Ability to work independently with customer teams and present technical solutions clearly.
Nice to Have:
Experience with Neo4j or other graph databases.
Experience with Frontend (React) development.
Knowledge of streaming platforms, data modeling, or distributed systems.
Experience working in consulting, retainer, or hourly engagement models.
Personal Qualities:
Strong communication skills, especially in customer-facing environments.
Self-driven, responsible, and comfortable handling end-to-end technical tasks.
Team player with the ability to work onsite when needed.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8521670
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking a Mid to Senior Data Engineering Manager to join our Cloud Identity & Perimeter, a critical component of CrowdStrike's security infrastructure. Our team develops and maintains complex data pipelines that process billions of records daily, analyzing identity-related security patterns, effective permissions, internet exposure, and attack paths. We're at the forefront of securing enterprise identities and delivering actionable security insights at scale.

What You'll Do:

Lead and mentor a team of data engineers building high-performance data processing pipelines.

Define technical strategy and architecture for complex data transformations using Apache Spark.

Oversee development of real-time data streaming solutions using Kafka and scalable ETL processes.

Drive cross-functional collaboration with product, security research, and engineering teams to deliver high-impact security features.

Establish best practices for data modeling, query optimization, and storage patterns for large-scale distributed systems.

Manage team performance, including hiring, career development, and performance reviews.

Balance technical execution with strategic planning and resource allocation.

Champion operational excellence through code reviews, system monitoring, and continuous improvement initiatives.
Requirements:
What You'll Need:

5+ years of experience in data engineering with 2+ years in a technical leadership or management role.

Strong technical background in Go and/or Java with hands-on experience in big data technologies.

Proven experience managing and scaling engineering teams.

Deep expertise with distributed databases (Cassandra, Elasticsearch) and production-grade data pipeline architecture.

Track record of delivering complex data infrastructure projects on time.

Excellent communication skills - ability to translate technical concepts to non-technical stakeholders.

Strong leadership abilities including mentoring, conflict resolution, and team building.

BS/MS in Computer Science or related field, or equivalent experience.

Experience with cloud platforms (AWS, GCP, Azure).


Bonus Points:

Experience with identity and access management concepts or security analytics platforms.

Knowledge of security analytics and threat detection.

Contributions to open-source projects or technical community leadership.

Background in cybersecurity or security analytics.

Experience managing distributed or remote teams.

Prior experience at a high-growth technology company.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8520053
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Petah Tikva
Job Type: Full Time
We are seeking a Data Architect to lead the design of end-to-end, enterprise data architectures that enable analytics, AI, and data-driven transformation across customer environments.
In this role, you will act as a trusted advisor, defining the architectural vision, target-state designs, and roadmaps for IBM data solutions. You will work closely with customers, sales manager, and presale engineers to translate business needs into scalable, secure, and future-ready data platforms across hybrid and multi-cloud environments.
Responsibilities:
Define data architecture vision, target-state, and roadmaps for customer environments
Design enterprise-scale architectures for data warehouses, data lakes, lakehouse, and streaming platforms
Architect data platforms to support analytics, AI, and generative AI use cases
Act as a trusted advisor to customers on data modernization, governance, and AI readiness
Ensure architectures align with security, governance, and regulatory requirements
Guide implementation teams to ensure adherence to architectural standards
Collaborate with Consulting, Sales, and Delivery teams on solution design and proposals
Contribute to IBM reference architectures, standards, and reusable patterns
Requirements:
Bachelor's Degree
Preferred education
Master's Degree
Required technical and professional expertise
Proven experience as a Data Architect in enterprise environments
Strong knowledge of modern data architecture patterns and data modeling
Experience with hybrid and multi-cloud architectures (OCP, GCP, AWS, Azure)
Understanding of data governance, security, and compliance
Ability to design data platforms supporting AI and analytics workloads
Strong communication and stakeholder management skills
Preferred technical and professional experience
Experience with any of CassandraDB, Watsonx.data, Watsonx.data Integration, Watsonx.data Intelligence
Familiarity with OpenShift-based data platforms
Knowledge of data mesh, data fabric, and generative AI architectures
Experience in large-scale data modernization or transformation programs
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519806
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
אנחנו מחפשים טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -
בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
מה יומכם יכלול-
פיתוח פתרונות טכנולוגיים מבוססי דאטה בהתאם לצרכים עסקיים.
עבודה עם כלי ETL, תשתיות דאטה, תהליכי אינטגרציה וניקוי נתונים.
שיתוף פעולה עם אנליסטים, אנשי מוצר וגורמים עסקיים.
חקירה והטמעה של טכנולוגיות חדשות לשיפור תהליכים קיימים.
ניתוח דרישות עסקיות והפיכתן למודלים טכנולוגיים.
הכרות עם DBT ותהליכי פיתוח מודרניים (CICD וכו). המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519330
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Merkaz
Job Type: Full Time
our company's data & AI division is expanding, and were looking for a skilled and motivated BI / data Engineer to join our growing team. This role offers the opportunity to work on innovative data projects, collaborate with cross-functional teams, and help shape data -driven strategies across industries. Responsibilities:
* Develop and maintain ETL processes in Azure with diverse data sources
* Design, manage, and optimize cloud-based data environments
* Build and optimize scalable data Warehouses
* Write complex SQL queries and perform performance tuning
* Work with data Lakes, parallel job execution, and cloud Big Data architectures
* Develop cloud-based AI solutions, including Generative AI models
* Perform data modeling and analytics using Power BI
Requirements:
* 3+ years of experience in BI / data Engineering, with strong database orientation
* Advanced SQL skills (MERGE, dynamic SQL, loops, performance optimization)
* Experience working with JSON and non-tabular data sources
* Experience with cloud platforms (Azure or AWS)
* Ability to work independently with strong self-learning skills
* Experience with azure databricks - significant advantage
* Experience with Python - significant advantage
* Experience with Generative AI models - significant advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519090
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Merkaz
Job Type: Full Time
our company Professional Services is seeking for an experienced and strategic Head of data / data Manager to lead and build the companys end-to-end organizational data domain. This role includes establishing and developing a new AI-enabled data platform, full responsibility for advanced data & BI architecture, leading strategic projects, and working closely with senior management. This is a senior leadership position reporting directly to the VP of Technology. Key Responsibilities
* Lead the design, setup, and development of an enterprise data Warehouse and organizational data platform
* Own the full architecture, methodology, and implementation of Snowflake and Tableau environments
* Manage and professionally lead the data team, including mentoring and employee development
* Define and implement data methodologies, standards, and best practices
* Lead cross-organizational strategic data projects in collaboration with senior executives, IT, and business units
* Manage external vendors and consulting companies
* Lead the AI domain within data, including implementation of advanced AI-enabled data infrastructures
* Act as a strategic partner to senior management, providing data -driven insights and leadership
Requirements:
MUST HAVE Requirements
* Proven experience working with Snowflake and Tableau, including architecture-level knowledge and BI implementation
* Proven experience in building or upgrading data Warehouses and enterprise data platforms
* Managerial experience leading teams and providing professional mentorship
* Strong background in data Engineering, BI, and Analytics
* Experience or significant knowledge in AI infrastructures in data environments - strong advantage
* Experience working with senior management and executive-level stakeholders
* Strong leadership, influence, and cross-functional collaboration skills
* Strategic mindset combined with hands-on technical capabilities
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519046
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Merkaz
Job Type: Full Time
our company's data & AI division is expanding, and were looking for a skilled and motivated BI / data Engineer to join our growing team. This role offers the opportunity to work on innovative data projects, collaborate with cross-functional teams, and help shape data -driven strategies across industries. Responsibilities:
* Develop and maintain ETL processes in Azure with diverse data sources
* Design, manage, and optimize cloud-based data environments
* Build and optimize scalable data Warehouses
* Write complex SQL queries and perform performance tuning
* Work with data Lakes, parallel job execution, and cloud Big Data architectures
* Develop cloud-based AI solutions, including Generative AI models
* Perform data modeling and analytics using Power BI
Requirements:
* 3+ years of experience in BI / data Engineering, with strong database orientation
* Advanced SQL skills (MERGE, dynamic SQL, loops, performance optimization)
* Experience working with JSON and non-tabular data sources
* Experience with cloud platforms (Azure or AWS)
* Ability to work independently with strong self-learning skills
* Experience with Microsoft Fabric - significant advantage
* Experience with Python - significant advantage
* Experience with Generative AI models - significant advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8519038
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Merkaz
Job Type: Full Time
abra professional services is seeking for an senior data engineer. We are seeking a Senior Data Engineer to lead the technical development of our Data Fabric within a military program. This role involves technical leadership in building contextual data pipelines, working with big data lakehouse architectures, and driving data pipeline automation.
Requirements:
MUST HAVE Requirements: 5+ years of hands-on experience as a Big Data Engineer
* Proven ability to design and deploy Big Data & AI solutions using frameworks and tools such as:
* Apache NiFi
* Kafka
* Spark
* Graph DB
* NoSQL databases Strong coding proficiency in Python and Bash
* Experience building large-scale data pipelines for data processing, transformation, and analytics
* Ability to define and manage metadata schemas
* Experience developing data workflows (e.g., metadata generation, auto-extraction, validation, format conversion)
* Experience developing tools for data observability and compliance analytics
* Ability to analyze and report on complex datasets and results
* Experience working with big data lakehouse architectures
* Ability to explore, enhance, and manage data fusion from multiple data sources
* Experience developing analytics tools, algorithms, and programs
* Technical leadership of data structure design for contextual pipelines
* Collaboration experience with Data Scientists and Architects
* Strong ability to work independently, learn new technologies, and apply innovative solutions
* Excellent interpersonal skills and ability to work as part of a team MSc in Computer Science or Data Science Advantages:
* Experience with managing metadata and taxonomy concepts alongside big data objects
* Experience working with public cloud Big Data & AI services
* Familiarity with machine learning concepts
* Strong technical skills
* Independent, hands-on developer
* Curious, open-minded, fast learner, and a strong team player
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8503268
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו