דרושים » דאטה » data Engineer לפרויקט משמעותי של טרנספורמציה דיגיטלית

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 16 שעות
דרושים בG-NESS
מיקום המשרה: רמת גן
מחפשים data Engineer מנוסה ומוכשר/ת להשתלבות בפרויקט משמעותי של טרנספורמציה דיגיטלית והעברת מאגרי מידע ארגוניים לסביבת הענן של Google Cloud Platform (GCP)
התפקיד כולל פיתוח פתרונות data מתקדמים, עבודה עם כלי ETL /ELT תכנון ארכיטקטורת נתונים מודרנית והובלת תהליכי Migration מורכבים בארגון ממשלתי גדול ויציב
תיאור התפקיד
הובלת תהליכי Migration והעברת מאגרי נתונים ממערכות On-Prem לסביבת GCP
תכנון ופיתוח שכבות נתונים Silver Gold בתוך BigQuery
פיתוח תהליכי ETL /ELT ויישום לוגיקה עסקית מורכבת
פיתוח ותחזוקת Pipelines ותהליכי Orchestration באמצעות Cloud Composer / Apache Airflow
פיתוח טרנספורמציות וטיוב נתונים באמצעות Dataform
ביצוע ניקוי, איחוד ושיפור איכות הנתונים ( data Quality)
כתיבת שאילתות SQL מורכבות ואופטימיזציה לביצועים ועלויות ב -BigQuery
דרישות:
לפחות 4 שנות ניסיון
ניסיון משמעותי בפיתוח והטמעה בסביבת GCP - חובה
שליטה גבוהה ב- Python לצורך פיתוח ETL /ELT וטרנספורמציות נתונים
ניסיון עם כלי Orchestration כגון Apache Airflow / Cloud Composer
היכרות עם Git ותהליכי CI/CD המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8648974
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בהמרכז הרפואי תל אביב (איכילוב)
סוג משרה: משרה מלאה
תנאים נוספים:קרן השתלמות
למרכז הרפואי ת"א (איכילוב) דרוש.ה data Engineer.
אגף מערכות מידע מגייס data Engineer עם רקע חזק בעולמות ה- BI, להצטרפות לצוות דאטה מרכזי העוסק בהקמה והובלה של פלטפורמת נתונים מודרנית.
התפקיד כולל עבודה על דאטה קליני ותפעולי בהיקפים גדולים, תוך שילוב בין עולמות DWH קלאסיים לבין ארכיטקטורות data Lake / Lakehouse מתקדמות.

במסגרת התפקיד:
תכנון והקמה של data Pipelines מקצה לקצה עבור דאטה רפואי ותפעולי
פיתוח מודלים אנליטיים ( data Modeling) לתמיכה בקבלת החלטות קליניות ועסקיות
עבודה עם data Lake / Lakehouse לניהול נתונים בהיקפים גדולים
אינטגרציה של מקורות מידע מגוונים (מערכות רפואיות, מערכות תפעוליות, APIs)
שיפור data Quality, ניטור תהליכים והתמודדות עם data Gaps (חוסרים, עיכובים, טעויות)
עבודה צמודה עם אנליסטים, חוקרים, צוותי BI וגורמים קליניים
הובלת Best Practices בתחום ניהול נתונים בארגון
דרישות:
ניסיון של 3+ שנים כ- BI Developer או data Engineer
שליטה גבוהה ב-SQL וניסיון מוכח ב- data Modeling (Star Schema / Snowflake)
ניסיון בפיתוח תהליכי ETL /ELT מורכבים
ניסיון בעבודה עם Python (או שפה דומה)
הבנה מעמיקה של DWH קלאסי
ניסיון בעבודה עם סביבת Microsoft ( SQL server / Power BI )

יתרון משמעותי
ניסיון עם כלים מודרניים כגון: dbt Apache Airflow Airbyte Trino
ניסיון בעבודה עם Object Storage (כגון Amazon S3) ו- data Lake
היכרות עם Apache Iceberg
ניסיון בארכיטקטורת data Lakehouse
ניסיון בעבודה עם דאטה רפואי / קליני (EMR / EHR)
היכרות עם תקני מידע רפואיים (HL7 / FHIR)
ניסיון בעבודה בסביבות ענן המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8648218
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 18 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה להצטרף לצוות הדאטה שלנו ולהיות שותף מרכזי בהקמה, פיתוח ותפעול של פלטפורמת Data & AI ארגונית מתקדמת בסביבת Azure.

במסגרת התפקיד:
תכנון, פיתוח ותפעול Lakehouse ארגוני על גבי Azure Databricks
בניית Data Pipelines מודרניים מקצה לקצה על בסיס Delta Lake במודל Bronze / Silver / Gold
פיתוח תהליכי Data Ingestion חכמים ממערכות ליבה, APIs וEvent Streams, כולל Incremental Loading וCDC
עבודה עם Unity Catalog לניהול Data Governance, הרשאות, Lineage ושיתוף נתונים מאובטח בין צוותים
שימוש יומיומי ביכולות מתקדמות של Databricks:
Workflows & Jobs
Autoloader
Delta Live Tables
Structured Streaming
עבודה שוטפת וצמודה עם Data Scientists ותמיכה בML Workflows
הטמעה וניהול של MLflow:
ניהול ניסויים
Model Tracking
Versioning וReproducibility
בניית סטנדרטים ארגוניים לData Quality, Monitoring וObservability
אופטימיזציה של ביצועים ועלויות בסביבת Azure (Cluster Sizing, Caching, Partitioning)
תמיכה בהקמת AI / Data Platform ארגונית התומכת בAgents, Machine Learning ומוצרי דאטה
דרישות:
מה אנחנו מחפשים?
ניסיון של 3-5 שנים בתפקיד Data Engineer בסביבת Cloud
ניסיון מעשי משמעותי עם Azure Databricks
שליטה גבוהה ב Python,SQL, Spark / PySpark
ניסיון בעבודה עם: Delta Lake, Unity Catalog, Databricks Workflows / Jobs
ניסיון בבניית Data Pipelines בסביבת Production, ניסיון בעבודה משותפת עם Data Scientists וML Pipelines
היכרות עם MLflow לניהול מודלים וניסויים
הבנה טובה של Data Modeling בסביבת Lakehouse
ניסיון בעבודה עם Git וCI/CD לתהליכי דאטה
יכולת עבודה בצוות רבתחומי, חשיבה מוצרית וראייה מערכתית על דאטה

אנחנו ממוקמים ברמת גן,
מתחם הבורסה, בסמוך לרכבת סבידור מרכז ולרכבת הקלה

* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8641009
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 17 שעות
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה להצטרף לצוות הדאטה שלנו ולהיות שותף מרכזי בהקמה, פיתוח ותפעול של פלטפורמת Data & AI ארגונית מתקדמת בסביבת Azure.

במסגרת התפקיד:
תכנון, פיתוח ותפעול Lakehouse ארגוני על גבי Azure Databricks
בניית Data Pipelines מודרניים מקצה לקצה על בסיס Delta Lake במודל Bronze / Silver / Gold
פיתוח תהליכי Data Ingestion חכמים ממערכות ליבה, APIs וEvent Streams, כולל Incremental Loading וCDC
עבודה עם Unity Catalog לניהול Data Governance, הרשאות, Lineage ושיתוף נתונים מאובטח בין צוותים
שימוש יומיומי ביכולות מתקדמות של Databricks:
Workflows & Jobs
Autoloader
Delta Live Tables
Structured Streaming
עבודה שוטפת וצמודה עם Data Scientists ותמיכה בML Workflows
הטמעה וניהול של MLflow:
ניהול ניסויים
Model Tracking
Versioning וReproducibility
בניית סטנדרטים ארגוניים לData Quality, Monitoring וObservability
אופטימיזציה של ביצועים ועלויות בסביבת Azure (Cluster Sizing, Caching, Partitioning)
תמיכה בהקמת AI / Data Platform ארגונית התומכת בAgents, Machine Learning ומוצרי דאטה
דרישות:
מה אנחנו מחפשים?
ניסיון של 3-5 שנים בתפקיד Data Engineer בסביבת Cloud
ניסיון מעשי משמעותי עם Azure Databricks
שליטה גבוהה ב Python,SQL, Spark / PySpark
ניסיון בעבודה עם: Delta Lake, Unity Catalog, Databricks Workflows / Jobs
ניסיון בבניית Data Pipelines בסביבת Production, ניסיון בעבודה משותפת עם Data Scientists וML Pipelines
היכרות עם MLflow לניהול מודלים וניסויים
הבנה טובה של Data Modeling בסביבת Lakehouse
ניסיון בעבודה עם Git וCI/CD לתהליכי דאטה
יכולת עבודה בצוות רבתחומי, חשיבה מוצרית וראייה מערכתית על דאטה

אנחנו ממוקמים ברמת גן,
מתחם הבורסה, בסמוך לרכבת סבידור מרכז ולרכבת הקלה

* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8570851
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 14 שעות
דרושים בSoftware AG-SPL
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה ומתאים גם לאנשים עם מוגבלות
חברת Software AG מגייסת מנהל.ת פרויקטי דאטה מנוסה לארגון ממשלתי ברמת גן.
המשרה כוללת הובלת פרויקט הקמת פלטפורמת דאטה בענן מקצה לקצה, כולל ניהול לו"ז, תיאום בין צוותים וספקים ובקרת התקדמות.
עבודה Hands-On ב-GCP עם פיתוח data Pipelines ב- Dataform מעל BigQuery, הקמת תשתיות ופתרון תקלות.
תכנון והטמעת ארכיטקטורת data Lake / DWH כולל data Governance, אבטחת מידע וליווי מיגרציה מ-On-prem לענן.
ניהול סיכונים, עבודה מול הנהלה ואבטחת מידע, ודיווח שוטף על סטטוס ועמידה ביעדי הפרויקט.
דרישות:
- 6 שנות ניסיון בניהול פרויקטי דאטה
- ניסיון בפיתוח/תשתיות/ data Engineering
- ניסיון בעבודה עם ענן/AI
- הבנה עמוקה של עולם הדאטה: מודלינג, ETL, מסדי נתונים
- השכלה רלוונטית בתחום המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8649354
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 16 שעות
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
ארגון רפואי באזור המרכז מגייס data Engineering Tech Lead
התפקיד כולל: עבודה עם פלטפורמות data & AI מתקדמות, הובלה מקצה לקצה של יישום Databricks, פיתוח תשתיות data Pipelines לסביבת Production, בניית Frameworks ותשתיות reusable עבור צוותי data ו-Analytics, הגדרת Best Practices ו-Design Patterns, הובלה מקצועית והכוונת צוותים, אחריות על תהליכי CI/CD, DevOps, ניהול עלויות בסביבת ענן ועוד.
דרישות:
- 3 שנות ניסיון עם Databricks ו-Apache Spark
- ניסיון Hands-on בפיתוח תשתיות data לצד הובלה טכנולוגית
- ניסיון עם Apache Spark כולל Performance Tuning ועבודה בסביבות
Production
- ניסיון בעבודה עם סביבות ענן Azure / AWS ותהליכי CI/CD
- תואר רלוונטי - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8638940
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 18 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה ועבודה היברידית
ארגון מוצר מתקדם מעולמות ה-Fintech מגייס data Engineer בכיר/ה להשתלבות במערך טכנולוגי מוביל.
הזדמנות לקחת חלק בפיתוח פתרונות data מתקדמים בסביבה חדשנית ובקבוצה מקצועית בחזית הטכנולוגיה.

תחומי אחריות:
תכנון ובנייה של פתרונות data מתקדמים
עבודה Hands-on בפיתוח באמצעות Python
שימוש והטמעה של תהליכי data Pipelines תוך עבודה עם Airflow
עבודה עם כלים מתקדמים בעולמות ה- data
שיתוף פעולה עם ממשקים טכנולוגיים כחלק מצוות מוביל
דרישות:
תואר ראשון בתחום טכנולוגי
לפחות 6 שנות ניסיון בעולמות ה- data
ניסיון מעשי בפיתוח ב- Python
ניסיון בעבודה עם Airflow
ניסיון בכלי data נוספים
אנגלית ברמה גבוהה מאוד
רקע קודם בפיתוח backend - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628729
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
דרושים בקבוצת Aman
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה ועבודה היברידית
פיתוח ותחזוקה של תהליכים בסביבת ענן (Azure) עם DataBricks ו- DataFactory לעיבוד נתונים בקנה מידה גדול, אופטימיזציה של ביצועים וניהול נתונים בקבצי Parquet בענן.
עצמאות ועבודה שוטפת מול משתמשים.
קבלת הדרישה מהמשתמשים, כתיבת אפיונים טכניים וליווי הפיתוח כולל בדיקות, עלייה לייצור והטמעה מול המשתמשים.
הגדרת ממשקים מול מערכות בארגון ומחוצה לו
דרישות:
ניסיון של 3 שנים לפחות ב Python - חובה
ניסיון בכתיבת שאילתות SQL ברמה מורכבת - חובה
ניסיון בSpark - חובה
ניסיון בעבודה עם בסיסי נתונים גדולים, כולל אופטימיזציה של שאילתות - יתרון
ניסיון פיתוח בReact - יתרון
תואר ראשון במדעי המחשב - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8376478
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 18 שעות
דרושים בNishapro
סוג משרה: משרה מלאה
דרוש/ה טכנולוג/ית דאטה סקרן/ית, יצירתי/ת וחד/ת מחשבה, שמחובר/ת לעולמות הדאטה והעסק, ומסוגל/ת לקחת רעיון ולהפוך אותו לפתרון טכנולוגי ישים -

בין אם באמצעות Informatica, Python או כל כלי אחר. התפקיד כולל עבודה בצוות דאטה מוביל, בסביבה דינמית ומתקדמת, עם דגש על חדשנות, חשיבה מחוץ לקופסה ופתרון בעיות מורכבות.
דרישות:
ניסיון של 5+ שנים בפיתוח פתרונות דאטה - חובה.

שליטה ב- Python - חובה.

ניסיון בעבודה עם בסיסי נתונים (SQL) - חובה.

הבנה עסקית ויכולת לתרגם צרכים עסקיים לפתרונות טכנולוגיים


מאפייני אישיות:

אהבה ללמידה, סקרנות טכנולוגית ויכולת עבודה עצמאית

יצירתיות, ראש גדול ויכולת פתרון בעיות מורכבות

גמישות מחשבתית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8519703
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
Required Data Engineer
The pioneer in AI-powered sports content technology, empowers more than 460 clients world-wide to connect with their fans through AI-tailored sports content experiences. Our platform automates the creation, management and distribution of content, enabling sports rights holders to expand reach, grow fan bases, and unlock revenue opportunities across digital platforms.
Why us:
Youll work in an awesome environment alongside some of the most innovative people in the industry, using cutting-edge technologies and tools (video editing, Gen AI, data, etc.). You have the opportunity to directly influence the products and tools used by our clients, including sports giants such as the NBA, Bundesliga, LaLiga, ESPN - and thats just the beginning of what we have to offer! Join us and be a part of the best team in tech as we Fuel the Fandom worldwide.
What youll do:
Design and develop scalable, efficient services, APIs, and automations as founder of this area
Build data pipelines, ETL processes, and integrations that power products and internal tools
Own features end-to-end: design, implementation, CI/CD, monitoring, and observability
Develop and optimize data models, ensuring high-performance data infrastructure
Build and schedule workflows with python orchestrator and integrate with data platforms
Optimize performance, reliability, and security across services
Write high-quality, maintainable code in a rich data environment
Collaborate with Product, R&D, Operations, and Business to deliver impactful data-driven solutions
Work with SAAS environments and containerized deployments.
Requirements:
What youll need:
BSc in Computer Science or an equivalent background
5+ years of professional experience as a Python Developer / Software Engineer
Strong proficiency in Python; experience with frameworks such as FastAPI, Django, or Flask
Solid software engineering fundamentals: OOP, design patterns, testing, debugging
Strong SQL skills and experience with analytical databases (Snowflake or similar)
Experience with REST APIs and asynchronous programming
Proficiency with Git and CI/CD practices
Experience with Docker and/or Kubernetes
Experience with Airflow - advantage
Excellent communication and collaboration skills with the ability to work across multiple stakeholders and business units
Node js - experience is advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8603120
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Ramat Gan
Job Type: Full Time
Required Senior ML Data Engineer
Ramat Gan
Full time
The AI Engineering group builds modern infrastructure and solutions that improve how algorithms are developed.
We are a small, independent team of experienced engineers with a mix of skills in algorithms, software, and infrastructure. We work in a DevOps style and build cross-team solutions that support research and development of advanced perception algorithms.
Our flagship project is a unified AV dataset used to train and evaluate next-generation models. We take large volumes of multi-camera video, object labels, HD maps, and sensor data from across the organization, and turn it into a curated, high-quality training set - at scale.
We are looking for someone who brings ML and computer-vision depth to the team - someone who can help shape the intelligence layer that decides what data is worth training on.
What will your job look like:
Work collaboratively with shared ownership. Your focus area will be the curation and ML side of our data pipeline, but you will contribute across the full stack alongside the rest of the team.
Build and improve the curation pipeline - from vision-model embeddings and scene detection, through VLM-based scene analysis, to scoring, deduplication, and sampling that produces a balanced and diverse dataset.
Run and optimize GPU inference at scale (embedding extraction, VLM inference) across thousands of driving sessions using workflow orchestration.
Develop scoring and sampling strategies that ensure rare but important scenarios (night driving, adverse weather, hazardous situations) are well-represented in the final dataset.
Work with algorithm teams to understand what data gaps hurt model performance and translate those into curation criteria.
Build validation and diagnostics that measure dataset quality - not just pipeline health, but whether the data is actually good for training.
Contribute to the core dataset SDK, converter, and 3D-geometry tooling (camera projection, calibration, coordinate transforms).
Requirements:
4+ years in ML engineering, applied CV, or a similar role combining model work with production data systems.
Hands-on experience with vision models - embeddings, VLMs, or object detection/segmentation.
Strong Python and comfort with the PyData stack (NumPy, PyArrow, Pandas, DuckDB).
Experience building data or ML pipelines that run at scale (not just notebooks).
Solid understanding of 3D geometry and camera models - or the mathematical background to ramp up quickly.
Good understanding of LLM agents and agentic workflows, with genuine interest in applying them to data and engineering problems.
Ability to work across team boundaries with algorithm and infrastructure people.
Strong advantage:
Experience with autonomous-driving datasets or perception pipelines.
Familiarity with dataset curation techniques (active learning, hard-example mining, distribution balancing).
Experience with GPU inference serving (vLLM, Triton, TensorRT).
Familiarity with vector databases or columnar analytics (LanceDB, DuckDB).
Experience with workflow orchestration (Argo, Airflow, Kubeflow).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8635574
סגור
שירות זה פתוח ללקוחות VIP בלבד