רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
אבחון און ליין
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
פרולוג'יק
מיקום המשרה: תל אביב יפו וראש העין
לחברתנו דרוש/ה Data stage developer למשרה מלאה ולטווח ארוך
מתכונת היברידית
דרישות:
ניסיון בעבודה ב-Data Stage בסביבת ORACLE- חובה
ידע וניסיון בכתיבת פונקציות ושאילתות מורכבות בשפת PL/SQL- חובה
ניסיון בעבודה עם מערכות BI בתחום פיננסי/ בנקאי /ת - יתרון משמעותי
ניסיון בניתוח מערכת ניהול סיכונים פיננסית- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7119910
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
קונסיסט מערכות בע"מ
דרושים בקונסיסט מערכות בע"מ
מיקום המשרה: מספר מקומות
גורם אחראי על תכנון ופיתוח תהליכי ETL,EL ובניית data pipelines בסביבת LAKEHOUSE
התוויית דרכי מידול ובחירת כלי ואופן הפיתוח בהתאם לסביבת עבודה, נפח המידע,מקורות נתונים ודרישה עסקית.
התפקיד כולל תכנון,פיתוח וניהול תהליכי אינטגרציה ובניית data pipelines מורכבים,בניה וניהול תהליכי הכנת,טיוב והעשרה של הנתונים. הגדרה וביצוע תהליכי גישה, הפקה, זרימה,תכלול וקליטה בין מקורות נתונים ופלטפורמות אנליטיות, מתן הדרכה והנחיה לפתחים ומהנדסי נתונים בארגון.
הובלה ותכנון תהליכי BATCH ו STREAMING, תכנון ובניית שכבות נתונים בLAKEHOUSE (( data MODULING
עבודה בשיתוף פעולה עם DBA,צוותי תשתיות של הארגון,אנשי data ומדעני נתונים.
לקיחת חלק בתכנון תהליכי מעבר נתונים לסביבת ענן.
עבודה עם כלים וטכנולוגיות מתקדמות בתחום ה- Big Data,AI, BI, הטמעה של טכנולוגיות חדשות.
דרישות:
לפחות 5 שנים ניסיון כמהנדס נתונים -חובה
ניסיון מוכח במידול נתונים-חובה
ניסיון בתכנון ובניית data pipelines מורכבים-חובה
ניסיון בעבודה עם כלים אנליטיים BI, ETL - חובה
שליטה בשפת ברמה גבוהה- חובה SQL
שליטה בשפת ברמה גבוהה חובה Python /R/ JAVA
ניסיון בעבודה עם טכנולוגיות KAFKA,SPARK,HADOOP כגון Big Data - יתרון
ניסיון בעבודה מול כלים ותשתיות בענן. -יתרון
ניסיון בעבודה על כלי ETL DATASTAGE,TALEND- יתרון
ניסיון עבודה עם בסיסי נתונים רלציונים ושאינם רלציונים כגון MongoDB,NEO4J- יתרו המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7674705
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
21/03/2024
Location: Rosh Haayin
Job Type: Full Time
What will you do?
Analysis of large numbers of logs from printers sent several times a day in the form of zip files into Azure Blob Storage.
Currently, the logs require a lot of cleaning and transformation.
Logs from various files are aggregated and combined to calculate and present KPIs that are important for the business.
analyze and organize raw data
evaluate business needs and objectives
developing the existing data lake
notebook implementation for ELT processes and business logic
code optimization
refactoring
writing unit tests
preparing documentation
Requirements:
2 years of experience developing big data platform.
1 year experience developing data bricks - Mandatory
Azure knowledge (must have): Azure Data Factory, ADLS gen2 , Event Hub/ IoT Hub/ Stream Analytics, and Networking
in Azure (Vnet/ subnets/ gateway/ private endpoints)
Databricks knowledge - Pyspark or Spark SQL
Languages:
- Advanced SQL knowledge (query optimization, partitioning, clustering etc) -> TSQL, ANSI SQL
- Regular Python knowledge
- Git knowledge
- Basic knowledge about NoSQL databases
Roles and security (Microsoft Entra ID, security groups etc) - Advantage
Snowflake basic/ regular knowledge - advantage
Data Warehousing knowledge designing, data modelling, methodologies (like Kimball) and so on
Data Lake and Lakehouse concept medallion architecture etc
Big Data concepts knowledge Hive, Spark, partitioning, scaling up and out, streaming processing
Basic DevOps knowledge:
- Azure data DevOps (Boards, tasks, creating PR...)
- CICD processes basic knowledge
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7662601
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
20/03/2024
Location: Rosh Haayin
Job Type: Full Time
We are looking for a Big Data Developer (Snowflake).
What will you do?
Migration of existing data warehouses from Azure SQL Database to Snowflake. The current data warehouse, in addition to standard analytical functions, is also a data source for the web application.
Data warehouse implemented in the lambda architecture, combining Real Time data from IoT devices and data from other sources such as SQL server databases. This project is the beginning of the implementation of Single Source Of Truth for the entire organization
This is an early phase of the project, starting implementation after the design phase.
● analyze and organize raw data
● evaluate business needs and objectives
● data modeling
● architecture designing
● developing ELT logic
● ensuring data quality
● code optimization
● preparing documentation
Requirements:
2 years of experience developing big data platform.
2 years of experience in Snowflake - Mandatory
Azure knowledge (must have):
o Azure Data Factory
o ADLS gen2
o Event Hub/ IoT Hub/ Stream Analytics
o Networking in Azure (Vnet/ subnets/ gateway/ private endpoints) e. Roles and security (Microsoft Entra ID, security groups etc) - Advantage
o Azure Data Explorer (KQL language) will be an additional advantage
Languages:
o Advanced SQL knowledge (query optimization, partitioning, clustering etc) -> TSQL, ANSI SQL
o Regular Python knowledge
o Git knowledge
o Basic knowledge about NoSQL databases
Developing ADX - Advantage
Data Warehousing knowledge designing, data modelling, methodologies (like Kimball)
Data Lake and Lakehouse concept medallion architecture etc
Big Data concepts knowledge Hive, Spark, partitioning, scaling up and out, streaming processing
Basic DevOps knowledge:
o Azure data DevOps (Boards, tasks, creating PR...)
o CICD processes basic knowledge
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7661229
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו
ישנן 49 משרות במרכז אשר לא צויינה בעבורן עיר הצג אותן >