רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בOne data
הזדמנות להשתלב בארגון גדול ודינמי, עם מאות משתמשים, הנמצא בתנופת עשייה ומעבר לטכנולוגיות חדשניות ומתקדמות!
הצטרף/י לצוות BI שאחראי על תפעול, פיתוח והובלת פרויקטים משמעותיים משלב האפיון ועד ליישום והטמעה מלאה של פתרונות דאטה ובינה עסקית.
במסגרת התפקיד:
אפיון דרישות עסקיות ומיפוי נתונים
הגדרת תהליכי ETL ותרשימי ERD
פיתוח ותחזוקת pipelines בסביבת data Lake
פיתוח דשבורדים ודוחות במערכות BI
מתן מענה שוטף לדרישות עסקיות, תקלות, ופרויקטים
עבודה עם טכנולוגיות מתקדמות בסביבת ענן
דרישות:
לפחות 8 שנות ניסיון בבניית ותחזוקת data Pipelines מקצה לקצה
ניסיון עם כלי SAP חובה
ניסיון עם Databricks ו-Snowflake חובה
שליטה מעמיקה ב-SQL (כולל stored procedures, Indexing, Performance Tuning)
ניסיון בפיתוח תהליכי שינוע נתונים בעולמות רלציוניים
ניסיון בכלי תשתית: SSIS, SAP -DI / SAP -DS, SQR
עבודה עם תהליכי CI/CD
ניסיון בעבודה בסביבת ענן AWS המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8395320
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים בGtech
התפקיד כולל:
ניהול ואופטימיזציה של ביצועים - שימוש בכלי ניטור לזיהוי צווארי בקבוק וניתוח הסיבות שלהם, מעקב וטיפול בנעילות. מעקב צמוד אחר מדדי ביצועים קריטיים,CPU, זיכרון, חסימות, זמני שאילתות, הגדרת התראות ותיעדוף משימות במקרה נעילות תהליכים.
עיצוב ופיתוח בסיסי הנתונים - שמירה על זמינות הנתונים למשתמש.
תכנון ויצירה - אחריות על יצירה, תחזוקה וניהול של אובייקטים במסד הנתונים כגון טבלאות, אינדקסים, views, stored procedures, פונקציות, טריגרים ועוד.
תמיכה במפתחים - מתן ייעוץ ותמיכה למפתחי BI בכל הקשור למידול נתונים, כתיבת שאילתות יעילות ושימוש נכון במאפייני בסיס הנתונים.
אופטימיזציה של ETL - עבודה צמודה עם צוות הפיתוח
תכנון קיבולת וניהול צמיחה - מערכות BI נוטות לגדול במהירות הן בהיקף הנתונים והן בכמות המשתמשים. ה- DBA האפליקטיבי אחראי על:
1. ניתוח מגמות גידול: הערכת קצב גידול הנתונים והשימוש במערכות BI.
2. תכנון קיבולת: חיזוי צרכי החומרה (שטח אחסון, זיכרון, כוח עיבוד) ותוכנה עתידי
דרישות:
תואר ראשון במדעי המחשב/ בהנדסת מחשבים/ הנדסאי בוגר מגמת מחשבים/טכנולוגיה/קורסים מתקדמים בתחום - יתרון
ניסיון של 5 שנים כ DBA אפליקטיבי חובה (יתרון גדול לSQL SERVER)
ניסיון של 3 שנים בכתיבת SQL, פונקציות ופרוצדורות מורכבות לרבות ביצוע בדיקת קוד למפתחים - חובה
ניסיון של 3 שנים במתן תמיכה בתכנון ואפיון פתרונות ועבודה מול צוותי פיתוח חובה
ניסיון של 5 שנים בשיפור ביצועים של SQL חובה
ניסיון בתכנון ואפיון של מסדי נתונים לרבות אפיון והגדרת צרכים פונקציונאליים וטכניים- יתרון
ניסיון כ DBA תשתיתי Oracle יתרון
ניסיון עם מסדי נתונים No SQL - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405093
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are seeking an experienced Data Platform Engineer to join our Storage Analytics team. You will design and build data solutions that provide critical insights into storage performance and usage across Apple's entire device ecosystem.
Description:
Working with large-scale telemetry data from millions of Apple devices worldwide, you'll support multiple CoreOS Storage teams, including Software Update, Backup/Restore/Migration, Storage Attribution, and other storage domains.
Responsibilities
Design, build, and maintain scalable data processing infrastructure to handle large-scale telemetry from Apple's global device fleet
Develop highly scalable data pipelines to ingest and process storage performance metrics, usage patterns, and system telemetry with actionable alerting and anomaly detection
Build and maintain robust data platforms and ETL frameworks that enable CoreOS Storage teams to access, process, and derive insights from storage telemetry data
Engineer automated data delivery systems and APIs that serve processed storage metrics to various engineering teams across different storage domains
Requirements:
Bachelor's degree in Computer Science or related technical field
4+ years of professional experience in data modeling, pipeline development, and software
engineering
Programming Languages: excellent programming skills in Python with strong computer science foundations (data structures, low-level parallelization.
Database Management: Strong SQL skills and hands-on experience with relational databases and query engines (PostgreSQL, Impala, Trino)
Experience with data analysis tools and libraries (Pandas/Polars, NumPy, dbt)
Experience with big data technologies (Kafka, Spark, Databricks, S3)
Experience with Apache Airflow, Dagster, or similar data orchestration frameworks for workflow orchestration, scheduling, and monitoring
Experience with containerization and orchestration (Docker, Kubernetes /visualization & Reporting:
Strong proficiency with creating and maintaining Tableau/Grafana dashboards and workflows
Preferred Qualifications:
Master's or PhD in Computer Science or related field
Deep expertise in data principles, data architecture, and data modeling
Strong problem-solving skills and meticulous attention to detail, with the ability to tackle loosely
defined problem
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8407471
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are seeking a Big Data Engineer with at least 3 years of experience. A strong understanding of data structure is critical.
You will design, develop and maintain data systems, optimize pipelines, and ensure data integrity.
Data Engineers shape and improve leading mobile analytics solutions while using cutting edge technologies such as Scala, Spark, Hadoop, Astronomer, BigQuery, and many more.
What youll do
Own and develop our products and features end-to-end - from design to production
Collaborate with Product Managers and Software Engineers to deliver complex products.
Develop and maintain scalable data pipelines.
Implement ETL processes and data integration.
Optimize data performance and ensure security.
Requirements:
B.Sc. in computer science or an equivalent.
3+ years in Big Data engineering.
Proficiency in Spark or similar.
Strong programming skills (Scala, Python).
Experience in analyzing data and working with SQL.
Experience with cloud platforms (preference to AWS / GCP).
A get-things-done approach
Bonus points
Experience in building APIs for server-client applications.
Experience with data warehousing solutions.
Recommended by an employee.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8369720
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for a skilled and motivated Big Data Engineer to join our backend data infrastructure team. You will be at the core of Finals data ecosystem, building and maintaining high-performance data services and pipelines that support both real-time and batch workloads. Your work will directly impact how data is accessed and leveraged across the company from live production environments to ML training pipelines. You will design and maintain systems that span hybrid infrastructure (on-prem and cloud), and ensure our data platform is fast, reliable, and scalable. We value engineers who are curious, open-minded, and excited to learn new technologies and practices as the landscape evolves.



As a Big Data Engineer, you will:

Design, implement, and maintain backend services for managing and processing large-scale data.
Build and operate production-grade data pipelines and infrastructure.
Develop utilities ,libraries and services to support high-throughput data retrieval and access patterns.
Ensure observability, stability, and performance of data services in hybrid (cloud/on-prem) environments.
Monitor and troubleshoot issues in live systems and continuously improve their robustness.
Work cross-functionally to ensure data is accessible, well-modeled, and easy to consume by other teams.
Requirements:
Strong programming experience in at least one of the following: C++, Java, Rust, .NET, or Python.
Experience working with python data analytics libraries (such as numpy, pandas, polars).
Experience working on backend services or data-intensive applications.
Understanding of distributed systems, data pipelines, and production monitoring.
Experience in hybrid infrastructure environments (on-prem + cloud).
An open-minded technologist with a willingness to learn and adopt new technologies and best practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8368238
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו