רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
לימודים
עומדים לרשותכם
חברות מגייסות
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 8 שעות
SQLink
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון פיננסי במרכז הארץ מגייס מפתח/ת Python
התפקיד כולל: עבודה עם תהליכי data מקצה לקצה, פיתוח ב- Python בסביבת data Lake, כולל תהליכי שינוע נתונים בעולמות רלציוניים, עבודה עם PySpark, תחקור נתונים ב-SQL, ביצוע בדיקות Unit ו-Integration, התנהלות בסביבת CI/CD מתקדמת ועוד.
דרישות:
- שנתיים ניסיון ב- Python
- שנתיים ניסיון בסביבת Big Data עם דגש על Spark ו-Hive
- 3 שנות ניסיון עם כלי data של Microsoft כגון: SSIS, SQL server
- ניסיון בכתיבת שאילתות SQL מורכבות
- ניסיון בתהליכי ETL ו-ELT, כולל עבודה עם DWH ו- data Lake המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8139756
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 10 שעות
בזק
דרושים בבזק
מיקום המשרה: חולון
סוג משרה: משרה מלאה
אפיון, תכנון והובלה של פרויקטים טכנולוגיים מרובי משתתפים ומתן מענה לחטיבות השונות בארגון, מיפוי הצרכים עבור פיתוחים במטרה למקסם פוטנציאל עסקי.
 
1. פגישת היכרות עם הגורמים הרלוונטיים בארגון כדי להבין את האתגרים, המטרות והציפיות. כולל ניתוח של תהליכים נוכחיים וזיהוי אזורים לשיפור.
2. פגישות עם ספקים, ביצוע POC ובחירת ספק מתאים
3. פיתוח תוכנית מותאמת לפרויקט שנבחר בהתבסס על ההבנה של הצרכים והמטרות.
4. הובלת הבט טכנולוגי וקבלת החלטות על חומרה, מימוש, ענן / on prem, נושאי אבטחת מידע ועוד
5. ניהול סיכונים: ניתוח הסיכונים ודרכי ההתמודדות הכרוכים בשימוש בכלים אלה.
6. אינטגרציה בן הספק ללקוח.
דרישות:
ידע בתחום התעשייה: הבנה עמוקה בתחומי היישום של AI.
1. ידע מעמיק בניתוח מערכות ו/או פיתוח ובפרט בתחום ה-Machine Learning, Deep Learning, וטכנולוגיות AI.
2. ניסיון בפרויקטים: ניסיון בפיתוח ויישום פרויקטים מורכבים בתחום ה-AI.
3. יכולת ניהול והובלה: יכולת לנהל צוותים, לתכנן משאבים
4. יכולת חשיבה אסטרטגית
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8063520
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
לחברה מובילה בתחומה דרוש/ה מנהל /ת פרויקטים טכנולוגיים להובלת פרויקטים רחבי היקף בתחומי GIS, Big Data וניהול ידע.

התפקיד כולל הובלת פרויקטים חוצי ארגון משלב האפיון ועד היישום, ניהול מקצועי ותפעולי של צוותים, אחריות על עמידה ביעדים מקצועיים, תקציביים ותפעוליים, וקידום חדשנות בתוך הארגון.

תחומי אחריות:
- ניהול וליווי פרויקטים טכנולוגיים מקצה לקצה, כולל אינטגרציה בין מערכות וממשקים שונים
- בניית תוכניות עבודה, ניהול לוחות זמנים, תקציבים ומשאבים
- הובלת תהליכי חדשנות ושיפור מתמיד
- עבודה צמודה עם לקוחות ושותפים, ניהול ממשקים פנים וחוץ ארגוניים
- ניהול והנעת צוות עובדים מקצועי

?? משרה מלאה במשרדי החברה ברמת החייל, תל אביב
דרישות:
- תואר ראשון ממוסד מוכר בתחומי מדעי המחשב, מערכות מידע או הנדסת תעשייה וניהול חובה
- ניסיון של 35 שנים לפחות בניתוח מערכות וניהול פרויקטים טכנולוגיים חובה
- ניסיון ניהולי מוכח בתחום הטכנולוגי חובה
- שליטה מלאה בעברית ובאנגלית קריאה, כתיבה ודיבור

יתרון משמעותי:
- ניסיון בעבודה עם מערכות GIS
- היכרות עם טכנולוגיות Big Data
- כישורים בינאישיים מצוינים ויכולת הובלת צוותים ועבודה בצוות

* המשרה פונה לנשים וגברים כאחד. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8144291
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 13 שעות
SQLink
דרושים בSQLink
סוג משרה: משרה מלאה
data Engineer עבור ארגון רפואי במרכז הארץ
התפקיד כולל: פיתוח ותחזוקה של תהליכי דאטה באמצעות Apache Nifi, Apache Spark ו-Apache Flink, עבודה צמודה עם צוותי data Science, BI ומערכות מידע בארגון ועוד.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בעבודה עם Apache Spark / Apache NiFi / Apache Flink
- ניסיון בפיתוח ב- Python לעיבוד נתונים ובניית data Flows
- ניסיון ב-SQL
- ניסיון בארכיטקטורת נתונים ותשתיות Big Data המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8139735
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
גב מערכות
דרושים בגב מערכות
סוג משרה: משרה מלאה
לארגון מוביל באזור הקריות דרוש.ה מנהל.ת פרויקט מנוסה להובלת פרויקט אסטרטגי להקמת data Lake מבוסס Splunk.
הפרויקט יספק תשתית מתקדמת לניתוח נתונים, הסקת תובנות, ואינטגרציה עם מגוון מקורות מידע ומערכות ארגוניות.
התפקיד כולל ניהול הפרויקט מקצה לקצה משלב אפיון הדרישות ועד להטמעה ותפעול שוטף, תרגום צרכים עסקיים לפתרונות טכנולוגיים בעולם ה- data, עבודה שוטפת עם צוותי פיתוח, IT, אבטחת מידע וגורמים עסקיים, אחריות על ממשקים עם מערכות חיצוניות, הובלת דיונים מקצועיים, ניהול משימות, לוחות זמנים, סיכונים ופתרון בעיות.
אם את.ה מחפש.ת אתגר מקצועי משמעותי בפרויקט data שאפתני זו ההזדמנות שלך!
דרישות:
ניסיון משמעותי בניהול פרויקטים טכנולוגיים מורכבים
ניסיון מוכח בעבודה עם Splunk
היכרות עמוקה עם עולמות Big Data, data Lakes ואינטגרציה בין מערכות
ניסיון בעבודה מול מגוון בעלי עניין עסקיים וטכנולוגיים
יכולת ניתוח ואפיון מערכות, וכתיבת מסמכי דרישות
תואר ראשון במערכות מידע או תחום רלוונטי יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8156642
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
מלם תים
דרושים במלם תים
מיקום המשרה: ירושלים
למשרד ממשלתי בירושלים דרוש מנהל /ת פרוייקטי data מנוסה.
במסגרת התפקיד ניהול פרוייקטים BI / DWH ו- Big Data, ישיבה עם לקוחות כולל קבלת דרישות עסקיות ואפיון, הנעת צוותים להשגת יעדים.
כמו כן,  ניהול פגישות וישיבות טכניות עם צוותים וספקים שונים, דיווח להנהלה לגביי לו"ז, תקציב, כ"א ועוד.
דרישות:
מה תביאו איתכם?
- 8 שנות ניסיון בניהול פרוייקטים טכנולוגיים, מתוכן 4 שנים בתחום ה- data.
- תואר ראשון במדעי המחשב/ הנדסת תעשייה וניהול/ מערכות מידע / תואר ראשון כלשהו אחר + קורסים בתחום מערכות מידע בהיקף 300 שעות.
- ידע וניסיון עם מתודולוגיות BI בסביבת מחסן נתונים  DWH (בסביבות On Prem וענן), הבנה מעמיקה של טכנולוגיות Big Data.
- ניסיון בעבודה עם מערכות מורכבות, ידע במסדי נתונים SQL, Oracle, MongoDB
- ניסיון בניהול מטריציוני, עבודה מול ממשקים מגוונים (לקוחות, ספקים חיצוניים) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7942658
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
One bi
דרושים בOne bi
סוג משרה: משרה מלאה
לצוות ה- BI שלנו דרוש/ה מפתח/ת BI מנוסה לעבודה על תהליכי data מורכבים, במטרה להפיק ערך עסקי משמעותי לארגון. תפקיד מעניין הכולל הובלת תהליכי BI מקצה לקצה בסביבה טכנולוגית מתקדמת.
התפקיד כולל -
שיפור ביצועים בתהליכים קיימים והקמה של תהליכים חדשים
אפיון צרכים עסקיים, תרגומם לפתרונות טכנולוגיים ובניית תוצרים תואמים
עבודה בסביבת DWH תוך שימוש במתודולוגיות מחסן נתונים מתקדמות
שימוש בכלי ויזואליזציה ודו"חות Power BI ו-SSRS (יתרון)
דרישות:
פיתוח ותחזוקה של תהליכי BI, בדגש על עבודה עם SSIS ו- stored procedures
שיפור ביצועים בתהליכים קיימים והקמה של תהליכים חדשים
אפיון צרכים עסקיים, תרגומם לפתרונות טכנולוגיים ובניית תוצרים תואמים
עבודה בסביבת DWH תוך שימוש במתודולוגיות מחסן נתונים מתקדמות
שימוש בכלי ויזואליזציה ודו"חות Power BI ו-SSRS (יתרון) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8148748
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 9 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Senior Data Engineer to join our dynamic data team. In this role, you will design, build, and maintain robust data systems and infrastructure that support data collection, processing, and analysis. Your expertise will be crucial in developing scalable data pipelines, ensuring data quality, and collaborating with cross-functional teams to deliver actionable insights.

Key Responsibilities:

Design, develop, and maintain scalable ETL processes for data transformation and integration.
Build and manage data pipelines to support analytics and operational needs.
Ensure data accuracy, integrity, and consistency across various sources and systems.
Collaborate with data scientists and analysts to support AI model deployment and data-driven decision-making.
Optimize data storage solutions, including data lakehouses and databases, to enhance performance and scalability..
Monitor and troubleshoot data workflows to maintain system reliability.
Stay updated with emerging technologies and best practices in data engineering.
Requirements:
4+ years of experience in data engineering or a related role within a production environment.
Proficiency in Python and SQL
Experience with both relational (e.g., PostgreSQL) and NoSQL databases (e.g., MongoDB, Elasticsearch).
Familiarity with big data AWS tools and frameworks such as Glue, EMR, Kinesis etc.
Experience with containerization tools like Docker and Kubernetes.
Strong understanding of data warehousing concepts and data modeling.
Excellent problem-solving skills and attention to detail.
Strong communication skills, with the ability to work collaboratively in a team environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8158855
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
Location: Ramat Gan
Job Type: Full Time
In this role, you will work closely with data scientists, analysts, and other cross-functional teams to understand their data needs and requirements. You will also be responsible for ensuring that data is easily accessible and can be used to support data-driven decision making.

Location: Ramat Gan, Hybrid Model

What will you do?

Design, build, and maintain data pipelines to extract, transform, and load data from various sources, including databases, APIs, and flat files
Enhance our data warehouse system to dynamically support multiple analytics use cases
Reimplement and productize scientific computational methods
Implement data governance policies and procedures to ensure data quality, security, and privacy
Collaborate with data scientists and other cross-functional teams to understand their data needs and requirements
Develop and maintain documentation for data pipelines, processes, and systems
Requirements:
Bachelor's or Master's degree in a related field (e.g. computer science, data science, engineering, computational biology)
At least 5 years of experience with programming languages, specifically Python
Must have at least 3+ years of experience as a Data Engineer, ideally with experience in multiple data ecosystems
Proficiency in SQL and experience with database technologies (e.g. MySQL, PostgreSQL, Oracle)
Familiarity with data storage technologies (e.g. HDFS, NoSQL databases)
Experience with ETL tools (e.g. Apache Beam, Apache Spark)
Experience with orchestration tools (e.g. Apache Airflow, Dagster)
Experience with data warehousing technologies (ideally BigQuery)
Experience working with large and complex data sets
Experience working in a cloud environment
Strong problem-solving and communication skills
Familiarity with biotech or healthcare data - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8158670
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Ra'anana
Job Type: Full Time
We are looking for a hands-on data Architect to design, build, and optimize a cutting-edge data Lakehouse solution from the ground up. This role requires deep technical expertise in Big Data architectures, data modeling, ETL /ELT pipelines, cloud & on-prem solutions, and Real-Time analytics. As part of a fast-paced startup, youll be directly involved in coding, implementing, and scaling the platform not just designing, but building alongside the team. Youll take ownership of data strategies, governance, and architecture to enable high-performance analytics, AI, and business intelligence
Key Responsibilities Hands-On Architecture & Development: Build and deploy a scalable, open-source data Lakehouse integrating structured, semi-structured, and unstructured data.
* Design Real-Time and batch data processing pipelines using open-source frameworks (Apache Spark, Flink, Trino, Iceberg, Delta Lake, etc.).
* Develop cost-effective, high-performance data Storage strategies (columnar formats: Parquet, ORC).
* Implement best practices for data security, governance, access control, and compliance (GDPR, CCPA, etc.).
* Ensure seamless data integration across cloud and on-prem environments. data Engineering & ETL Pipelines:
* Develop high-performance ETL /ELT pipelines to ingest data from diverse sources (APIs, databases, IoT, logs).
* Optimize query performance using indexing, caching, materialized views, and distributed computing
* Implement metadata-driven, schema evolution-friendly data ingestion strategies.
* Ensure data quality, lineage, and observability across the entire pipeline. Collaboration & Execution: Work hands-on with data Engineers, BI Analysts, and ML Engineers to build an integrated platform.
* Define data cataloging and self-service analytics capabilities for internal users.
* Drive technical decision-making while balancing speed and scalability.
* Stay ahead of emerging trends in data architecture, ensuring best practices are implemented.
Requirements:
8+ years of hands-on experience in data Architecture, Big Data, or Cloud data Engineering. Expertise in open-source data Lakehouse technologies (Apache Iceberg, Delta Lake, Hudi, Presto/Trino, DuckDB, etc.).
* Deep hands-on experience with distributed computing frameworks (Apache Spark, Flink, Kafka, etc.).
* Strong coding skills in SQL, Python, and data modeling techniques
* Experience in designing and deploying scalable ETL /ELT pipelines (Apache Airflow, Dagster).
* Proven track record working with cloud platforms (AWS, GCP, Azure) and hybrid on-prem architectures.
* Strong knowledge of BI tools, analytical querying, and text search (Elasticsearch, OpenSearch). Proactive, execution-driven mindsetable to build, iterate, and scale quickly.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8156179
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Petah Tikva
Job Type: Full Time
We are interested in welcoming a Big Data Expert to our diligent Big Data team and take overall responsibility for developing, executing, and maintaining strategy and workflow while anticipating possible consequences, changes, and trends.

We believe that the perfect candidate possesses excellent leadership, communication, and social skills to build an effective and motivated team, utilizing the full potential of the skills and expertise of each member.

Responsibilities and tasks include:
Implementation, tuning and ongoing administration of Big Data infrastructure on Hadoop cluster and other NoSQL platforms.
Managing end-to-end availability, monitoring performance, and planning capacity using a variety of open source and developed toolsets.
Research and perfect best practices to support implementation of new features and solutions in Big Data and NoSQL space.
Perform all levels of DBA support (e.g., plan and coordinate patching/upgrades).
Manage database backup and recovery.
Troubleshoot and resolve database/application issues in a timely manner, tuning performance at the DB and SQL levels.
Requirements:
Essential:
Minimum 5 years experience as database administrator (DBA) for large enterprise level clusters.
Minimum 3 years experience as DBA supporting Big Data technologies (e.g., Hadoop, Spark, HBase, HDFS, Kafka, Zookeeper, MirrorMaker, Impala, Yarn), different data file formats, and NoSQL engines.
Experience in DBA production support on at least one of the following DBMS platforms: MongoDB, ArangoDB, or MarkLogic.
Expert communication, facilitation, and collaboration skills.
Ability to present, explain, and provide advice to partners, as a subject matter expert within the Hadoop and NoSQL space.
Experience in security configuration for Hadoop clusters using Kerberos or Sophia.
Competency in conceptualization, foresight, enterprise perspective, consensus building, technical problem-solving skills.
The ability to understand and adhere to firm incident, change, and problem management processes.
Strong skills in project management methodologies like Agile, Kanban, and DevOps.
Experience with ETL processes.
Experience in infrastructure architecture and engineering experience, including functional and technical requirements gathering, and solution development.
Bachelor's degree in computer science, computer engineering, or a related field, or the equivalent combination of education and related experience.

Advantage to those who also have:
Scripting skills in Python, Perl, Java, KornShell, and AWK.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8153543
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
You will work in an energetic startup environment following Agile concepts and methodologies. Joining the company at this unique and exciting stage in our growth journey creates an exceptional opportunity to take part in shaping data infrastructure at the forefront of Fintech and AI.

What you'll do:

Design, build, and maintain scalable data pipelines and ETL processes for our financial data platform

Develop and optimize data infrastructure to support real-time analytics and reporting

Implement data governance, security, and privacy controls to ensure data quality and compliance

Create and maintain documentation for data platforms and processes

Collaborate with data scientists and analysts to deliver actionable insights to our customers

Troubleshoot and resolve data infrastructure issues efficiently

Monitor system performance and implement optimizations

Stay current with emerging technologies and implement innovative solutions
Requirements:
3+ years experience in data engineering or platform engineering roles

Strong programming skills in Python and SQL

Experience with orchestration platforms like Airflow/Dagster/Temporal

Experience with MPPs like Snowflake/Redshift/Databricks

Hands-on experience with cloud platforms (AWS) and their data services

Understanding of data modeling, data warehousing, and data lake concepts

Ability to optimize data infrastructure for performance and reliability

Experience working with containerization (Docker) in Kubernetes environments

Familiarity with CI/CD concepts

Fluent in English, both written and verbal
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8152188
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: Or Yehuda
Job Type: Full Time
We are looking for a Sr. Data/Algorithm Infrastructure Engineer to join our growing Data/Algo infra team. This is a key position in the design and development of ML / AI / algorithmic infrastructure to support the development of our next generation iTero scanners.
Key Responsibilities

Own significant parts in the design and development of our data / MLops infrastructure to support the development of ML/AI models and Algorithmic features.
Take part in the design, development and optimization of algorithmic infrastructure components of ITero scanner.
Work with large clinical datasets to support the development of real-life ML/AI solutions which would make real impact on the wellbeing of patients.
Work with Algorithm and ML engineers to identify future challenges and possible solutions.
Own the quality of your code over time.
Consistently demonstrate innovative thinking, strong partnership and high work ethics.
Requirements:
BSc or higher degree in Computer Science/Electrical Engineering/equivalent with
8+ years of experience as a data engineer in a cloud environment or high-performance compute systems.
3+ years of experience working with large datasets of images / videos / 3D geometrical models.
Cloud development experience, preferably AWS.
Solid programming skills with Python and C++ a must
Ability to work independently and within a team in a fast-moving environment.
Fluency in English, spoken and written.
The following would make you stand out
Working experience with designing big data ETL systems.
Working knowledge in, at least one of the following, Spark, AWS Batch, AWS Lambda, AWS Fargate.
Working knowledge in Rust
Industrial experience developing image / video applications.
Working experience with 3D geometry processing / computer graphics.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8149668
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are searching for an innovative and experienced Senior Big Data Engineer that will join us and be part of our big data group.

As a Senior Big Data Engineer, you will:

Lead the architecture and development of mission-critical, diverse and large-scale data pipelines over both public and on-prem cloud solutions.
Derive policies for data storage and versioning over peta-bytes scale complex storage solutions of multiple data lakes.
Design and develop smart ML infrastructure in order to build Agile ML processes (MLOps).
Work with Data Scientists to understand needs and design ML infrastructure solutions
Be a part of a collaborative heterogeneous data team which includes developers, data scientists, data engineers, MLOps and data scouts.
Requirements:
BSc / MSc degree in Computer Science/ Engineering / Mathematics or Statistics
At least 5 years of experience working as a Data Engineer or Data Architect or ML Engineer
At least 3 years of experience working in high level software development, preferably in Python
Proven hands-on experience in designing, developing and optimizing complex solutions that move and/or manipulate large volumes of data
Sound understanding of different big data file formats such as Parquet, Arrow, HDF5, etc.
Experience with Docker, Linux, CI/CD tools and concepts, Kubernetes.
Experience with data pipelining tools such as Airflow, Kubeflow, MLFlow and similar technologies.
Hands-on experience with large-scale distributed computing systems and related technologies (e.g., Spark, Hive)
Understanding of ML concepts and processes.
Result oriented, self-motivated, fast learner, can do attitude and a great team player
Advantage:

Experience and understanding of various storage solutions (NFS, S3, software defined distributed storage, etc.)
Experience working with data versioning tools such as DVC, LakeFS, GitLFS or similar technologies.
Experience working with AWS data processing tools and concepts.
Experience with large, offline on-premises production deployments.
Experience with Pandas, Numpy, Jupyter notebook.
Hands-on experience in lower-level programming languages such as C++ or RUST.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8149524
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
22/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
XM Cyber is a global leader in hybrid cloud security. XM Cyber brings a new approach that uses the attacker’s perspective to find and remediate critical attack paths across on-premises and multi-cloud networks. The XM Cyber platform enables companies to rapidly prioritize and respond to cyber risks affecting their business-sensitive systems. We are seeking a talented and motivated Senior BI Analyst to build our Tableau environment from the ground up. The ideal candidate will have strong analytical skills, a deep understanding of data visualization principles, and the expertise to transform data into actionable insights. You will play a single and critical role in designing, developing, and implementing Tableau dashboards and reports that facilitate data-driven decision-making within our organization. Responsibilities:
* Environment Setup: Establish and configure the Tableau environment, including server setup, user access, and security protocols.
* Data Integration: Collaborate with data engineering and IT teams to gather, clean, and integrate data from multiple sources (Salesforce, MongoDB, APIs) into Tableau.
* Dashboard Development: Design, create, and maintain interactive and user-friendly
* Tableau dashboards and reports that meet the needs of various stakeholders across the organization.
* Data Modeling: Develop and document data models and schemas to ensure efficient data retrieval and analysis.
* Business Requirements Gathering: Work closely with business users to understand their reporting needs and translate them into technical specifications.
* Performance Optimization: Monitor and optimize the performance of Tableau reports and dashboards, ensuring they meet performance standards and are scalable.
* Training and Support: Provide training and support to end-users, guiding them on how to utilize Tableau for self-service analytics.
* Documentation: Maintain comprehensive documentation of the Tableau environment, data sources, dashboards, and user training materials.
* Continuous Improvement: Stay updated on the latest Tableau features and best practices, and continuously seek opportunities to enhance and optimize the reporting capabilities.
Requirements:
* 5+ years of experience with Tableau, including dashboard creation, data visualization, and server management.
* Strong understanding of data warehousing concepts, data modeling, and ETL processes.
* Proficiency in SQL and experience with databases like SQL Server, Oracle, MySQL, etc.
* Excellent analytical and problem-solving skills, with a keen attention to detail.
* Strong communication and collaboration skills, with the ability to work effectively with technical and non-technical teams - Must have
* Experience with Python for statistical analysis and modeling — an advantage.
* Bachelor’s degree in Computer Science, Data Science, Information Systems, or related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8146655
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
18/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Senior Data Platform Engineer to join our Data Platform team. The ideal candidate will have extensive experience with data engineering, specifically with Kafka and Elasticsearch, to design and maintain our data platforms. You will work closely with cross-functional teams to ensure the scalability and reliability of our data solutions.

Job Summary:
As a Senior Data Platform Engineer, you'll be responsible for design, development, maintenance, troubleshooting, and implementation of our big data architecture. Your expertise in Elastic, Kafka, and Java will be critical in ensuring the scalability and performance of our data systems.

What youll do:

Implement data processing pipelines using Kafka for real-time data streaming.
Optimize and manage search capabilities using Elastic technologies.
Collaborate with product managers, data analysts, and other stakeholders to gather requirements and translate them into technical specifications.
Oversee code reviews, ensure best practices in coding and data handling, and maintain high-quality standards in software development.
Stay up-to-date with emerging trends and technologies in big data and recommend improvements to our architecture and processes.
Troubleshoot and resolve issues in a timely manner to minimize downtime and ensure system reliability.
Requirements:
Bachelors degree in Computer Science, Engineering, or a related field; Masters degree preferred.
8+ years of experience in the software engineering field.
5+ years of experience in big data technologies, with a focus on Elastic and Kafka.
Proficiency in Java programming and experience with related frameworks.
Strong understanding of data modeling, ETL processes, and data warehousing.
Excellent problem-solving abilities and strong analytical skills.
A solid understanding of CI/CD principles.
Experience working with both external and in-house APIs and SDKs
Advantages:

Experience with Docker, Kubernetes
Experience with cloud platforms (e.g., AWS or Azure)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8142364
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We're looking for a Senior Data Engineer to help expand our cloud team's capabilities. Our team owns the central cloud services for the entire company, including a unique content management infrastructure that forms the core of our product. As a senior data engineer, you will work with cutting-edge technologies, designing and implementing advanced SaaS solutions and large-scale data processes. We seek someone who is self-driven, motivated, independent, and a strong team player.

Build and optimize scalable data pipelines and services, with a focus on performance and efficiency.
Drive new feature creation within complex data systems by gathering requirements, crafting robust architecture, and delivering high-quality solutions.
Collaborate with multiple teams across the company to ensure the integration of data-driven features and services.
Solve complex challenges in a fast-paced and evolving environment while maintaining high-quality standards.
Ensure system reliability and robustness through CI/CD pipelines, Agile Scrum methodologies, and proactive testing.
Requirements:
5+ years of hands-on experience in data engineering, data manipulation, and ETL development using tools like AWS, Node.js, and/or TypeScript.
Demonstrated expertise in designing and implementing large-scale data systems and pipelines.
Strong expertise in AWS or similar cloud platforms (S3, EC2, Athena, Glue, etc.), with a focus on deploying and optimizing data services.
Strong background in data manipulation, including ETL flows, big data processing, and data modeling.
Familiarity with Elasticsearch (Elastic) or similar search and analytics engines.
Excellent teamwork and communication skillsable to collaborate effectively in a cross-functional environment.
BSc in Computer Science/Engineering or equivalent industry experience.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8142208
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
17/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for an experienced Data Product Manager to work in our Data Product team within the Ad Network. As a Data Product Manager you will be responsible for finding ways to leverage data throughout the entire product lifecycle to improve our advertising solution. You will be responsible to balance the strategy, governance, and implementation of anything data-related, and facilitate the conversations between all impacted stakeholders (executives, engineers, analysts, other product teams and other data consumers).
This role is part of a small team of data products who are responsible for data flow and business logic across the organization from the raw data levels up until the consumption by reporting an ml processes. We re working on building and singular data pipeline and creating one source of truth for all the data while supporting ongoing needs for ml and reporting. This team is in the center of all projects and enables the organization to make data based decision.

What you'll be doing:
Define data flow.
Enhance existing data product (BI Portal, Aggregated data and other data products).
Translate requirements of large data initiatives into smaller actionable items.
Lead and motivate a team of data engineers.
Prioritize.
Communicate timelines to organization.
Key member in major projects (from kickoff until handover to business from a product/tech perspective).
Focal point across the company on data.
Increase data accessibility (surface data where people need it when they need it).
Increase data democratization (make it easier for people to manipulate the data).
Requirements:
What we're looking for:
At least 4 years of experience as a data product with big data.
Strong leadership, organizational and execution skills.
Exceptional communication skills.
Strong analytical and technical knowledge.
Knowledge and hands-on SQL experience.
You are passionate for solving complex technical issues and understand how great products work behind the scenes.
Self managing and follow through.
Understanding of data management principles.
Understanding complex systems and working with very technical colleagues.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8141978
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
17/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a highly skilled and experienced Senior Machine Learning Engineer to join our dynamic AI team. The ideal candidate will have a strong background in machine learning, data engineering, and software engineering, and will be responsible for leading the design, development, and deployment of cutting-edge machine learning pipelines and systems.
What you'll be doing
System Design and Architecture: Develop and maintain robust, scalable, and efficient ML pipelines including data collection, preprocess, and analyze large datasets to facilitate model training, evaluation and monitoring.
Research and Innovation: Stay current with the latest advancements in machine learning and AI, and apply innovative techniques to improve model performance and application.
Mentorship and Leadership: Provide technical guidance and mentorship to junior engineers and data scientists, and lead project teams to successful completion.
Cross-Functional Collaboration: Work closely with data scientists, software engineers, architects and product managers to integrate machine learning solutions into production systems.
Requirements:
What we're looking for:
Proficiency in programming languages such as Python or Java/Scala and experience with ML frameworks such as TensorFlow, PyTorch, and Scikit-Learn.
Hands on experience in streaming technologies (Kafka, Kinesis, SQS)
Expert in big data processing frameworks such as Apache Spark, Trino, Ray, Dask.
Data Lake management knowledge: table formats (Iceberg, Delta). Data-warehouses (Redshift, Big Query, Snowflake)
MLOps systems - Model registry, Experiment Tracking (MLFlow, W&B), Feature Store management (Feast, Tecton), Workflow management (Kubeflow, Airflow), Serving platform (Seldon Core, KServe, Ray Serve, Sagemaker).
Knowledge of microservices architecture and event-driven design.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8141802
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/04/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
Were building the future workforce of Technology organization, while working tightly with domain owners and top management to define what per-role excellence means, leveraging data from development tools to help infer proficiency levels, providing tailored development plans and training & learning material, and harnessing the individuals themselves for their professional and personal development.
Responsibilities:
Design, implement, and maintain the complete data flow, from extraction to visualization using external tools Work within a product team where solutions are collaboratively proposed. You will be expected to translate requirements into technical designs and implement them as part of large-scale data engineering solutions Utilize various Machine Learning models to explore data, collaborating with cutting-edge Big Data tools and techniques Collaborate with various stakeholders to plan, design, develop, TEST and maintain extraordinary features Collaborating with a team of skilled developers to develop high-traffic, cloud-based applications.
Requirements:
Qualifications:
At least 5 years of experience in Big-Data technologies as a data engineer, including ETL /ELT processes and data exploration.
At least 3 years of experience in building end-to-end data pipelines using Spark, Databricks or similar tools is required.
At least 3 years of experience in Python programming and SQL queries. Experience as a backend Developer - advantage.
Team player committed to the success of the team.
Strong verbal and written communication skills with the ability to clearly explain technical concepts.
Excellent debugging, investigating and problem-solving abilities.
Curious learner who loves sharing knowledge and best practices, and can work both independently and in a team.
Ability to thrive in a fast-paced, ambiguous, and changing environment.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8138977
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Lead process for setting data-driven goals, develop forecasting models to predict growth, and assess impact of high-priority growth initiatives and develop a long-term plan for enhancing Waze's attribution methodologies.
Monitor Waze's performance against goals, analyze root causes of deviations, and provide executive leadership with data-driven insights for informed decision-making.
Collaborate on in-depth analytical projects, uncover insights to drive product enhancements and improve user experience. Ensure Waze and Geo are aligned on key metrics, identify proxy metrics, and guide the design of new metrics to provide a comprehensive view of driving behavior across platforms.
Drive efforts in leveraging next generation data science capabilities to address new problem areas.
Serve as a thought leader within Waze and beyond, using data analysis and business acumen to shape product roadmaps, measurement strategies, and drive strategic decision-making.
Requirements:
Bachelor's degree in Statistics, Mathematics, Data Science, Engineering, Physics, Economics, or a related quantitative field.
8 years of work experience using analytics to solve product or business problems, performing statistical analysis, and coding (e.g., Python, R, SQL), or 5 years work experience with an advanced degree.

Preferred qualifications:
Advanced degree in Statistics, Mathematics, Data Science, Engineering, Physics, Economics, or a related quantitative field.
Proficiency with statistical packages (R or Python) to perform forecasting, segmentation, classification, and exploratory data analysis, in addition to gathering and processing data through standard querying languages (e.g., SQL).
Knowledge of statistics and commonly used statistical methods (e.g., hypothesis testing, regression, cohort analysis) and data visualization skills, including building dashboards and visualizations for business reviews and executive-level presentations.
Ability to translate product questions into problem solving frameworks and combining business acumen and statistics to arrive at an answer.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8135285
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: חיפה
סוג משרה: משרה מלאה
הצטרפו אלינו למשרת BIG DATA ENGINEER מאתגרת וחדשנית, בה תוכל/י לקחת חלק בניהול ותחזוקת פלטפורמות BIG DATA ולפתח תהליכים להנגשת נתונים חיוניים למערכות בארגון.
אם אתם בעלי עניין בתחום הביג דאטה ומעוניינים לעבוד עם טכנולוגיות מתקדמות זו הזדמנות מצוינת עבורכם לפתח ולהתפתח בסביבה דינמית ומתקדמת.

למי זה מתאים:
אנחנו מחפשים מועמד/ת בעל/ת רקע חזק בתחום ביג דאטה, עם יכולת עבודה בסביבות טכנולוגיות מתקדמות. אם יש לך ניסיון בעבודה עם פלטפורמות כמו Cloudera, והכרת כלים כמו Hadoop, Spark, Hive ו-Impala, תוכל/י לקחת את הקריירה שלך לשלב הבא.
התפקיד מתאים למי שמרגיש בנוח לעבודה עם נתונים בקנה מידה גדול, אוהב/ת לאתגר את עצמך, בעל/ת יכולת ניתוח מעמיקה ויכולת לתכנן ולהוביל תהליכים טכנולוגיים.
אם אתה/את מחפש/ת הזדמנות להוביל פתרונות מבוססי נתונים ולשפר תהליכים אנחנו מחפשים אותך

תיאור המשרה:
התפקיד כולל ניהול ותחזוקת פלטפורמות ביג דאטה ב- Cloudera ופיתוח תהליכי Data Pipelines לגזירת והנגשת נתונים למערכות בארגון.
תחזוקה, תפעול ואופטימיזציה של פלטפורמת Cloudera והמרכיבים השונים (Hadoop, Spark, Hive, Impala וכו').
פיתוח ותחזוקה של Data Pipelines מבוססי ETL ב- NiFiלהעברת נתונים ממקורות מגוונים.
ניטור תקלות, פתרון בעיות ושיפור מתמיד של תהליכים ותשתיות בשיתוף פעולה עם אנשי התשתיות
שיתוף פעולה עם צוותי BI, Data Science ליצירת פתרונות מבוססי נתונים
הפרטים
משרה מלאה, 8 שעות עבודה ביום ושעות נוספות לפי הצורך.
העבודה היא במשרדי חברת החשמל בחיפה
המשרה הינה היברידית, ולאחר השלמת 3 חודשי עבודה בפועל, העבודה תבוצע מרחוק בהיקף של יום עד יומיים בשבוע (והכל בכפוף לתנאי ההסדר הקיים בחברה בנושא).
חברת החשמל מעודדת התפתחות מקצועית
דרישות התפקיד
דרישות:
תואר ראשון במדעי המחשב / מערכות מידע / הנדסת נתונים / מתמטיקה /הנדסה - חובה
ניסיון של שנה לפחות כ- Big Data Engineer או תפקיד דומה
שליטה בטכנולוגיות ביג דאטה כגון: Hadoop, Spark, HDFS, Kafka
ניסיון בכתיבת שאילתות מורכבות ב-SQL ועבודה עם בסיסי נתונים NoSQL/ SQL
שליטה במערכת NiFi
יתרונות
הכרות עם כלי ETL נוספים ופיתוח ב- Python
ניסיון בעבודה עם פלטפורמות Cloudera ו/או Hadoop Ecosystem (Spark, Hive, HDFS, Impala)
ניסיון בניהול תשתית דאטה בסביבת לינוקס
ניסיון מעשי עם פלטפורמות ענןAWS/ Azure / Google Cloud
היכרות עם טכנולוגיות קונטיינרים כמו Docker / Kubernetes המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8133376
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו