רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל המידע למציאת עבודה
5 טיפים לכתיבת מכתב מקדים מנצח
נכון, לא כל המגייסים מקדישים זמן לקריאת מכתב מק...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
Matrix BI
דרושים בMatrix BI
מיקום המשרה: כפר סבא
הזדמנות חד פעמית לדריסת רגל בתחום פיתוח ה- BI!
חברת ה- data הגדולה בארץ מתרחבת ואתם מרוויחים!
MatrixDNA מחפשת אקדמאים שרוצים להצטרף למסלול הכשרה ייחודי כשבסופו ניתן יהיה להשתלב במגוון משרות פיתוח בתחום ה- data!
אז מה אנחנו מחפשים אתם שואלים?
אנשים מוכשרים בתחילת דרכם עם תשוקה לעולמות ה- data
בוגרי/ות תואר רלוונטי (מדעי המחשב/ הנדסה תעשייה וניהול/ ניהול מערכות מידע ) וקורס בעולמות ה- data.
הכשרה עם מיטב המרצים בנושאים: SQL,QLIK, ETL ועוד..
אז למה אתם מחכים?
דרישות:
המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8021350
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
בזק
דרושים בבזק
מיקום המשרה: חולון
סוג משרה: משרה מלאה
אפיון, תכנון והובלה של פרויקטים טכנולוגיים מרובי משתתפים ומתן מענה לחטיבות השונות בארגון,

מיפוי הצרכים עבור פיתוחים במטרה למקסם פוטנציאל עסקי.



1. פגישת היכרות עם הגורמים הרלוונטיים בארגון כדי להבין את האתגרים, המטרות והציפיות. כולל ניתוח של תהליכים נוכחיים וזיהוי אזורים לשיפור.
2. פגישות עם ספקים, ביצוע POC ובחירת ספק מתאים
3. פיתוח תוכנית מותאמת לפרויקט שנבחר בהתבסס על ההבנה של הצרכים והמטרות.
4. הובלת הבט טכנולוגי וקבלת החלטות על חומרה, מימוש, ענן / on prem, נושאי אבטחת מידע ועוד
5. ניהול סיכונים: ניתוח הסיכונים ודרכי ההתמודדות הכרוכים בשימוש בכלים אלה.
6. אינטגרציה בן הספק ללקוח.
דרישות:
ידע בתחום התעשייה: הבנה עמוקה בתחומי היישום של AI.

1. ידע מעמיק בניתוח מערכות ו/או פיתוח ובפרט בתחום ה-Machine Learning, Deep Learning, וטכנולוגיות AI.
2. ניסיון בפרויקטים: ניסיון בפיתוח ויישום פרויקטים מורכבים בתחום ה-AI.
3. יכולת ניהול והובלה: יכולת לנהל צוותים, לתכנן משאבים
4. יכולת חשיבה אסטרטגית
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8022434
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
ידיעות אחרונות
מיקום המשרה: ראשון לציון
סוג משרה: משרה מלאה
אם אתה/את חי/ה ונושם/ת נתונים, אוהב/ת לפצח בעיות מורכבות
ומחפש/ת הזדמנות לעבוד עם הכלים המתקדמים ביותר בעולם הדיגיטלי
הצטרף/י לצוות האנליסטים שלנו ב-YNET, הארגון המוביל בזירת המדיה הדיגיטלית!

כאנליסט/ית דאטה, תוביל/י תהליכים קריטיים בארגון:
תמדוד/י, תנטר/י ותחקור/י נתונים מקצה לקצה, כדי לספק את התובנות הכי מדויקות.
תעבוד/י בצמוד לגורמים בכירים ותתרגם/י נתונים לידע עסקי משפיע.
תפתח/י דשבורדים אוטומטיים ותפיק/י דוחות שינחו החלטות אסטרטגיות.
תבצע/י מחקרי חוויית משתמש ותשפר/י רכיבים דיגיטליים.
תשלב/י טכנולוגיות AI וענן מתקדמות להפקת תובנות חדשות.

ימים ושעות עבודה:
ימים א-ה (כולל יום עבודה מהבית)
עבודה בראשון לציון, שעות עבודה: 9:00-18:00.

למה כדאי לך/לך לעבוד איתנו?
ה-הזדמנות שלך לעבוד ב"ביה"ס" לנתונים בארגון טכנולוגי מהשורה הראשונה.
סביבה דינמית עם כלים מתקדמים וטכנולוגיות חדשניות.
אפשרות להוביל/הוביל פרויקטים שישפיעו ישירות על מליוני משתמשים.
תרבות עבודה שמקדמת מקצועיות, צמיחה ואיזון.
דרישות:
ניסיון של שנתיים לפחות עם Google Tag Manager - חובה
ניסיון של שנתיים לפחות עם GA4- חובה
שליטה ב-SQL ועבודה עם BigQuery.- חובה
ידע מעמיק ב-Excel ובכלי BI (Power BI/Looker)- חובה
כישורי ניתוח, הבנה עסקית ויכולת להגדיר KPIs- חובה
ניסיון בבניית דשבורדים, הבנה בהרגלי גלישה ובמתודולוגיות מחקר נתונים- חובה
ניסיון ב-Python, עבודה בענן (GCP), כלי ML/AI ו-A/B Testing. - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8007310
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
פרולוג'יק
דרושים בפרולוג'יק
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
לארגון ממשלתי בירושלים דרוש/ה מפתח/ת BI
מפתח/ת ה- BI יעסוק באפיון תהליכי קבלת החלטות, ביצוע תהליכי ETL ממחסני הנתונים ומקורות שונים, פיתוח מודלי מידע ודאשבורדים המרכיבים מערכת BI, עבודה עם מסדי נתונים, פיתוח אוטומציות והדמיית נתונים.
דרישות:
שליטה במערכות בסיסי נתונים (SQL ו-NoSQL)
כישורי ETL ו- data Integration
אינטגרציה וממשקים
ידע במידול נתונים-ERD ( data Modeling)
בניית DataWerHouse
הבנה וידע בכלי BI ודוחות (יתרון להכרות עם קליק סנס). המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8019476
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
שירז השמה והכוונת עובדים ומעסיקים
דרושים בשירז השמה והכוונת עובדים ומעסיקים
תנאים נוספים: מספר סוגים
מפתח/ת BI מנוסה לצוות ה BI בעבודה על תהליכי ה data והבאת ערך עסקי גבוה לארגון
הקמה ושיפור ביצועים בתהליכים קיימים וחדשים

היקף: א'-ה'
9 שעות עבודה ביום
דרישות:
פיתוח ותחזוקה של תהליכי BI עם ידע מעמיק ב SSRS,SSIS ו Stored Procedure
הובלת תהליכי BI מקצה לקצה כולל אפיון והבנת צרכים עסקיים ועד לבניית התוצרים
הכרות טובה עם מתודולוגית מחסני DWH
הכרות עם Power BI יתרון
ניסיון לפחות 3 שנים בפיתוח BI, חובה ניסיון מעמיק בכלי Microsoft SSIS,, SSRS, SQL ברמה גבוהה
יכולת פיתוח דוחות SSRS מורכבים
הבנה ויכולת בפיתוח קוביות Tabular יתרון
ידע מעמיק ב SQL, ו stored procedures עם יכולת ניתוח תלויות
היכרות וידע עם Power BI יתרון
יכולת למידה עצמית גבוהה, אחריות, וראש גדול
הבנה מעמיקה בארכיטקטורת data ומידול נתונים
יכולות ניתוח אנליטי והבנה עסקית גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8019198
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
מלם תים
דרושים במלם תים
מיקום המשרה: ירושלים
למשרד ממשלתי בירושלים דרוש מנהל /ת פרוייקטי data מנוסה.
במסגרת התפקיד ניהול פרוייקטים BI / DWH ו- Big Data, ישיבה עם לקוחות כולל קבלת דרישות עסקיות ואפיון, הנעת צוותים להשגת יעדים.
כמו כן,  ניהול פגישות וישיבות טכניות עם צוותים וספקים שונים, דיווח להנהלה לגביי לו"ז, תקציב, כ"א ועוד.
דרישות:
מה תביאו איתכם?
- 8 שנות ניסיון בניהול פרוייקטים טכנולוגיים, מתוכן 4 שנים בתחום ה- data.
- תואר ראשון במדעי המחשב/ הנדסת תעשייה וניהול/ מערכות מידע / תואר ראשון כלשהו אחר + קורסים בתחום מערכות מידע בהיקף 300 שעות.
- ידע וניסיון עם מתודולוגיות BI בסביבת מחסן נתונים  DWH (בסביבות On Prem וענן), הבנה מעמיקה של טכנולוגיות Big Data.
- ניסיון בעבודה עם מערכות מורכבות, ידע במסדי נתונים SQL, Oracle, MongoDB
- ניסיון בניהול מטריציוני, עבודה מול ממשקים מגוונים (לקוחות, ספקים חיצוניים) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7942658
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
נס טכנולוגיות
דרושים בנס טכנולוגיות
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
ל-NESS דרוש/ה מפתח/ת data  
התפקיד כולל אפיון ויישום של פתרונות ועוד. 
משרה מלאה, תל אביב.
דרישות:
נסיון של שנה בפיתוח data - חובה
נסיון בSQL- חובה
ידע בHANA STUDIO המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7973811
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
לפני 23 שעות
Location: Jerusalem
Job Type: Full Time
We are looking for an experienced data leader to join our Data engineering group at our company. The Data Engineering group at our company is responsible for providing the technological solutions that best fits the business needs as reflected by the different data producers and consumers within the company, including product teams, BI analysts, marketing analysts, finance, data scientists, other backend teams and more.
What you will be doing
Reporting directly to the COO and part of the data leadership.
Work together with the different data producers and data consumers within the company and the data organization in order to understand their needs and work processes regarding their data and API needs and limitations.
Develop a deep understanding of the companys vision and strategic planning and mak
sure our data infrastructure is built to support the same ideas.
Identify bottlenecks in internal data processes and work to resolve them by planning and delivering technological solutions such as automating processes, optimizing data delivery and storage, re-designing infrastructure for greater scalability, integrating external tools etc.
Integrate new tools and solutions that can empower the companys data consumers and help assimilate them.
Lead a team of senior data engineers in providing a set of technological solutions best fitting with business needs.
Have full responsibility over data compliance in the organization and lead the design and implementation of data compliance and privacy processes.
Requirements:
4+ years of experience in leading and mentoring a technical team of engineers, leading technical projects, understanding business needs and working with cross-functional teams in a dynamic environment.
5+ years hands-on proven experience designing, building and optimizing scalable and highly available data-intensive systems.
Experience designing and building data-intensive architecture.
Experience managing payloads running on a major cloud provider.
Experience developing in Java, Scala, Python or any other major programming language.
Experience supporting and working with cross-functional teams in rapidly changing stacks and environments.
Familiarity with global privacy and security regulations and certification process (GDPR,CCPA, SOC, etc.) as well as an understanding of privacy best practices.
Preferred Requirements
Functional programming and streaming systems experience, including hands-on experience designing, building and optimizing stream processing (Flink, Storm, Spark Streaming etc.) or functional systems.
Experience with SQL, data modeling, and relational database as well as a deep understanding of ETL and data warehousing concepts, methodologies, and frameworks.
Experience working with data-science and research teams or equivalent MLOps tooling experience.
Experience running payloads at major scale, handling tens of thousands of events per second and dozens of sources.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8026687
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
לפני 23 שעות
Location: Jerusalem
Job Type: Full Time
We are seeking an experienced Data Engineer to join our Data Platform Engineering group at our company. This group is responsible for providing the technological solutions that best fit the business needs of various stakeholders, including product teams, BI analysts, marketing analysts, finance, data scientists, backend teams, and more.
What you will be doing
Build and own the infrastructure and services required for processing and storing data from a wide variety of sources, including mobile apps and internal/external data producers.
Design and build processes to integrate a wide range of edge systems across multiple cloud providers and handheld platforms reliably.
Assist data consumers across our company in defining requirements and refining existing processes using a wide variety of tools.
Define and own the systems and processes that deliver data to the data warehouse, while maintaining these systems and the warehouse itself.
Identify bottlenecks in internal data processes and resolve them by automating workflows, optimizing data delivery and storage, and redesigning infrastructure for greater scalability.
Integrate new tools and solutions to empower the companys data consumers and help assimilate them effectively.
Requirements:
5+ years of experience with Python, Scala, Java, or other modern programming languages.
2+ years of hands-on experience designing, building, and optimizing data-intensive distributed systems.
2+ years of experience managing workloads on a major cloud provider.
Proven experience working with cross-functional teams in rapidly evolving stacks and environments.
Hands-on experience with one or more major cloud platforms (AWS, GCP, Azure).
Expertise in Big Data technologies, including Flink, Spark, Kafka, Hive, and Airflow.
Functional programming and streaming systems experience, including designing, building, and optimizing stream processing systems (e.g., Flink, Storm, Spark Streaming).
Strong knowledge of SQL, data modeling, and relational databases, as well as a deep understanding of ETL and ELT processes.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8026686
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
2 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
This role is embedded within our Analytics department and requires a blend of analytical prowess, creative thinking, cross-functional collaboration, and the responsibility to challenge and innovate upon current AB testing methods. Success in this role directly impacts our product, monetization & marketing goals, and we reward results-driven performance.

To ensure success, you should be skilled at designing and analyzing AB tests, writing & debugging SQL & Python scripts, implementing advanced statistical methodologies, and passionate about optimizing business processes across all departments. You should also be able to lead & instruct other Analytics personnel to tailor AB testing solutions to different markets, scenarios, products, and goals.

Responsibilities
Standardization & Optimization:

Establish contingency plans and backup strategies to mitigate unforeseen challenges or failures during AB testing, ensuring the smooth execution of planned tests.
Conduct training sessions and workshops to disseminate technical knowledge and foster a culture of analytical excellence in AB testing across the department.
Lead the implementation of standardized AB testing processes and systems to ensure collaboration and synergy (Pycharm & BQ, Mixpanel, Jira, AppEvents Structure, etc.).
Establish quality assurance protocols for AB testing and reporting, ensuring consistency and accuracy throughout the company's analytics practices.
Facilitate the documentation of AB testing methodologies, frameworks, and best practices to promote knowledge sharing within the department (Confluence, Showcase, User Stories, etc.).
Hands-On Complex Cross-Department Projects:

Lead AB testing projects across various departments, ensuring alignment with organizational objectives and timelines.
Design, implement, and analyze complex AB tests to extract meaningful insights and trends, leveraging various analytics tools and methodologies.
Provide technical guidance and support to all data professionals in navigating complex technical and analytical challenges related to AB testing, enabling them to deliver high-quality solutions.
Innovation:

Drive innovation within the AB testing framework by exploring emerging technologies and methodologies, recommending their adoption where appropriate to enhance efficiency and effectiveness.
Collaborate closely with all department teams to understand their unique data requirements, ensuring that AB testing solutions are tailored to the diverse business needs.
Requirements:
Significant experience in AB testing analysis and leadership, preferably in a B2C company.
At least 5+ years of hands-on work experience analyzing large datasets in data-related roles.
Significant experience in SQL & BI Visualization tools (Tableau/Looker).
Experience with Python Analysis (Pandas, SciPy, NumPy, Matplotlib, Seaborn).
2+ years of direct management experience of Business Analysts - Advantage.
2+ years of work experience in a project/product management role - Advantage.
B.A. / B.Sc. in Industrial Engineering, Math, Statistics, Computer Science, or an equivalent background.
Previous experience in the gaming industry Big Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8024409
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
2 ימים
Location: Merkaz
Job Type: Full Time
Lead Big-Data Engineer - Cloud Engineering Platform Team We are looking for a Lead data Engineer to join the CTO Developer Experiences Platform Team to lead the implementation of the vision to build data Lake House & MLOps on the AWS cloud. On top of that the platform engineers are helping the product innovation team to build Generative AI experiences across products and services. You have an amazing opportunity to be part of the Generative AI revolution and build Generative AI products and services.
What are some of the things you do on a day-to-day basis? Plan and build data Lake House in the AWS cloud based on future technologies most companies will use in only 3-5 years. Have end to end ownership: Design, develop, deploy, measure and maintain our data platform. Solve production issues in the framework code. Collaborate with 40+ data engineers/scientists, understand their functional needs and wants and build products to accelerate their productivity and quality of work. Research and build Generative AI services and applications. Lead and mentor data engineers, providing guidance and fostering a culture of continuous learning and professional development. Participate in the software engineering, processes and standards with an impact on the whole delivery organization. Communicate complex architectural concepts and recommendations effectively to both technical and non-technical stakeholders. Help the in analyzing and adopting new technologies including assessing and embedding startup technologies.
Requirements:
Previous experience in data engineering and familiarity with AWS databases services like RDS, SPARK, Glue, OpenSearch and more. 5+ years experience developing large scale distributed data systems and services, experience in Big Data tools. 5+ years of working experience with AWS Cloud and services. 5+ years of expertise in the Software design and architecture process. Experience with SQL and No-SQL. Has at least 3 + years of software or data engineering development experience in one or more of the following programming languages: Python, JAVA, or Scala. Production systems understanding. Has good understanding and experience of CI/CD practices and Git, including MLOps practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7979707
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
פורסם ע"י המעסיק
4 ימים
Location: Sharon
Job Type: Full Time
Join Abra's DATA Team as a Data Engineer! Responsibilities
* Develop and maintain ETL processes within Azure environments
* Manage cloud-based data infrastructure, ensuring scalability and performance
* Design and build scalable data warehouses to support data-driven decision-making
* Develop AI-based solutions integrated with data systems
* work daily base with cutting-edge cloud data technologies and AI-based solutions.
Requirements:
* At least 3 years of experience in BI, with a focus on database development
*  Hands-on experience with non-relational data sources like JSON and working with APIs
*  Advanced SQL skills, including complex queries, performance tuning, and working with dynamic SQL and loops
* Experience in Azure or AWS environments
*  Experience with Python
* Strong problem-solving skills and the ability to self-learn new technologies
* Knowledge of Big Data architecture in the cloud (e.g., Data Lakes, parallel job execution)- -Advantage
* Familiarity with Power BI for data modeling- -Advantage
* Familiarity with AI models- -Advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7962047
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
פורסם ע"י המעסיק
12/01/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
XM Cyber is a leading hybrid cloud security company that's changing the way organizations approach cyber risk. XM Cyber transforms exposure management by demonstrating how attackers leverage and combine misconfigurations, vulnerabilities, identity exposures, and more, across cloud and on-prem environments to compromise critical assets. With XM Cyber, you can see all the ways attackers might go, and all the best ways to stop them, pinpointing where to remediate exposures with a fraction of the effort. XM Cyber is looking for a talented Senior Big Data Engineer ! Join a team of experts responsible for developing innovative features that integrate into XM Cyber's fully automated attack simulation. This role provides the opportunity to design & implement advanced server-side features using a wide range of technologies: Apache Spark, K8s, Airflow, MongoDB, Kafka, Dockers If you are up for the challenge and you have the 'XM factor', come and join us!
Requirements:
* 3+ years of experience in Backend / Big data software development
* 2+ years of experience in Spark
* Experience working in high scale environments developing big data pipelines
* Experience with Airflow + Spark K8s operator - Advantage
* Experience in Scala - Advantage
* Relevant Cyber Security experience - Advantage
* Experience with graph processing - Advantage
* BSc. in Computer Science, Engineering, or equivalent
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7955382
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
02/01/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a Senior Data Engineer to join our dynamic data team. In this role, you will design, build, and maintain robust data systems and infrastructure that support data collection, processing, and analysis. Your expertise will be crucial in developing scalable data pipelines, ensuring data quality, and collaborating with cross-functional teams to deliver actionable insights.

Key Responsibilities:

Design, develop, and maintain scalable ETL processes for data transformation and integration.
Build and manage data pipelines to support analytics and operational needs.
Ensure data accuracy, integrity, and consistency across various sources and systems.
Collaborate with data scientists and analysts to support AI model deployment and data-driven decision-making.
Optimize data storage solutions, including data lakehouses and databases, to enhance performance and scalability..
Monitor and troubleshoot data workflows to maintain system reliability.
Stay updated with emerging technologies and best practices in data engineering.
Requirements:
5+ years of experience in data engineering or a related role within a production environment.
Proficiency in Python and SQL; experience with Javascript/Typescript is a plus.
Experience with both relational (e.g., PostgreSQL) and NoSQL databases (e.g., MongoDB, Elasticsearch).
Familiarity with big data AWS tools and frameworks such as Glue, EMR, Kinesis etc.
Experience with containerization tools like Docker and Kubernetes.
Strong understanding of data warehousing concepts and data modeling.
Excellent problem-solving skills and attention to detail.
Strong communication skills, with the ability to work collaboratively in a team environment.
Preferred Qualifications:

Experience with machine learning model deployment and MLOps practices.
Knowledge of data visualization tools and techniques.
Practical experience democratizing the companys data to enhance decision making.
Bachelors degree in Computer Science, Engineering, or a related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8003827
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
01/01/2025
Location: Tel Aviv-Yafo
Job Type: Full Time
At our company, we are revolutionizing the insurance industry with the world's first Marketing OS - a comprehensive solution tailored to the unique marketing and distribution needs of insurance organizations.
Our intelligent solutions combine the power of AI, machine learning, and real-time data to reshape marketing strategies and drive profitable growth for top insurers.
Founded in 2015 and headquartered in Israel, our partners with leading US insurance companies, helping them uncover hidden growth opportunities and optimize their marketing budgets with unparalleled precision and efficiency.
We are looking for a Skilled Data Engineer who is passionate about handling data infrastructure, pipelines, and systems with strong problem-solving abilities while collaborating with multiple teams and playing a key role in their core team.
Responsibilities
Establishing robust and scalable data pipelines for acquiring, processing, and storing large volumes of data- from the Design stage, construction, install, test, and maintenance
Designing a scalable and flexible architecture that can grow with the company, supporting various use cases, therefore involves working closely with data analysts and stakeholders to understand requirements and design appropriate solutions.
Build and manage data warehouses and data lakes for storage and analysis of large dataset-choosing appropriate technologies, setting up storage solutions, and ensuring data accessibility and security.
Integrate various data sources (both structured and unstructured) into a unified data platform. This involves leveraging technologies like ETL (Extract, Transform, Load) processes or real-time streaming platforms
Design and implement data models, schemas, and database structures optimized for performance, scalability, and reliability. Knowledge of SQL and NoSQL databases is essential.
Develop and implement data quality processes to ensure accuracy, completeness, and consistency of data.
Monitor and optimize data infrastructure performance, identify and resolve bottlenecks, and ensure systems meet data availability and latency SLAs.
Implement security measures to protect sensitive data.
Work closely with cross-functional teams including data analysts and software engineers to understand data requirements and provide technical support
Stay updated with emerging technologies and best practices in data engineering, evaluating and incorporating new tools and techniques to enhance data infrastructure and processes.
Requirements:
Bachelor's degree in Computer Science, Engineering, or a related field.
At least 5 years of experience in data engineering, with a focus on infrastructure and research and development.
Proficiency in Python for data manipulation and script automation.
Advanced knowledge of SQL, including relational and columnar databases (e.g., Redshift, RDS) and data modeling.
Experience working with cloud platforms such as AWS, Azure, or GCP, with in-depth knowledge of AWS services for scalable and secure cloud-based solutions.
Familiarity with Big Data technologies and frameworks, such as Spark or Databricks.
Hands-on experience in building and optimizing data pipelines, architectures, and datasets.
Proven experience with Airflow for workflow orchestration and automation of data pipelines.
Strong problem-solving skills with great attention to detail.
Excellent communication and presentation skills, including experience working with external customers in dynamic environments.
Proven ability to collaborate effectively in cross-functional teams.
A team player who is eager to train others and learn from colleagues.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8001378
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
01/01/2025
Location: Petah Tikva
Job Type: Full Time
We are interested in welcoming a Big Data Expert to our diligent Big Data team and take overall responsibility for developing, executing, and maintaining strategy and workflow while anticipating possible consequences, changes, and trends.
We believe that the perfect candidate possesses excellent leadership, communication, and social skills to build an effective and motivated team, utilizing the full potential of the skills and expertise of each member.

Responsibilities and tasks include:
Implementation, tuning and ongoing administration of Big Data infrastructure on Hadoop cluster and other NoSQL platforms
Managing end-to-end availability, monitoring performance, and planning capacity using a variety of open source and developed toolsets
Research and perfect best practices to support implementation of new features and solutions in Big Data and NoSQL space
Perform all levels of DBA support (e.g., plan and coordinate patching/upgrades)
Manage database backup and recovery
Troubleshoot and resolve database/application issues in a timely manner, tuning performance at the DB and SQL levels
Requirements:
Minimum 5 years experience as database administrator (DBA) for large enterprise level clusters
Minimum 3 years experience as DBA supporting Big Data technologies (e.g., Hadoop, Spark, HBase, HDFS, Kafka, Zookeeper, MirrorMaker, Impala, Yarn), different data file formats, and NoSQL engines
Experience in DBA production support on at least one of the following DBMS platforms: MongoDB, ArangoDB, or MarkLogic
Expert communication, facilitation, and collaboration skills
Ability to present, explain, and provide advice to partners, as a subject matter expert within the Hadoop and NoSQL space
Experience in security configuration for Hadoop clusters using Kerberos or Sophia
Competency in conceptualization, foresight, enterprise perspective, consensus building, technical problem-solving skills
The ability to understand and adhere to firm incident, change, and problem management processes
Strong skills in project management methodologies like Agile, Kanban, and DevOps
Experience with ETL processes
Experience in infrastructure architecture and engineering experience, including functional and technical requirements gathering, and solution development
Bachelor's degree in computer science, computer engineering, or a related field, or the equivalent combination of education and related experience
Advantage to those who also have:

Scripting skills in Python, Perl, Java, KornShell, and AWK
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8001319
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
01/01/2025
Location: Kiryat Ono
Job Type: Full Time
We are seeking a talented and senior Engineer to join our Big Data Analytics Tools group in Israel.

This is an amazing opportunity to work with a world-class team and to hold responsibility for designing and implementing big data platforms and pipelines.

You will work with Engineers, Data Scientists, DevOps, and PMs and be in charge of designing and developing Apache Spark applications on AWS infrastructures that process large volumes of medical records securely while preserving patient privacy.

If you want to grow with us and work for a world leader company, now is the right time to join.
What You'll Do
Be part of an engineering team that focuses on Crossix core technology and peripheral analytical tools
Design and implement highly reliable and scalable Spark applications that efficiently process big data
Collaborate with data scientists on the design and implementation of ML data pipelines using PySpark and Python
Integrate with relational databases, MongoDB, and AWS services (e.g., EMR, S3, SQS)
Work in an agile team to improve the development life cycle, development practices, and testing facilities
Requirements:
Requirement:
8+ years of programming experience in server-side components/backend technologies.
2+ years of experience in Big Data development.
5+ years of experience with Java.
B.Sc. in Computer Science or equivalent.
Team player.

Nice to Have:
Experience with Python and PySpark.
Deep understanding of NoSQL databases such as Elasticsearch and MongoDB.
Significant experience with both EMR and EMR Serverless, as well as other big data processing engines on cloud infrastructures.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8001189
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
פורסם ע"י המעסיק
26/12/2024
מיקום המשרה: ראשון לציון
סוג משרה: משרה מלאה
בנק דיסקונט מגייס CDO, בעל.ת אחריות על הובלה עסקית של תחום הדאטה וה-AI! תחומי אחריות:
* פיתוח והובלת אסטרטגיית הדאטה של הבנק, הן בראיה עסקית והן בראיית רגולציה. יישום רגולציית הGDPR.
* גיבוש Roadmap עסקי לשילוב פתרונות מבוססי בינה מלאכותית התומכת באסטרטגיית הבנק.
* אחריות על מעבדת הנתונים של הבנק.
דרישות:
דרישות התפקיד: • ניסיון משמעותי בתפקידי ניהול בכירים בתחום אסטרטגיית הדאטה וה-AI • ניסיון בפיתוח והטמעה של אסטרטגיות דאטה בארגונים גדולים, כולל שימוש בטכנולוגיות AI. • היכרות מעמיקה עם כלי ניתוח נתונים, למידת מכונה, Big Data וטכנולוגיות AI שונות. • כישורי מנהיגות והובלת צוותים מגוונים ומקצועיים. • יכולות אנליטיות גבוהות, חשיבה אסטרטגית , פתרון בעיות מורכבות. • כישורים בין-אישיים מעולים ויכולת עבודה בסביבה דינמית ומשתנה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7933705
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
25/12/2024
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for an experienced Backend Developer to join our data group.
Job Id: 20811
As a member of the team you will be a part of a fast, highly-scalable and fully managed data platform which handles terabytes of data per day in a cloud environment.
We are looking for an engineer who will work with multiple technologies stack: Kafka (Azure Event Hub), Kubernetes, Function Apps, Azure Data Explorer, MongoDB, etc.
Using several coding languages like Golang, NodeJS (TypeScript), and Python.
We are required to write efficient code that supports large-scale distributed systems.
Key Responsibilities:
Design and build new solutions/features to help our customers improve their cloud security.
Get experience with new technologies and languages, develop challenging solutions, and have a great opportunity to grow and create impact.
Constantly Improve existing implementations.
Adapt and take on more responsibilities and own your share of the product.
Work with product managers, business, and other teams.
Requirements:
At least 3 years of experience as a backend/Big Data developer.
Excellent with at least two of the languages NodeJS (TypeScript)/Python/Golang.
B.Sc Graduate in Computer Science or related engineering degree.
Azure cloud environment experience- an advantage.
Large-scale production data experience- an advantage.
We are looking for a team player that will integrate well with our team.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7992633
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
18/12/2024
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
דרוש/ה Data Architect
תיאור משרה:
הגדרה ותמיכה בארכיטקטורות מידע עבור פרויקטים בתחומים מגוונים כמו cyber, שיווק פננסים וכו`..
תכנון וחשיבה אסטרטגית על פעילות הדאטה בארגון והתאמת פתרונות טכנולוגיים לדרישות עתידיות.
בניית תהליכי עבודה, מתודולוגית וסטנטרדיזציה המותאמים לעולם פיתוח מודלים, הדאטה ולסביבת עבודה ארגונית.
עבודה מול ספקי מידע, מנהלי פרויקטים, אנשי Science Data וData Analyst בארגון לצרך התאמת ומתן מענה לדרישות עסקיות בארגון.
עבודה עם כלים וטכנולוגיות מתקדמות בתחום הLearning Machine
והBig Data ביצוע מחקרי שוק בחינת כלים משלימים לעולמות ביג דאטה ופיתוח מודלים.
דרישות:
מינימום 4 שנות ניסיון והתמחות מעשית בניהול מאגרי מידע גדולים - חובה
מינימום 4 שנות ניסיון מוכח בניהול ותפעול מערכות בסביבת BIG DATA - חובה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7983892
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
15/12/2024
Location: Ramat Gan
Job Type: Full Time
we are looking for a senior developer to join a new big-data analytics team as part of our data platform.
The autonomous vehicle project generates huge amounts of data and our challenge is to enable it for usage by the entire organization (Deep Learning /Machine Learning Developers, Product Managers, Analysts, and more.)
We are using a top-notch tech stack to solve problems multiple databases and big data frameworks, data streaming, AWS infrastructure on a large scale, and many more.
What will your job look like:
Work on a large-scale system from early stages and watch it evolve
Take part in the design & development of a multi-service cloud-based big data platform
Evaluate various optional technologies and take part in the decision-making
Own key features and services
Requirements:
BSc. in Computer Science- must
5+ years of software development experience- must
Strong skills in Python- must
Experience with big data frameworks & solutions (Spark/Presto/Athena/Trino or similar)
Experience with databases (relational and schema-less) and efficient data modeling
Experience with containerized services
Advantages:
Experience with AWS
Experience in developing backend services with known frameworks (Django, Flask, or any similar)
Experience with Kafka or similar streaming/messaging platforms
Knowledge with web development concept (HTML, CSS and Javascript).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7978734
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
נאספה מאתר אינטרנט
13/12/2024
Location: Jerusalem
Job Type: Full Time
We are seeking a skilled and motivated Data Engineer to join our dynamic team. The ideal candidate will have extensive experience in building and optimizing data pipelines, handling large datasets, and working within cloud-based and on-premise environments. You will be responsible for designing and implementing efficient, scalable solutions to manage, process, and analyze high volumes of data, ensuring the reliability and performance of our data infrastructure.
What will your job look like:
Design, build, and maintain scalable data pipelines to process large datasets efficiently.
Develop and implement data models and architectures that support both real-time and batch data processing.
Ensure data integrity, security, and accuracy across all systems.
Collaborate with data scientists, analysts, and other engineers to ensure data availability and quality.
Optimize data retrieval and storage processes to handle large volumes of data seamlessly.
Work with structured, semi-structured, and unstructured data, integrating various data sources.
Troubleshoot and resolve data issues, ensuring continuous operation of the data infrastructure.
Maintain and enhance ETL processes, ensuring scalability and performance in handling large datasets.
Stay up-to-date with industry best practices and emerging technologies related to big data engineering.
Requirements:
Bachelors degree in Computer Science, Engineering, or a related field.
At least 4 years experience in data engineering, with a focus on large-scale data processing and big data technologies.
Strong proficiency in programming languages such as Python.
Experience with data pipeline and workflow management tools
Hands-on experience with large-scale data processing frameworks like Apache Spark, Hadoop, or similar.
Familiarity with data modeling, ETL processes, and data warehousing concepts.
good knowledge of relational databases (e.g., PostgreSQL, MySQL) and NoSQL databases (e.g., Cassandra, MongoDB).
Significant leadership ability
Experience in building teams and processes from scratch
Nice to have:
Experience working with real-time data streaming technologies (Kafka, Flink).
Knowledge of machine learning frameworks and integrating data pipelines for model training and deployment.
Experience with version control systems (e.g., Git), CI/CD pipelines, and automation tools.
Experience with containerization (Docker, Kubernetes) is a plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
7977845
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו