רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 29 דקות
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה באזור הצפון מגייסת data Engineer
התפקיד כולל: פיתוח והטמעה של תהליכי data Pipeline והזרמת מידע בין מערכות שונות, יישום לוגיקות עסקיות בפלטפורמת Splunk, התממשקות למערכות נוספות ועוד.
דרישות:
- שנתיים ניסיון כ- data Engineer
- ידע וניסיון בעבודה עם מערכות Linux
- שליטה בשפות Scripting כגון: Python וShell
- הכרות עם מימוש יישומים מבוססי דאטה
- ניסיון בעבודה עם Splunk - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8645170
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בTOP SOFT טופ סופט - השמה ומיקור חוץ
מיקום המשרה: מספר מקומות
לפרויקט אסטרטגי וחדשני בתחום הדאטה והענן דרוש/ה מנהל /ת פרויקט בכיר/ה עם ניסיון משמעותי בהובלת פרויקטים טכנולוגיים מורכבים בעולמות ה- data וה-Cloud.
מה בתפקיד?
הובלת הקמת פלטפורמת data ארגונית בענן GCP
ניהול ממשקים מול תשתיות, אבטחת מידע, BI, פיתוח, רכש וספקים
עבודה Hands-On הכוללת פיתוח data Pipelines ב-Dataform מעל BigQuery
תכנון והטמעת data Lake / data Warehouse ותהליכי data Governance
ליווי מיגרציה מסביבות On-Prem לענן וניהול סיכונים וחסמים
הצגת סטטוסים והובלת תהליכים מול הנהלה בכירה
דרישות:
תואר ראשון - חובה
לפחות 6 שנות ניסיון בניהול פרויקטי data טכנולוגיים
לפחות 4 שנות ניסיון בניהול מנהלי פרויקטים
ניסיון בעולמות Development / Infrastructure / data Engineering - חובה
ניסיון בעבודה עם Cloud ו-AI - חובה
הבנה מעמיקה ב-ELT/ ETL, data Modeling ומסדי נתונים
ניסיון עם BigQuery או data Warehouse גדול - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8650578
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בCrowdStrike
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
As a global leader in cybersecurity, CrowdStrike protects the people, processes and technologies that drive modern organizations. Since 2011, our mission hasnt changed - were here to stop breaches, and weve redefined modern security with the worlds most advanced AI-native platform. Our customers span all industries, and they count on CrowdStrike to keep their businesses running, their communities safe and their lives moving forward. Were also a mission-driven company. We cultivate a culture that gives every CrowdStriker both the flexibility and autonomy to own their careers. Were always looking to add talented CrowdStrikers to the team who have limitless passion, a relentless focus on innovation and a fanatical commitment to our customers, our community and each other. Ready to join a mission that matters? The future of cybersecurity starts with you.

What You'll Do:
You'll be responsible for processing vast amounts of customer data to create meaningful conclusions that help customers:
Discover misconfigurations, security risks, and compliance violations in cloud environments
Identify and prioritize security risk issues that require immediate attention
Gain valuable insights into their cloud resources and assets to enable faster, more effective investigations
Understand the potential risks associated with their assets and cloud environment
Make data-driven security decisions based on comprehensive analysis of their environment

Responsibilities include:
- Develop ETL jobs to gather data from multiple sources and provide insights into various product areas
- Building data warehouses where large amounts of metrics and data will be stored
- Interacting with many product groups within the organization to collect key metrics via APIs, Kafka integrations or direct data access
- Participation in configuring and receiving uptime alerts related to the services you control.
- Keeping services up and running in a healthy state.
Requirements:
- 6+ years experience in programming, Golang and Python are our preferred languages.
- Knowledge on services with at least two Cloud providers out of Aws, Azure and GCP.
- Experience developing and consuming RESTful API web services.
- Experience interacting with major cloud providers, mainly Amazon Web Services (AWS), as well as Azure and Google Cloud (GCP).
- Understanding data structures and a key-value distributed caching solution, such as Redis.
- Experience using RDBMS databases, and accompanying knowledge of SQL.
- Experience with data modeling and Extract-Transform-Load (ETL) concepts.
- Bachelor's degree or equivalent work experience. Proficiency with common algorithms, data structures, code whiteboarding.

Bonus Points:
- Experience with analytical databases
- Understanding data structures and various APIs, for full-text search of application logs and event data in Elasticsearch.
- Experience with Cassandra, CQL, and its wide-column store database.
- Experience using graph structures (ie. nodes, edges), graph data, and graph databases.
- Experience using a message queue. Kafka is preferred.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8611385
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 19 שעות
דרושים בOne DatAI
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
A leading company is looking for a Mid-Senior BI Developer to join a strong and dynamic BI team.


The team is responsible for delivering end-to-end BI solutions across the organization, transforming data into actionable insights and enabling data -driven decision-making at scale.


This role involves working with a wide range of technologies in both Cloud and On-Prem environments, supporting thousands of users.

?? Responsibilities

* Lead end-to-end BI projects - from business requirements gathering, through design and ETL / data preparation, to dashboard development, testing, and deployment
* Work in a hybrid environment combining Cloud and On-Prem tools and services
* Develop using tools such as Power BI, Qlik (View & Sense), Power Apps, and Semantic Layers
* Collaborate closely with business stakeholders to translate requirements into data models, reports, dashboards, and KPI's
Requirements:
?? Requirements


* B.Sc in Computer Science, Industrial Engineering, Information Systems, or a related field
* 4+ years of hands-on experience in BI development (including ETL and dashboard development)
* Strong experience with Power BI - (Must)
* Expert-level SQL - Must
* Experience working with data Warehouses ( DWH ) - Must


?


? Advantages


* Experience with Qlik
* Experience with Cloud environments
* Experience with ETL tools
* Knowledge of Python and/or Splunk
* Experience working with Agile methodologies
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8639916
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 19 שעות
דרושים בJob space
לצוות המומחים שלנו דרוש/ה data Engineer מנוסה ב-Talend, בעל/ת זיקה לניהול פרויקטים ועבודה מול לקוחות. התפקיד משלב עשייה טכנולוגית עמוקה (Hands-on) עם הובלת פרויקטים אצל לקוחות אסטרטגיים של החברה.

במסגרת התפקיד
- פיתוח ETL /ELT: תכנון, פיתוח ותחזוקה של תהליכי דאטה מורכבים (Batch ו-Streaming) באמצעות Talend.
- ניהול פרויקטים: הובלת פרויקטים אצל לקוחות אסטרטגיים מקצה לקצה - Hands-on מלא.
- איכות נתונים: בניית תהליכי טיוב ( data Quality), ולידציה והעשרת נתונים.
- עבודה מול תשתיות: חיבור למקורות נתונים מגוונים ( Oracle, SQL server, NoSQL).
- תיעוד: כתיבה ותחזוקה של מסמכי אפיון, אפליקציה וקוד.

פרטים כלליים
- משרה מלאה.
- עובד/ת חברה (משרדי החברה ברעננה, מיקום העבודה בפועל עפ"י דרישות וצרכי הלקוח).
- מודל עבודה גמיש בהתאם ללקוח.

מיקום: רעננה (עבודה מול לקוחות אסטרטגיים)
רוצה להוביל פרויקטים מאתגרים בעולמות הדאטה? שלח/י קורות חיים ונתקדם!
דרישות:
- ניסיון של שנתיים לפחות בפיתוח ETL, אינטגרציה וניהול נתונים באמצעות Talend - חובה.
- יכולות גבוהות מאוד ב-SQL ובמידול נתונים ( data Modeling) - חובה.
- יכולת למידה עצמית גבוהה וניסיון בפתרון בעיות (Troubleshooting) בסביבות טכנולוגיות משתנות.
- יכולת עבודה עצמאית ובצוות, תוך עמידה בלוחות זמנים.
- יתרון משמעותי: הכרות עם עולמות ה-Cloud (AWS/Azure/GCP).
- יתרון: תשוקה לטכנולוגיות דאטה חדשות ויכולת ביטוי גבוהה בכתב ובעל פה.

שליחת קורות חיים או הגשת מועמדות מהווה הסכמה לכך שחברת גוב ספייס בעמ (החברה) תשמור ותשתמש בפרטיך, לרבות למטרת פנייה אליך בנוגע למשרות נוספות ודומות, בכל עת, ובנוסף גם להעברת פרטיך למעסיקים פוטנציאליים בעתיד. השימוש במידע ייעשה בהתאם למדינות הפרטיות באתר החברה ובה גם מידע על זכויותיך. ניתן לסרב לשימוש עתידי כאמור במידע בשליחת תמחקו אותי או לפנות בכל שאלה או בקשה בנושא באמצעות פרטי הקשר שבמדיניות הפרטיות. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8625147
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 19 שעות
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data -driven solutions for the business.

Key Responsibilities:
Design, develop, and optimize ETL /ELT pipelines for large-scale data processing.
Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
Troubleshoot and optimize queries and jobs for performance improvements.
Implement best practices for data governance, security, and monitoring.
Stay updated with industry trends and emerging technologies
Requirements:
4 years of experience in data engineering or related fields.
Proficiency in Python for data processing and automation (mandatory).
Deep understanding of Apache Spark and Databricks for Big Data processing (mandatory).
Experience with Git (mandatory).
Expertise in Apache Airflow for workflow orchestration.
Familiarity with cloud-based environments, particularly Azure.
Advanced proficiency in SQL and query optimization.
Familiarity with data modeling, ETL /ELT principles, and performance tuning.
Knowledge of CI/CD and containerization (Docker).
An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8593710
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בנס השמת בכירים - סימה מרטין
סוג משרה: משרה מלאה
הזדמנות להשתלבות בעולם מרתק של דאטה קליני, הטמעה והכשרה של כלים מודרניים בסביבת ענן בנקודה משמעותית בפרויקט טרנספורמציה טכנולוגית רחבת היקף
משרה מלאה 8:00 עד 16:30
הובלת פרויקטי דאטה מקצה לקצה - משלב האפיון והניתוח, דרך הפיתוח והיישום ועד לעלייה לאוויר
ניתוח מערכות ואפיון פתרונות דאטה מורכבים מול לקוחות עסקיים וגורמים קליניים
פיתוח תהליכי ETL ומודלי DWH
פיתוח backend ו- frontend בעולמות ה- BI והדאטה
עבודה בסביבות Microsoft ובענן (AWS)
השתלבות בצוות פיתוח של אנשי/נשות BI ו- data Engineers
התפקיד מתאים לאיש BI מנוסה, בעל/ת יכולת הובלה ועצמאות מקצועית, המסוגל/ת לקחת אחריות מלאה על משימות ופרויקטים ולהוות גורם מקצועי מוביל בצוות
דרישות:
לפחות 5 שנות ניסיון בפיתוח BI (לרבות פיתוח בכלי ETL)
לפחות 3 שנות ניסיון משמעותי בניתוח מערכות ואפיון פתרונות דאטה
ניסיון במידול DWH והובלת פרויקטי דאטה מקצה לקצה (backend ו- frontend)
ניסיון בעבודה עם כלי Microsoft: Power BI, SSIS, SSRS - חובה
ניסיון בעבודה בסביבות פיתוח מודרניות ובענן
יכולת עבודה עצמאית, הובלה מקצועית וראייה מערכתית רחבה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628085
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 20 שעות
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים בComblack
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
חברת Comblack מגייסת SQL DBA אפליקטיבי/ת מנוסה לארגון גדול ויציב בירושלים!
התפקיד כולל בנייה ועיצוב מודלי נתונים, אופטימיזציה של שאילתות מורכבות ושמירה על זמינות הנתונים במערכות הליבה. המשרה משלבת ייעוץ למפתחים, הובלת תהליכי הסבת נתונים ועבודה בסביבה טכנולוגית עשירה הכוללת ניהול בסיסי נתונים גדולים, מחסני נתונים ( DWH ) ושילוב טכנולוגיות NoSQL מתקדמות.
דרישות:
ניסיון של 4 שנים ומעלה כ- DBA אפליקטיבי/ת, כולל עיצוב ובנייה ב- SQL server 2016/19.
ניסיון מעשי בעיצוב בסיסי נתונים מול SAP HANA DB ובניית מחסני נתונים (Star Schema).
שליטה מלאה ב- t-sql, כתיבת פונקציות וטריגרים וביצוע אופטימיזציה לשאילתות מורכבות.
ניסיון מוכח בעבודה עם טכנולוגיות NoSQL (כגון MongoDB, ElasticSearch) וכתיבת כלי ETL.
הכרות וניסיון עם כלי BI (כגון SAP BO או Power BI ) וביצוע הסבות בסיסי נתונים בין גרסאות. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8649438
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בComblack
מיקום המשרה: קרית שדה התעופה
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת אנליסט.ית בקרה פיננסית לארגון פיננסי מוביל במרכז!

הזדמנות להשתלב בתפקיד משמעותי הכולל עבודה עם דאטה פיננסי מורכב, ניתוח נתונים בהיקפים גדולים והובלת תהליכים לשיפור וטיוב מערכות בארגון מתקדם ודינמי
דרישות:
תואר ראשון בתחום פיננסי (כלכלה, מימון, תעשייה וניהול או מנהל עסקים)- חובה
3+ שנות ניסיון כאנליסט.ית/ data Analyst/ data Scientist - חובה
ניסיון בעבודה עם דאטה מורכב ולא מתועד, הכולל לוגיקות חישוביות מרובות וזיהוי בעיות עומק בנתונים- חובה
ניסיון בניתוח בסיסי נתונים גדולים והיכרות עם מערכות DWH, BI - חובה
שליטה גבוהה ב Excel- חובה
שליטה ב-SQL, כולל פונקציות מתקדמות ומאקרו- חובה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8621322
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
דרושים בCal כרטיסי אשראי לישראל
מיקום המשרה: בני ברק
אחריות על ניתוחים אנליטיים בתחומי ניהול סיכונים (אשראי, שימוש בכרטיסים, הונאות ועוד)
תחקור בסיסי נתונים בסביבות DataWareHouse ו- Big Data
פיתוח ותחזוקת מערך דוחות אנליטיים ודשבורדים ניהוליים עבור המדור
ניתוח סיכונים בתחום האשראי וביצוע בקרה על אופן טיפולם
סקירת פרופיל הסיכון של החברה ומתן חוות דעת על איכות ואופן ניהולו
הובלת תהליכים רוחביים לזיהוי, הערכה והפחתת סיכונים
ביצוע תיקוף סטטיסטי למודלים שונים בחברה
ליווי תהליך הטמעה וניהול שוטף של מערכת לניהול סיכוני מודלים
דרישות:
ניסיון של שנתיים לפחות כאנליסט/ data Scientist
ניסיון בכתיבת שאילתות מורכבות ב-SQL ושליטה בכלי BI
תואר ראשון רלוונטי- יתרון
יכולת ניתוח ותחקור נתונים ובניית דשבורדים
יכולת עבודה בלוחות זמנים צפופים ו-Multi-Tasking
יכולת למידה עצמית גבוהה מאוד ויכולת עבודה בצוות
ניסיון בפיתוח מודלים- יתרון
הבנה עסקית, הכרות עם עולמות האשראי וניהול סיכונים- יתרון
הכרות עם העולם הרגולטורי בסביבה הבנקאית- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527541
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 21 שעות
דרושים בלוגיקה IT
Ready to Power Up Your Career?

מפתח/ת DataPower
בני ברק | משרה מלאה | היברידי
ארגון פיננסי מוביל מגייס מפתח/ת DataPower מנוסה להצטרפות לצוות DevOps מוביל בסביבה טכנולוגית מתקדמת!

תיאור התפקיד
פיתוח תשתיות DataPower בדגש על IBM API Connect
עבודה כחלק מצוות DevOps בתחום תשתיות פתוחות
טיפול בתקלות שוטפות וקריטיות
הובלת פתרונות טכנולוגיים חדשים והטמעתם
עבודה מול ממשקים רבים בארגון גדול ומורכב
דרישות:
לפחות 4 שנות ניסיון בפיתוח אינטגרציה
ניסיון מוכח Hands-on עם IBM DataPower ו/או IBM API Connect
אנגלית ברמה גבוהה (דיבור חובה)
ניסיון בעבודה עם:
RESTful APIs
JSON / XML / YAML / SOAP
OpenAPI Specification
עבודה במתודולוגיית Agile
יכולת עבודה עצמאית, אמינות גבוהה ויחסי אנוש מצוינים
זמינות גבוהה
יתרונות משמעותיים
תואר ראשון בהנדסת תוכנה / מדעי המחשב / חשמל
ניסיון עם DataPower / IIB
ידע בפרוטוקולי אבטחה: OAuth1 / OAuth2, JWT / JWE, Kerberos

"When the match is right - everything Powers Up" המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8649212
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בקבוצת נישה
סוג משרה: משרה מלאה
- אפיון וניתוח צרכים עסקיים ופתרונות BI בחטיבות שונות בחברה

- פיתוח מודלים חדשים ותחזוקת מודלים קיימים בחברה

- עבודה מול גורמים בכירים בקבוצה
דרישות:
- כשנתיים ניסיון ב Qliksense

- הבנת תהליכי ETL

- ניסיון בעבודה עם salesforce - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8493117
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בלוגיקה IT
אנו מחפשים מנתח/ת מערכות BI עם ניסיון משמעותי (4 שנים) בניתוח ואפיון פתרונות BI מקצה לקצה - משלב האפיון מול לקוחות עסקיים,
דרך מידול נתונים ותהליכי Back-End, ועד ליצירת פתרונות דאטה מותאמים.
התפקיד דורש שילוב בין הבנה עסקית מעמיקה ליכולת טכנולוגית גבוהה,
הובלת מספר פרויקטים במקביל, הבנת תהליכים טכנולוגיים, קידום המשימות בין ממשקים ויכולת מציאת פתרונות
עבודה בצוות מקצועי ודינמי, והשתלבות בפרויקטים חוצי-ארגון בסביבה טכנולוגית מתקדמת.
תחומי אחריות:
ניתוח ואפיון עסקי - עבודה ישירה עם גורמים עסקיים מקצועיים ובעלי עניין להבנת דרישות עסקיות ותפעוליות.
מידול נתונים  - תכנון ואפיון מבני נתונים במחסן נתונים הנותנים פתרון לצרכים העסקיים ולביצועים אופטימליים.
אפיון ופיתוח פתרונות BI מתקדמים - כולל דשבורדים, דוחות ומדידות עסקיות תוך שימוש בכלי BI.
אפיון וניתוח תהליכי ETL - עיצוב וייעול תהליכי טעינה ושילוב נתונים ממערכות שונות.
דרישות:
ניסיון של לפחות 4 שנים בניתוח מערכות BI - חובה.
ניסיון מוכח בעבודה עם מחסני נתונים (DWH) גדולים - חובה.
ניסיון באפיון מודלי נתונים, מודל מדידה KPIs, תהליכי ETL ופיתוח אינטגרציות בין מערכות - חובה.
ניסיון בעבודה בחברות גדולות/ארגונים מורכבים - יתרון משמעותי.
שליטה גבוהה ב-SQL - כולל כתיבת שאילתות מורכבות ואופטימיזציה של ביצועים.
ניסיון בעבודה עם כלי BI מובילים (כגון Tableau, Pyramid, Power BI)- יתרון משמעותי.
רקע בעולמות פיננסים/בנקאות - יתרון.
כישורים אישיים:
חשיבה אנליטית וראייה מערכתית.
אנרגטי, בעל יכולת הובלת משימות בין ממשקים ותקשורת מעולה עם ממשקים.
יוזמה, חדשנות ויכולת להוביל תהליכים מורכבים.
דינמי בעל יכולת עבודה עם ממשקים רבים והתמודדות עם אתגרים עסקיים וטכנולוגיים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8581541
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בקומפאי טכנולוגיות בע"מ
סוג משרה: משרה מלאה
ליחידת הDATA של ארגון מוביל דרוש/ה BI Developer מנוסה להובלת פרוייקטים מקצה לקצה.
התפקיד כולל עבודה עם בסיסי נתונים מורכבים, תרגום צרכים קליניים ותפעוליים לתובנות עסקיות, ופיתוח תשתיות נתונים מתקדמות, ביצוע אופטימיזציה לשאילתות SQL ושיפור ביצועי מערכות.
עבודה צמודה עם הדרגים הניהוליים לאפיון צרכים עסקיים ותרגומם לפתרונות טכנולוגיים.
דרישות:
- מעל 3 שנות ניסיון בפיתוח BI - חובה
- ניסיון מעשי בעבודה מול בסיסי נתונים של Oracle - חובה
- ניסיון בעיצוב ופיתוח תהליכי טעינת נתונים באמצעות כלים כגון - ETL וכו'
- הבנה עמוקה במתודולוגיות בניית DWH
- ניסיון מוכח בפיתוח דשבורדים עם אחד מהכלים הבאים: Tableau, Power BI, Qlik וכו'
- תואר ראשון טכנולוגי בתחום או ניסיון רלוונטי מהשירות הצבאי בתחום BI / דאטה - חובה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8645722
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a we are looking for a.
he Data Engineering (DE) team is a Team that plays a significant role in the ongoing cloud technologies. The ideal candidate is a data engineer with a strong technical background in data infrastructure, data architecture design and robust data pipes building. The candidate must also have collaborative abilities to interact effectively with Product managers, Data scientists, Onboarding engineers, and Support staff.
Responsibilities:
Deploy and maintain critical data pipelines in production.
Drive strategic technological initiatives and long-term plans from initial exploration and POC to going live in a hectic production environment.
Design infrastructural data services, and to build scalable data solutions.
Work in Agile process with Product Managers and other tech teams.
End-to-end responsibility for the development of data crunching and manipulation processes within the product.
Design and implement data pipelines and data marts.
Create data tools for various teams (e.g., onboarding teams) that assist them in building, testing, and optimizing the delivery of the product.
Explore and implement new data technologies to support data infrastructure.
Requirements:
B.Sc. in Computer Science or equivalent.
3+ years of extensive SQL experience (preferably working in a production environment)
Experience with programming languages (preferably, Python) - a must!
Experience with "Big Data" environments, tools, and data modeling (preferably in a production environment).
Strong capability in schema design and data modeling.
Understanding of micro-services architecture.
Familiarity with Airflow, ETL tools, Snowflake, and MSSQL.
Quick, self-learning and good problem-solving capabilities.
Good communication skills and collaborative.
Process and detailed oriented.
Passion to solve complex data problems.
Desired:
Experience with GCP services.
Experience with Docker and Kubernetes.
Experience with PubSub/Kafka.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8644437
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a sharp and driven Data Analyst to join our fast - paced Data Labs team. As part of a high-performing group of analysts, youll handle complex, custom requests from some of the biggest names in the market, turning raw data into strategic, ad hoc insights. The work is intense and constantly evolving - it requires strong analytical skills and the ability to work independently under pressure. Youll need to be curious, adaptable, and willing to dive deep to find answers where others might stop. If you thrive in a demanding environment and are excited by the opportunity to make a real impact, we want you on our team.
What does the day to day of a Big Data Analyst Customer Facing (Data Labs) look like:
Building custom-made reports end to end - from meeting with the client and understanding their needs, to writing the code and setting up the report for ongoing delivery.
Apply your expertise in quantitative analysis and data mining to turn data into insights.
Conduct research and develop tools which will help answer client's business. questions by using raw data sets and algorithms.
Partner with Engineering teams to establish an infrastructure to scale solutions.
Partner with Advisory Services team of Consultants to answer strategic business questions and deliver custom data products seamlessly
Requirements:
Analyzing Billions of user-based events into meaningful insights for strategic clients.
At least 4 years experience with SQL/pySpark for data analysis - Must
Experience in Python scripting - Must
Excellent verbal and communication skills in English - Must
AWS Infrastructure experience - Big Advantage
Working with clients - Big Advantage.
Proficiency in Online Marketing/Online Services - Advantage
At least 2 years work experience in Online/Tech Company - Advantage
Team player, autodidact, fast learner with excellent analytical, research and business skills.
Demonstrates initiative and a proactive mindset -Must
Experienced in independently managing complex projects from start to finish.
Have a Bachelor's in Statistics, Computer Science, Engineering, or related field.
Master's degree - Big Advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8641956
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Or Yehuda
Job Type: Full Time
We are looking for an experienced DBA to join our team!

Responsibilities:

Acting as the focal point for all MongoDB-related issues, including reviewing any configuration or setup changes.
Maintain and support MongoDB databases in both Atlas & on-prem!
Maintain and support SQL Server & Postgres databases in both on-prem & AWS.
Monitor the systems health and performance.
Advising software engineers on SQL queries and schema design strategies!
Minimise database downtime and manage HA/DR.
Plan for long-term scalability and architecture planning.
Implement changes, apply patches, and versions when required.
Assist in applying extraction pipelines from MongoDB & SQL Server.
Be part of the On-Call cycle.
Requirements:
4+ years combined experience across data platforms, including 2+ years in DBA roles (MongoDB and relational, infrastructure & application).
Practical data engineering experience (Airflow preferred).
AWS experience (1+ year).
Advanced T-SQL development skills.
Proficient with Git and code management workflows.
Strong knowledge of backup, recovery, security, and data integrity.
Strong problem-solving and algorithmic thinking.
Comfortable in a fast-paced environment and meeting deadlines.
Fluent in English.
Nice to have: dbatools, Redgate SQL Toolbelt, Coralogix; CI/CD and Liquibase.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8639403
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/05/2026
מיקום המשרה: מרכז
סוג משרה: משרה מלאה
אנחנו מחפשים DataOps Engineer להובלת הקמה של תחום DataOps ו-MLOps מקצה לקצה, בסביבה טכנולוגית ובסקייל גבוה
התפקיד משלב עולמות של DevOps, Big Data ו-AI, עם אחריות על בנייה והטמעה של תשתיות דאטה ופתרונות Machine Learning ארגוניים, תוך יצירת סטנדרט חדש לעבודה עם דאטה בארגון. במסגרת התפקיד: הובלה והקמה של תחום DataOps ו-MLOps - טכנולוגית ומתודולוגית
בנייה וניהול של דאטה פייפליינס מקצה לקצה ממקורות מרובים ועד data Warehouse
עבודה עם טכנולוגיות מתקדמות כגון OpenShift, S3, Spark, Airflow ו - Microservices
יישום Best Practices של איכות נתונים, אבטחת מידע ואמינות מערכות
אופטימיזציה של ביצועים, סקיילביליות ואוטומציה של תהליכי דאטה
עבודה צמודה עם צוותי Big Data ו-AI והובלת פתרונות חדשניים
בחינה ואימוץ טכנולוגיות חדשות בעולם הדאטה וה-AI המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636909
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
01/05/2026
מיקום המשרה: לוד
מחפשים את האתגר הבא שלכם בעולם הדאטה והתשתיות?
אצלנו תובילו עבודה על מסדי נתונים מתקדמים, תשתיות ענן ופתרונות ארכיטקטוניים מורכבים.

מה עושים בתפקיד?
- ניהול, תחזוקה והגדרה של מסדי נתונים, כולל עבודה בסביבות ענן
- ליווי פרויקטים, פתרון תקלות ומתן ייעוץ מקצועי וארכיטקטוני
- בחינה ולמידה של טכנולוגיות חדשות, בדגש על תשתיות AWS
דרישות:
מה צריך להביא?
- לפחות 3 שנות ניסיון בעבודה עם Linux
- ניסיון מעשי באחד מהבאים: Postgres / MySQL / MongoDB / Kafka

יתרון משמעותי אם יש:
- היכרות עם data Streaming
- ניסיון עם מסדי נתונים ב?AWS
- יכולת עבודה בצוות ותקשורת בין?אישית טובה
-נכונות לטיפול בתקלות קריטיות מעבר לשעות העבודה הסטנדרטיות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8630609
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: מרכז
סוג משרה: משרה מלאה
אנחנו מגייסים data Project Manager להובלת פרויקטים מבוססי דאטה ומודלים אנליטיים המשפיעים על קבלת החלטות עסקיות בארגון פיננסי מוביל. התפקיד משלב עבודה צמודה עם גורמים עסקיים בארגון לצד צוותי הדאטה, ומהווה חוליה מקשרת בין הצורך העסקי לפתרון האנליטי. מה כולל התפקיד? הובלת פרויקטי דאטה מקצה לקצה - ממיפוי צרכים עסקיים ועד הטמעת פתרונות בארגון עבודה שוטפת מול גורמים עסקיים בכירים בארגון לצד צוותי data Scientists, ML Engineers וData Analysts תרגום צרכים עסקיים לדרישות דאטה ואפיון פתרונות מבוססי מודלים אנליטיים וMachine Learning- ניהול תהליך הפיתוח והיישום של פתרונות דאטה בסביבת עבודה מורכבת בניית תוכנית עבודה ו- roadmap לפרויקטים הגדרת מדדי הצלחה, מדידה ושיפור מתמיד של המוצרים והפתרונות ליווי והטמעה של פתרונות הדאטה בצד העסקי.
דרישות:
בעלי תואר ראשון רלוונטי (תעשייה וניהול, מערכות מידע ועוד) ניסיון של לפחות שנתיים בניהול פרויקטים בתחום הדאטה הבנה בעולמות data, BI מודלים אנליטיים ו- Machine Learning יכולת תרגום צרכים עסקיים לדרישות דאטה ואפיון פתרונות ניסיון בעבודה מול ממשקים מרובים והובלת תהליכים בארגון הבנה בתהליך פיתוח מודלים אנליטיים ומחזור חיי מוצר דאטה יכולות אנליטיות גבוהות וחשיבה עסקית יכולת הצגת תוצרים ועבודה מול דרגים בכירים יתרון משמעותי ל: ניסיון מחברות ייעוץ ניסיון מארגונים פיננסיים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8592388
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Applied AI Data Scientist.
What Youll Do:
Devise, initiate, manage and execute cutting-edge exploration and exploitation projects.
Apply your knowledge of Data Science, Machine Learning and AI-driven algorithms to create scalable data solutions.
Analyze extremely large (petabytes) and diverse datasets to solve complex problems, and develop automated, intelligent systems to address them.
Design, build and deploy AI/ML models (including predictive models, recommendation systems and generative AI solutions) to drive business impact.
Leverage modern AI tools and frameworks to accelerate research and production workflows.
Proactively seek growth opportunities aligned with core KPIs.
Enable real-time and near real-time data insights - instant data gratification guaranteed.
Requirements:
4+ years of practical analytics experience in big data environments (preferably in a B2C company).
A hands-on, passionate individual who enjoys diving deep into algorithms, data and business problems.
Excellent analytical skills with experience querying large, complex datasets.
Strong understanding of statistical methods and significance testing.
Hands-on experience with machine learning algorithms and Python.
Experience working with modern AI approaches, including applied machine learning and familiarity with generative AI tools
BSc (or higher) in Mathematics, Statistics, Engineering, Computer Science or a related quantitative field.
Self-learner, able to quickly adapt to new technologies and AI-driven workflows.
Independent, proactive problem-solver with strong ownership.
Excellent communication skills, both written and verbal.
Familiarity with the Ad-Tech industry - a big plus.
Experience implementing real-time machine learning or data-driven systems at scale - a big plus.
Experience integrating AI models into production environments or decision-making systems - a plus.
Fun to work with and a strong team player
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8624316
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
we are looking for a Big Data Software Engineer.
What you'll do:
You will join the Traffic Team, a core engineering team operating at the heart of the company's measurement system.
You will Build and maintain high-throughput streaming systems processing 100B+ daily events.
Tackle performance and optimization challenges that make interview questions actually relevant
Design and implement real-time data processing pipelines using Kafka, Databricks/Spark, and distributed computing
Lead projects end-to-end: design, development, integration, deployment, and production support
Requirements:
5+ years of software development experience with JVM-based languages (Scala, Java, Kotlin) with strong functional programming skills
Strong grasp of Computer Science fundamentals: functional programming paradigms, object-oriented design, data structures, concurrent/distributed systems
Proven experience with high-scale, real-time streaming systems and big data processing.
Experience and deep understanding of a wide array of technologies, including:
Stream processing: Kafka, Kafka Streams, or similar frameworks (Flink, Spark Streaming, Pulsar).
Concurrency frameworks: Akka, Pekko, or equivalent actor systems/reactive programming.
Data platforms: Databricks, Spark, Delta Lake, or similar lakehouse technologies.
Microservices & containerization: Docker, Kubernetes.
Modern databases: Experience across analytical databases (ClickHouse, Snowflake, BigQuery), NoSQL (Cassandra, MongoDB), and columnar stores
Cloud infrastructure: GCP or AWS.
Hands-on experience developing with AI tools (Cursor, Claude Code, etc..) .
Strong DevOps mindset: CI/CD pipelines (GitLab preferred), infrastructure as code, monitoring/alerting.
BSc in Computer Science or equivalent experience.
Excellent communication skills and ability to collaborate across teams.
Nice to have:
Previous experience in ad-tech.
Experience with schema evolution and data serialization (Avro, Protobuf, Parquet)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616808
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
We are looking for developers interested in joining exciting and innovative bigdata projects
This is a great opportunity for individuals seeking to develop solutions to the most challenging problems in the bigdata field, dealing with operational requirements while using cutting edge technologies.
Requirements:
Education:
BSc in Computer Science or equivalent - advantage
Technical Requirements:
At least 3 years of proven experience in developing Bigdata processes in Python, Spark and SQL.
Understanding of Bigdata architecture and Hadoop stack including, Spark, Kafka, ELK and NoSQL databases.
Experienced in Greenplum or Postgres - advantage.
Experienced in optimizing large scale ETL, Data Pipeline and Data processing.
Strong skills in coding, SQL and debugging.
Deep understanding applications performance tuning.
Working on Linux and Windows OS.
Experienced in Object oriented server-side developing - advantage.
Experienced in with OCP or other K8S based containerization technologies.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8611387
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/04/2026
Job Type: Full Time
A fast-growing fintech AI start-up company, focused on eliminating fraud and chargebacks in online commerce, is looking for an experienced Senior Data Engineer.

In this Roll, you will build large-scale, cutting-edge data solutions for fraud prevention, with the potential to grow into a technical leadership role.

The company is located in Modi'in, central Israel. Hybrid work model.



Responsibilities

Build and maintain scalable data pipelines and ETL processes.
Design complex data models and optimize data architecture.
Collaborate with teams to deliver high-quality, compliant solutions.
Troubleshoot production issues and implement best practices.
Recommend new technologies to enhance the data infrastructure.
Requirements:
5+ years in data engineering with strong Python & software engineering skills
Extensive experience with cloud platforms (AWS, GCP, Azure) and cloud-native architectures
Deep knowledge of relational (PostgreSQL) and NoSQL databases
Experience designing and implementing data warehouses and data lakes
Strong understanding of data modeling techniques
Expertise in data manipulation libraries (e.g., Pandas) and big data frameworks
Experience with data validation tools (Pydantic, Great Expectations)
Proficiency in writing and maintaining unit and integration tests (e.g., Pytest)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8611263
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/04/2026
Location: Merkaz
Job Type: Full Time
abra R&D is looking for a Data Scientist! abra R&D is looking for a Data Scientist who will take part in building the next?generation Database built from scratch for AI Agents agentic analytics platform that enables data?driven decision making on large?scale, real?time data. The product focuses on extracting insights, understanding patterns, and supporting decisions through advanced analytics, experimentation, and statistical modeling. The Data Scientist role focuses on analysis, modeling, experimentation, and insights , rather than low?level algorithm or infrastructure development. What you’ll do:
* Analyze large?scale structured and unstructured datasets to extract actionable insights
* Build and evaluate statistical and machine learning models to support analytics and decision systems
* Apply causal inference methodologies to understand relationships in data and measure impact
* Develop time?series models for forecasting, trend analysis, and anomaly detection
* Define statistical methodologies used across analytics and decision?making processes
* Design and analyze experiments (A/B tests, uplift modeling, evaluation frameworks)
* Create data?driven feedback loops to improve product decisions
* Collaborate with AI and engineering teams to translate analytical insights into product features
* Communicate findings clearly to technical and non?technical stakeholders
Requirements:
* 7+ years of experience in Data Science, Applied Machine Learning, or Quantitative Analysis
* M.Sc or PhD in Statistics, Mathematics, Computer Science, or a related field
* Strong experience with Python for data analysis and modeling
* Strong experience with Time?Series Analysis, including forecasting and anomaly detection
* Hands?on experience with machine learning libraries such as scikit?learn, XGBoost, LightGBM
* Strong data manipulation skills using Pandas, NumPy, and large?scale data tools (e.g., Spark)
* Ability to translate data analysis into business and product insights Proven experience with Causal Inference, including methods such as:
* Propensity Score Matching (PSM)
* Inverse Probability Weighting (IPW)
* Difference?in?Differences (DiD)
* Instrumental Variables (IV)
* Regression Discontinuity Design (RDD) Strong Plus
* Experience applying causal inference in real product environments
* Background in analytics platforms or data?driven products
* Experience working with event?based or real?time data
* Experience designing and analyzing experimentation platforms
* Familiarity with LLM?based or agentic analytics systems
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8610881
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Own accuracy and coverage of detection capabilities such as: technology fingerprinting, SSO/login identification, vulnerability-to-technology mapping
Build AI-powered workflows (LLM classifiers, automated rule generation) to scale detection beyond manual rule-writing
Design eval frameworks and feedback loops - golden datasets, precision/recall tracking, regression testing - to keep quality high as automation grows
Tune IP/domain discovery logic: decision rules, blacklists, thresholds, unstructured data parsing
Extend BI pipelines and schemas to enrich asset data
Investigate customer-reported detection gaps; root-cause and fix systematically
Requirements:
Python (scripting, automation, data analysis)
Hands-on AI/LLM engineering - building multi-step pipelines with LLM APIs, not just prompting
Evaluation mindset - experience measuring and maintaining accuracy of automated systems
Regex, SQL, ETL concepts
Web fundamentals (HTML, HTTP, JS) and basic networking (DNS, WHOIS, CIDR)
Familiarity with CVE/CPE vulnerability ecosystem
Git workflow
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8608745
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for an Experienced Big Data Engineer who loves solving complex problems at an extreme scale. In this role, you arent just building "internal pipelines"-you are developing the actual product our clients interact with. You will write high-performance code, optimize your own Spark processes for client freshness, and own features end-to-end. We need a "problem solver by nature, optimizer in their soul" who brings both technical depth and a great personality to a high-speed, deep technical team.

What youll do:
Build Client-Facing Features: Design and implement high-scale product features for our premium clients - from architecture to production deployment.
Performance Engineering: Optimize scalable data pipelines and distributed processes to meet strict client SLAs. Every millisecond of freshness matters.
System Integrity: Ensure uncompromising data accuracy and performance across massive, complex datasets.
Strategic Collaboration: Partner with upstream data providers, client-side teams, and Product Managers to turn raw events into production-grade features.
Requirements:
What you have
The Foundation: B.Sc. in Computer Science or an equivalent.
Relevant Track Record: 3+ years in Big Data Engineering (Backend experience is a plus, provided youve worked at scale).
Spark Mastery: 1+ years of deep, hands-on experience with Spark (or equivalent). You should understand "under the hood" complexities like memory management and execution plans.
Engineering Craft: Strong programming skills (Ideally Scala) with a deep understanding of distributed programming paradigms. You write clean, production-ready code that is optimized for execution across large-scale clusters.
The Scale Mindset: A natural obsession with high-scale problem solving and system optimization.
The Right DNA: A pragmatic, ownership-driven mindset with a personality that thrives in a collaborative environment.

Bonus points
Spark UI Sensei: Expertise in Spark UI analysis and performance tuning.
Scala Pro: Advanced expertise in Scala.
Modern Stack: Experience with Airflow, EMR-Serverless.
Serving Layer: Experience with BigQuery as a high-performance serving layer.
Functional Roots: Backend experience in functional or concurrent languages (Scala, Go, or Clojure).
Domain Knowledge: Exposure to marketing measurement or AdTech.
The AF Connection: Recommended by our employee.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8605687
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
12/04/2026
Location: Jerusalem
Job Type: Full Time
We're looking for a Data Engineer with 4+ year experience to join our Data Engineering team and help us build and scale our production-grade data platform. You'll work on high-performance systems built on self-hosted ClickHouse, optimize complex data pipelines, and collaborate closely with Product, Analytics, and Infrastructure teams to deliver reliable, fast, and scalable data solutions.

This is a hands-on technical role where you'll have a significant impact on how we ingest, model, store, and serve data that powers our analytics and AI-driven products.
Youll play a key role in shaping the direction of our data platform and have meaningful ownership over critical components of our architecture.

What You'll Do:
Data Modeling & Architecture
Design and evolve data models that reflect business logic and support analytical use cases
Collaborate with the BI and Analytics teams to understand data requirements and translate them into efficient schemas
Performance Optimization
Optimize ClickHouse schemas, partitioning strategies, indexing, and compression
Profile and tune slow queries to improve performance and reduce costs
Implement systems that ensure data quality, consistency, and operational efficiency (e.g., deduplication, validation, anomaly detection)
Monitor pipeline health, data freshness, and query performance with appropriate alerting mechanisms
SQL Compiler Development
Develop and maintain the SQL Compiler layer that translates high-level queries into optimized ClickHouse execution plansImplement query optimization and rewriting strategies to improve performanceDebug and resolve compiler issues to ensure accurate and efficient query translation

Data Pipeline Development & Collaboration
Review and advise the Integration team on pipeline architecture, performance, and best practices.
Provide guidance on data modeling, schema design, and optimization for new data sources.
Troubleshoot and maintain existing pipelines when issues arise or optimization is needed
Ensure data freshness, reliability, and quality across all ingestion pipelines.
Collaboration & Support
Work closely with the Integration team to ensure smooth data ingestion from new sources.
Partner with Infrastructure to support high availability and disaster recovery
Support other teams across the company in accessing and using data effectively.
Requirements:
Excellent communication and collaboration skills
English at a high level, written and spoken required
Ability to work from our Jerusalem office (located in the Central Bus Station next to the train) 2 times a week (Monday & Wednesday) is required
Strong attention to detail, ownership mentality, and ability to work independently
Quick learner who can dive into new codebases, technologies, and systems independently
Hands-on mentality - not afraid to roll up your sleeves, dig into unfamiliar code, and work across the stack (including backend when needed)
4+ years of experience as a Data Engineer
Strong problem-solving skills for complex data challenges at scale - ability to debug performance issues, data inconsistencies, and system bottlenecks in high-volume environments
Experience with data modeling and schema design for analytical workloads
Strong proficiency in SQL and experience with complex analytical queries
Hands-on experience building and maintaining data pipelines (ETL/ELT)
Ability to troubleshoot and optimize systems handling large data volumes (millions+ rows, complex queries, high throughput)
Knowledge of query optimization techniques and execution planning
Familiarity with columnar databases (ClickHouse, BigQuery, Redshift, Snowflake, or similar). Columnar DB experience is a big plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8605397
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
12/04/2026
Location: Herzliya
Job Type: Full Time
Our culture of proactiveness and a customer-centric mindset guides us to create a unified platform that makes data science and analytics accessible to everyone. We aim to inspire our customers to make informed decisions that push their business forward. We provide a user-friendly and intuitive platform that makes it easy to turn insights into action and fosters a culture of creativity, experimentation, and continuous improvement.
You will be an essential part of this mission, using your technical expertise to demonstrate how our Data and Intelligence Platform can help customers solve their complex data challenges.
You'll work with a collaborative, customer-focused team that values innovation and creativity. You'll use your skills to create customized solutions to help our customers achieve their goals and guide their businesses forward.
Join us in our quest to change how people work with data and make a better world!
The impact you will have:
Form successful relationships with clients throughout your assigned territory, providing technical and business value to our customers in collaboration with Account Executives.
Operate as an expert in big data analytics to excite customers about our company. You will develop into a champion and trusted advisor on multiple issues of architecture, design, and implementation to lead to the successful adoption of the company Data Intelligence Platform.
Scale best practices in your field and support customers by authoring reference architectures, how-tos, and demo applications, and help build the company community in your region by leading workshops, seminars, and meet-ups.
Grow your knowledge and expertise to the level of a technical and/or industry specialist.
Requirements:
What we look for:
Engage customers in technical sales, challenge their questions, guide clear outcomes, and communicate technical and value propositions.
Passion for delivering technical propositions, identifying customers' pain points and explaining essential areas for business value to develop a trusted advisor skillset.
Knowledgeable in a core Big Data Analytics domain with some exposure to advanced Data Engineering and/or Data science use cases.
Experience diving deeper into solution architecture and expertise with at least one major public cloud platform.
Code in a core programming language like Python, Java, or Scala.
A foundational understanding of Apache Spark architecture is preferable; hands-on skills will benefit the role.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8605263
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו