רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

איש ביג דאטה Big Data

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
כל מה שרציתם לדעת על מבחני המיון ולא העזתם לשאול
זומנתם למבחני מיון ואין לכם מושג לקראת מה אתם ה...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 24 דקות
דרושים בנס השמת בכירים - סימה מרטין
סוג משרה: משרה מלאה
הזדמנות להשתלבות בעולם מרתק של דאטה קליני, הטמעה והכשרה של כלים מודרניים בסביבת ענן בנקודה משמעותית בפרויקט טרנספורמציה טכנולוגית רחבת היקף
משרה מלאה 8:00 עד 16:30
הובלת פרויקטי דאטה מקצה לקצה - משלב האפיון והניתוח, דרך הפיתוח והיישום ועד לעלייה לאוויר
ניתוח מערכות ואפיון פתרונות דאטה מורכבים מול לקוחות עסקיים וגורמים קליניים
פיתוח תהליכי ETL ומודלי DWH
פיתוח backend ו- frontend בעולמות ה- BI והדאטה
עבודה בסביבות Microsoft ובענן (AWS)
השתלבות בצוות פיתוח של אנשי/נשות BI ו- data Engineers
התפקיד מתאים לאיש BI מנוסה, בעל/ת יכולת הובלה ועצמאות מקצועית, המסוגל/ת לקחת אחריות מלאה על משימות ופרויקטים ולהוות גורם מקצועי מוביל בצוות
דרישות:
לפחות 5 שנות ניסיון בפיתוח BI (לרבות פיתוח בכלי ETL)
לפחות 3 שנות ניסיון משמעותי בניתוח מערכות ואפיון פתרונות דאטה
ניסיון במידול DWH והובלת פרויקטי דאטה מקצה לקצה (backend ו- frontend)
ניסיון בעבודה עם כלי Microsoft: Power BI, SSIS, SSRS - חובה
ניסיון בעבודה בסביבות פיתוח מודרניות ובענן
יכולת עבודה עצמאית, הובלה מקצועית וראייה מערכתית רחבה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8628085
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 39 דקות
דרושים בוייזדום
Job Type: Full Time and Hybrid work
A startup in Tel aviv, building an ML-driven platform, is growing, aiming to fully automate and self-manage network infrastructure. Small team of 20 people, strong engineers, real technical depth. The work is in Tel aviv (train line) 3-4 days in the office.
The role
Hands-on Senior backend Engineer to build core infrastructure, high-throughput, low-latency, distributed systems.
Youll design, build systems at scale. Own backend components end-to-end (design to production).

Build scalable microservices in a distributed environment

Work mainly with JAVA (Spring), alongside Python (Node/Typescripts when needed)
Solve real problems in performance, concurrency, and reliability
Take part in architecture decisions and push technical standards
Requirements:
What theyre looking for

Strong backend engineer who has actually built and scaled systems in production
Comfortable going deep, debugging, performance.
Independent, opinionated, takes ownership
Startup mindset, moves fast

Must have
Bsc / BA in Computer Science, Msc is a plus.
7+ years backend experience
Strong JAVA + Spring / Spring Boot
Experience with distributed systems / microservices
Docker + Kubernetes (production)
Cloud experience
Solid networking fundamentals
PostgreSQL or similar
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8603703
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 1 שעות
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה באזור הצפון מגייסת data Engineer
התפקיד כולל: פיתוח והטמעה של תהליכי data Pipeline והזרמת מידע בין מערכות שונות, יישום לוגיקות עסקיות בפלטפורמת Splunk, התממשקות למערכות נוספות ועוד.
דרישות:
- שנתיים ניסיון כ- data Engineer
- ידע וניסיון בעבודה עם מערכות Linux
- שליטה בשפות Scripting כגון: Python וShell
- הכרות עם מימוש יישומים מבוססי דאטה
- ניסיון בעבודה עם Splunk - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8617088
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 2 שעות
דרושים בקבוצת Aman
תנאים נוספים:קרן השתלמות
דרוש/ה מפתח/ת SAP לצוות הפיתוח במשרד ממשלתי, משרה היברידית.
התפקיד כולל:
פיתוח פתרונות ABAP במערכת SAP S/4 HANA
יישום אפליקציות חדשות ושדרוג מערכות קיימות
תכנון וכתיבת (VDM (Virtual data Model על פי עקרונות CDS Views
זיהוי ופתרון בעיות ביצועים, שיפור יעילות המערכת נוספים, מנהלי מוצר ובעלי עניין
כתיבת תיעוד טכני מפורט ומקצועי
השתתפות בתכנון ופיתוח פתרונות עתידיים עם שילוב כלי AI וטכנולוגיות מתקדמות
דרישות:
4+ שנות ניסיון בפיתוח ABAP - חובה
עבודה/היכרות עם BAPI- ו SAP Dictionary, Function Modules - יתרון
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
יכולת עבודה עם שאילתות SQL מורכבות
ניסיון בכתיבת Adobe Interactive Forms
פיתוח הרחבות פונקציונליות, מסכי דיאלוג ודוחות
ניסיון בעבודה עם (HANA Studio (CDS, AMDP ופיתוח באמצעות S/4 HANA
ניסיון בעבודה עם ( SAP Business Application Studio (BAS - יתרון רב המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8367607
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים בOne DatAI
Location: Ra'anana
Job Type: Full Time and Hybrid work
We are looking for a data Manager to lead data initiatives across projects and clients. This role combines leadership, governance, and hands-on understanding of data platforms. You will define data strategies, ensure data quality and governance, and manage teams delivering data solutions end to end.

Responsibilities
Lead data projects from design to delivery
Define data strategy aligned with business goals
Own data governance, quality, and standards
Manage data teams including engineers and analysts
Work with stakeholders to translate business needs into data solutions
Oversee data architecture and platform decisions
Ensure scalability, security, and compliance of data systems
Drive best practices across data modeling, pipelines, and BI
Requirements:
5+ years of experience in data roles ( BI, data Engineering, or Analytics)
2+ years in a leadership or management role
Strong SQL and data modeling skills
Experience managing data pipelines and ETL processes
Experience with modern data platforms (Databricks, Snowflake, or similar)
Strong understanding of data governance and data quality frameworks
Proven ability to work with business stakeholders
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8613991
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 2 שעות
דרושים בקבוצת נישה
סוג משרה: משרה מלאה
- אפיון וניתוח צרכים עסקיים ופתרונות BI בחטיבות שונות בחברה

- פיתוח מודלים חדשים ותחזוקת מודלים קיימים בחברה

- עבודה מול גורמים בכירים בקבוצה
דרישות:
- כשנתיים ניסיון ב Qliksense

- הבנת תהליכי ETL

- ניסיון בעבודה עם salesforce - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8493117
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים בMertens – Malam Team
חברת Mertens Malam Team מגייסת מפתח.ת Informatica ETL מנוסה לארגון מוביל בפתח תקווה.
התפקיד כולל פיתוח ותחזוקה של תהליכי אינטגרציית נתונים בסביבת Informatica בסביבת DWH ארגוני, כולל תכנון data Pipelines מורכבים ל data Lakes ולמערכות BI מקצה לקצה. עבודה עם Informatica PowerCenter ו IICS, עבודה מול מקורות מידע מגוונים כולל מערכות ארגוניות, APIs ולוגים, ושיתוף פעולה עם צוותי תשתיות, אבטחת מידע ופיתוח לצורך תחקור, שיפור ואופטימיזציה של תהליכים.
דרישות:
לפחות 4 שנות ניסיון מעשי בפיתוח ETL באמצעות Informatica PowerCenter בסביבת DWH ארגוני.
ניסיון בעבודה עם SQL ברמה גבוהה כולל אופטימיזציה ו Performance Tuning ויכולת עבודה עם מבני נתונים מורכבים.
ניסיון בעבודה עם בסיסי נתונים רלציוניים Oracle, SQL server, Teradata.
ניסיון בעבודה עם Informatica IICS.
היכרות עם סביבות ענן AWS, Azure, GCP ועם data Lakes. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8597453
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 3 שעות
דרושים בקבוצת יעל
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
קבוצת יעל מגייסת איש DBA MSSQL לארגון ממשלתי גדול בירושלים

תיאור התפקיד

- פתרון בעיות מורכבות במסדי נתונים
- בדיקת איכות נתונים ותקינות תהליכי data Pipelines
- עבודה עם מודלים אנליטיים מורכבים
- כתיבה, ניהול ואופטימיזציה של שאילתות מורכבות
- ניהול והקמה של שרתי SQL server
- תכנון ויישום אסטרטגיות גיבוי, שחזור ואבטחת מידע
- ניתוח תקלות ושיפור ביצועים
- עבודה מול צוותים טכנולוגיים וגורמים עסקיים
- הובלה מקצועית ושיתוף ידע בצוות
- מודל עבודה היברידי
- התפקיד דורש זמינות לכוננויות: ימי עבודה: 20:00-08:00 | סופש: 24/7 | הכוננויות יחולקו בין חברי הצוות
דרישות:
- השכלה: תואר רלוונטי / הנדסאי תוכנה / הכשרות מתקדמות בתחום הדאטה / בוגר יחידה טכנולוגית
- ניסיון: לפחות 4 שנות ניסיון בתחום
- ניסיון נרחב בניהול MSSQL תשתיתי
- ניסיון בפתרון תקלות ושיפור ביצועים
- ניסיון באבטחת בסיסי נתונים
- ניסיון בתכנון ויישום גיבויים ושחזורים
- ניסיון עם Always-On
- ניסיון בהתקנה ושדרוג שרתי SQL
- ניסיון בניתוח ותחקור תקלות
- יכולת עבודה בצוות ותקשורת בין-אישית גבוהה
- יתרון: ניסיון ב-NoSQL, Graph DB, פייתון, # C, סיווג בטחוני בתוקף המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8624884
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 3 שעות
דרושים בלוגיקה IT
אנו מחפשים מנתח/ת מערכות BI עם ניסיון משמעותי (4 שנים) בניתוח ואפיון פתרונות BI מקצה לקצה - משלב האפיון מול לקוחות עסקיים,
דרך מידול נתונים ותהליכי Back-End, ועד ליצירת פתרונות דאטה מותאמים.
התפקיד דורש שילוב בין הבנה עסקית מעמיקה ליכולת טכנולוגית גבוהה,
הובלת מספר פרויקטים במקביל, הבנת תהליכים טכנולוגיים, קידום המשימות בין ממשקים ויכולת מציאת פתרונות
עבודה בצוות מקצועי ודינמי, והשתלבות בפרויקטים חוצי-ארגון בסביבה טכנולוגית מתקדמת.
תחומי אחריות:
ניתוח ואפיון עסקי - עבודה ישירה עם גורמים עסקיים מקצועיים ובעלי עניין להבנת דרישות עסקיות ותפעוליות.
מידול נתונים  - תכנון ואפיון מבני נתונים במחסן נתונים הנותנים פתרון לצרכים העסקיים ולביצועים אופטימליים.
אפיון ופיתוח פתרונות BI מתקדמים - כולל דשבורדים, דוחות ומדידות עסקיות תוך שימוש בכלי BI.
אפיון וניתוח תהליכי ETL - עיצוב וייעול תהליכי טעינה ושילוב נתונים ממערכות שונות.
דרישות:
ניסיון של לפחות 4 שנים בניתוח מערכות BI - חובה.
ניסיון מוכח בעבודה עם מחסני נתונים (DWH) גדולים - חובה.
ניסיון באפיון מודלי נתונים, מודל מדידה KPIs, תהליכי ETL ופיתוח אינטגרציות בין מערכות - חובה.
ניסיון בעבודה בחברות גדולות/ארגונים מורכבים - יתרון משמעותי.
שליטה גבוהה ב-SQL - כולל כתיבת שאילתות מורכבות ואופטימיזציה של ביצועים.
ניסיון בעבודה עם כלי BI מובילים (כגון Tableau, Pyramid, Power BI)- יתרון משמעותי.
רקע בעולמות פיננסים/בנקאות - יתרון.
כישורים אישיים:
חשיבה אנליטית וראייה מערכתית.
אנרגטי, בעל יכולת הובלת משימות בין ממשקים ותקשורת מעולה עם ממשקים.
יוזמה, חדשנות ויכולת להוביל תהליכים מורכבים.
דינמי בעל יכולת עבודה עם ממשקים רבים והתמודדות עם אתגרים עסקיים וטכנולוגיים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8581541
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בCrowdStrike
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
As a global leader in cybersecurity, CrowdStrike protects the people, processes and technologies that drive modern organizations. Since 2011, our mission hasnt changed - were here to stop breaches, and weve redefined modern security with the worlds most advanced AI-native platform. Our customers span all industries, and they count on CrowdStrike to keep their businesses running, their communities safe and their lives moving forward. Were also a mission-driven company. We cultivate a culture that gives every CrowdStriker both the flexibility and autonomy to own their careers. Were always looking to add talented CrowdStrikers to the team who have limitless passion, a relentless focus on innovation and a fanatical commitment to our customers, our community and each other. Ready to join a mission that matters? The future of cybersecurity starts with you.

What You'll Do:
You'll be responsible for processing vast amounts of customer data to create meaningful conclusions that help customers:
Discover misconfigurations, security risks, and compliance violations in cloud environments
Identify and prioritize security risk issues that require immediate attention
Gain valuable insights into their cloud resources and assets to enable faster, more effective investigations
Understand the potential risks associated with their assets and cloud environment
Make data-driven security decisions based on comprehensive analysis of their environment

Responsibilities include:
- Develop ETL jobs to gather data from multiple sources and provide insights into various product areas
- Building data warehouses where large amounts of metrics and data will be stored
- Interacting with many product groups within the organization to collect key metrics via APIs, Kafka integrations or direct data access
- Participation in configuring and receiving uptime alerts related to the services you control.
- Keeping services up and running in a healthy state.
Requirements:
- 6+ years experience in programming, Golang and Python are our preferred languages.
- Knowledge on services with at least two Cloud providers out of Aws, Azure and GCP.
- Experience developing and consuming RESTful API web services.
- Experience interacting with major cloud providers, mainly Amazon Web Services (AWS), as well as Azure and Google Cloud (GCP).
- Understanding data structures and a key-value distributed caching solution, such as Redis.
- Experience using RDBMS databases, and accompanying knowledge of SQL.
- Experience with data modeling and Extract-Transform-Load (ETL) concepts.
- Bachelor's degree or equivalent work experience. Proficiency with common algorithms, data structures, code whiteboarding.

Bonus Points:
- Experience with analytical databases
- Understanding data structures and various APIs, for full-text search of application logs and event data in Elasticsearch.
- Experience with Cassandra, CQL, and its wide-column store database.
- Experience using graph structures (ie. nodes, edges), graph data, and graph databases.
- Experience using a message queue. Kafka is preferred.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8611385
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים בעידור מחשבים בע"מ
ניהול והובלת צוות פיתוח, כולל הכוונה טכנולוגית Hands-on.
תכנון ארכיטקטורת מערכת ואפיון טכני של פתרונות ותהליכי data מורכבים.
הובלת תהליכי הסבת מערכות מ SQL server לענן Azure כולל תכנון, ביצוע ואופטימיזציה.
פיתוח ותחזוקת מערכות בענן ובSQL Server.
עבודה שוטפת מול משתמשים בארגון ומתן מענה טכנולוגי שוטף לצרכים שוטפים ולאתגרים מקצועיים.
תכנון תכנית עבודה רבעונית ועמידה ביעדים, כולל ניהול משימות, עומסים ותיעדוף.
הובלת פרויקטים מורכבים בעלי ריבוי ממשקים - מול יחידות פנימיות כגון ומול ספקים וגופים חיצוניים.
קיום פגישות עבודה עם גורמים בחול ותקשורת מקצועית באנגלית (בדיבור ובכתיבה).
איתור והטמעת טכנולוגיות חדשות, אופטימיזציה של תהליכי פיתוח והובלת חדשנות בצוות.
דרישות:
ניסיון של לפחות שנתיים בניהול עובדים או ניסיון של3-5 שנים לפחות בהובלה טכנולוגית משמעותית.
ניסיון מעשי בפיתוח ב Pythonושליפות SQL מורכבות.
ניסיון מוכח בתכנון ארכיטקטורת מערכות ואפיון פתרונות מקצה לקצה.
ניסיון בעבודה בטכנולוגיית ענן ושימוש בכלי data Factory ו- Databricksאו כלים דומים.
יכולת עבודה שוטפת מול משתמשים ומתן תמיכה מקצועית לצרכים עסקיים.
ניסיון בניהול פרויקטים מורכבים ורבמערכתיים בעלי ריבוי ממשקים.
יכולת תכנון תכניות עבודה, ניהול משימות ועמידה ביעדים בסביבה דינמית.
אנגלית ברמה טובה - יכולת להשתתף בפגישות עם חול, תקשורת מקצועית בדיבור וכתיבה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8632809
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת data system Analyst לארגון בנקאי מוביל במרכז!
הזדמנות להשתלב במערך data + AI חדשני ולהוביל ניתוח ואפיון פתרונות דאטה מתקדמים המשפיעים על כלל מוצרי הארגון.
דרישות:
ניסיון של 3-5 שנים לפחות בניתוח מערכות מידע בעולמות הדאטה
שליטה מלאה ב-SQL ועבודה עם בסיסי נתונים מורכבים
הבנה בארכיטקטורת data - שכבות מידע, DWH, data Lake ותהליכי אינטגרציה
ניסיון באפיון תהליכים עסקיים וטכנולוגיים וכתיבת מסמכי אפיון פונקציונליים וטכניים
יכולת תחקור וניתוח מקורות מידע מרובים ועבודה מול ממשקים חוצי ארגון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8633991
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 22 שעות
דרושים בComblack
מיקום המשרה: ירושלים ורמת גן
סוג משרה: משרה מלאה
חברת Comblack מגייסת data Analyst לארגון גדול ויציב בירושלים!
התפקיד כולל שליפת נתונים ממאגרי ענק והפיכתם לתובנות עסקיות ומדיניות, פיתוח ותחזוקת שאילתות מורכבות, ובניית דשבורדים לתמיכה בקבלת החלטות. המשרה משלבת זיהוי מגמות בשיטות סטטיסטיות, אפיון צרכי BI ועבודה צמודה מול אנשי המוצר והפיתוח לעיצוב מדיניות פרואקטיבית מבוססת נתונים.
דרישות:
ניסיון של 6 שנים ומעלה כאנליסט/ית נתונים - חובה.
שליטה מוחלטת ב-SQL (כתיבת שאילתות מורכבות) - חובה.
ניסיון עבודה עם Python לניתוח נתונים.
הבנה סטטיסטית מעמיקה והיכרות עם שיטות ניתוח כמותיות.
היכרות עם כלי BI (יתרון משמעותי ל-Tableau).
יתרון לבעלי ניסיון ב- Big Data, טכנולוגיות NoSQL וכלי ETL. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8637696
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בComblack
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת Comblack מגייסת data Product Manager למערכות פנים ארגוניות בארגון מוביל!

הזדמנות מצוינת להשתלב בצוות דאטה טכנולוגי-עסקי רב תחומי, המוביל את מנועי החישוב ומדדי הרווחיות של הארגון - בלב העשייה הפיננסית, בסביבה דינאמית, חדשנית ומבוססת דאטה, עם השפעה אמיתית על קבלת החלטות עסקיות.
דרישות:
ניסיון חזק ב-SQL ועבודה עם תהליכי ETL - חובה
ניסיון באפיון ומימוש לוגיקה פיננסית מורכבת וכתיבת Calculation Specs - חובה
ניסיון בתכנון מודלים סמנטיים לצריכה עסקית ( BI / data Modeling)
יתרון לניסיון ב-Power BI ו-DAX
ניסיון בעבודה עם data Ops: תזמון תהליכים, SLA, בקרות איכות ו-Observability המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8633963
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data -driven solutions for the business.

Key Responsibilities:
Design, develop, and optimize ETL /ELT pipelines for large-scale data processing.
Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
Troubleshoot and optimize queries and jobs for performance improvements.
Implement best practices for data governance, security, and monitoring.
Stay updated with industry trends and emerging technologies
Requirements:
4 years of experience in data engineering or related fields.
Proficiency in Python for data processing and automation (mandatory).
Deep understanding of Apache Spark and Databricks for Big Data processing (mandatory).
Experience with Git (mandatory).
Expertise in Apache Airflow for workflow orchestration.
Familiarity with cloud-based environments, particularly Azure.
Advanced proficiency in SQL and query optimization.
Familiarity with data modeling, ETL /ELT principles, and performance tuning.
Knowledge of CI/CD and containerization (Docker).
An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8593710
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
מיקום המשרה: מרכז
סוג משרה: משרה מלאה
אנחנו מחפשים DataOps Engineer להובלת הקמה של תחום DataOps ו-MLOps מקצה לקצה, בסביבה טכנולוגית ובסקייל גבוה
התפקיד משלב עולמות של DevOps, Big Data ו-AI, עם אחריות על בנייה והטמעה של תשתיות דאטה ופתרונות Machine Learning ארגוניים, תוך יצירת סטנדרט חדש לעבודה עם דאטה בארגון. במסגרת התפקיד: הובלה והקמה של תחום DataOps ו-MLOps - טכנולוגית ומתודולוגית
בנייה וניהול של דאטה פייפליינס מקצה לקצה ממקורות מרובים ועד data Warehouse
עבודה עם טכנולוגיות מתקדמות כגון OpenShift, S3, Spark, Airflow ו - Microservices
יישום Best Practices של איכות נתונים, אבטחת מידע ואמינות מערכות
אופטימיזציה של ביצועים, סקיילביליות ואוטומציה של תהליכי דאטה
עבודה צמודה עם צוותי Big Data ו-AI והובלת פתרונות חדשניים
בחינה ואימוץ טכנולוגיות חדשות בעולם הדאטה וה-AI המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8636909
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
מיקום המשרה: לוד
מחפשים את האתגר הבא שלכם בעולם הדאטה והתשתיות?
אצלנו תובילו עבודה על מסדי נתונים מתקדמים, תשתיות ענן ופתרונות ארכיטקטוניים מורכבים.

מה עושים בתפקיד?
- ניהול, תחזוקה והגדרה של מסדי נתונים, כולל עבודה בסביבות ענן
- ליווי פרויקטים, פתרון תקלות ומתן ייעוץ מקצועי וארכיטקטוני
- בחינה ולמידה של טכנולוגיות חדשות, בדגש על תשתיות AWS
דרישות:
מה צריך להביא?
- לפחות 3 שנות ניסיון בעבודה עם Linux
- ניסיון מעשי באחד מהבאים: Postgres / MySQL / MongoDB / Kafka

יתרון משמעותי אם יש:
- היכרות עם data Streaming
- ניסיון עם מסדי נתונים ב?AWS
- יכולת עבודה בצוות ותקשורת בין?אישית טובה
-נכונות לטיפול בתקלות קריטיות מעבר לשעות העבודה הסטנדרטיות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8630609
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: מרכז
סוג משרה: משרה מלאה
אנחנו מגייסים data Project Manager להובלת פרויקטים מבוססי דאטה ומודלים אנליטיים המשפיעים על קבלת החלטות עסקיות בארגון פיננסי מוביל. התפקיד משלב עבודה צמודה עם גורמים עסקיים בארגון לצד צוותי הדאטה, ומהווה חוליה מקשרת בין הצורך העסקי לפתרון האנליטי. מה כולל התפקיד? הובלת פרויקטי דאטה מקצה לקצה - ממיפוי צרכים עסקיים ועד הטמעת פתרונות בארגון עבודה שוטפת מול גורמים עסקיים בכירים בארגון לצד צוותי data Scientists, ML Engineers וData Analysts תרגום צרכים עסקיים לדרישות דאטה ואפיון פתרונות מבוססי מודלים אנליטיים וMachine Learning- ניהול תהליך הפיתוח והיישום של פתרונות דאטה בסביבת עבודה מורכבת בניית תוכנית עבודה ו- roadmap לפרויקטים הגדרת מדדי הצלחה, מדידה ושיפור מתמיד של המוצרים והפתרונות ליווי והטמעה של פתרונות הדאטה בצד העסקי.
דרישות:
בעלי תואר ראשון רלוונטי (תעשייה וניהול, מערכות מידע ועוד) ניסיון של לפחות שנתיים בניהול פרויקטים בתחום הדאטה הבנה בעולמות data, BI מודלים אנליטיים ו- Machine Learning יכולת תרגום צרכים עסקיים לדרישות דאטה ואפיון פתרונות ניסיון בעבודה מול ממשקים מרובים והובלת תהליכים בארגון הבנה בתהליך פיתוח מודלים אנליטיים ומחזור חיי מוצר דאטה יכולות אנליטיות גבוהות וחשיבה עסקית יכולת הצגת תוצרים ועבודה מול דרגים בכירים יתרון משמעותי ל: ניסיון מחברות ייעוץ ניסיון מארגונים פיננסיים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8592388
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
מיקום המשרה: פתח תקווה
סוג משרה: משרה מלאה
בסופ"ש הרגיש כמו קיץ. השבוע חוזר החורף. שינויים קורים מהר. גם בשוק העבודה. אנחנו מגייסים data Manager שייקחו שליטה על מערכות המידע של הארגון, ייעלו אותן, ויהפכו את ה- ERP ממערכת תיעוד למנוע שליטה עסקי. אנחנו מחפשים את אלה שיודעים לנהל מערכת SAP Business One, לכתוב SQL ברמה גבוהה כדי לזקק תמונה עסקית מדויקת ולתמוך בהחלטות קריטיות, לאסוף מאגרי data ארציים של עסקים ולבנות אוטומציות ב- Python שמצמצמות עבודה ידנית ומשפרות תהליכי גבייה והכנסות. -עובד/ת חברה מהיום הראשון מה תעשו ביום-יום: *תנהלו את מערכת ה- ERP הארגונית ( SAP Business One). *תכתבו שאילתות SQL לצורך הכנת דו"חות BI ובקרת נתונים. *תפתחו תהליכי אוטומציה ( Python / Power Query / Scripts). * תבצעו אינטגרציה בין SAP, Excel, מערכות מידע ומערכות חיצוניות. * תאספו ותטייבו data ברמה ארצית ותגדילו את מאגר ה- data בארגון. * תספקו תובנות אנליטיות לקביעת יעדי גבייה ותמחור.
דרישות:
*תואר רלוונטי ( מערכות מידע /תעשיה וניהול/מדעי המחשב)- חובה. * 3-5 שנות ניסיון באנליזה עסקית- חובה. * שליטה ב SQL, Excel ובפרט-Excel,Power Query ו- Power BIאו כלי BI אחרים- חובה. * ניסיון ב- ERP או ב- SAP Business One- יתרון משמעותי. * ניסיון ב- Web Scraping ואיסוף מידע ממקורות אינטרנטיים, הכרות עם כלי פיתוח AI, ניסיון בעבודה עם API's, היכרות עם מבנה הטבלאות של SAP B1- יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8556672
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
we are looking for a Applied AI Data Scientist.
What Youll Do:
Devise, initiate, manage and execute cutting-edge exploration and exploitation projects.
Apply your knowledge of Data Science, Machine Learning and AI-driven algorithms to create scalable data solutions.
Analyze extremely large (petabytes) and diverse datasets to solve complex problems, and develop automated, intelligent systems to address them.
Design, build and deploy AI/ML models (including predictive models, recommendation systems and generative AI solutions) to drive business impact.
Leverage modern AI tools and frameworks to accelerate research and production workflows.
Proactively seek growth opportunities aligned with core KPIs.
Enable real-time and near real-time data insights - instant data gratification guaranteed.
Requirements:
4+ years of practical analytics experience in big data environments (preferably in a B2C company).
A hands-on, passionate individual who enjoys diving deep into algorithms, data and business problems.
Excellent analytical skills with experience querying large, complex datasets.
Strong understanding of statistical methods and significance testing.
Hands-on experience with machine learning algorithms and Python.
Experience working with modern AI approaches, including applied machine learning and familiarity with generative AI tools
BSc (or higher) in Mathematics, Statistics, Engineering, Computer Science or a related quantitative field.
Self-learner, able to quickly adapt to new technologies and AI-driven workflows.
Independent, proactive problem-solver with strong ownership.
Excellent communication skills, both written and verbal.
Familiarity with the Ad-Tech industry - a big plus.
Experience implementing real-time machine learning or data-driven systems at scale - a big plus.
Experience integrating AI models into production environments or decision-making systems - a plus.
Fun to work with and a strong team player
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8624316
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
we are looking for a Big Data Software Engineer.
What you'll do:
You will join the Traffic Team, a core engineering team operating at the heart of the company's measurement system.
You will Build and maintain high-throughput streaming systems processing 100B+ daily events.
Tackle performance and optimization challenges that make interview questions actually relevant
Design and implement real-time data processing pipelines using Kafka, Databricks/Spark, and distributed computing
Lead projects end-to-end: design, development, integration, deployment, and production support
Requirements:
5+ years of software development experience with JVM-based languages (Scala, Java, Kotlin) with strong functional programming skills
Strong grasp of Computer Science fundamentals: functional programming paradigms, object-oriented design, data structures, concurrent/distributed systems
Proven experience with high-scale, real-time streaming systems and big data processing.
Experience and deep understanding of a wide array of technologies, including:
Stream processing: Kafka, Kafka Streams, or similar frameworks (Flink, Spark Streaming, Pulsar).
Concurrency frameworks: Akka, Pekko, or equivalent actor systems/reactive programming.
Data platforms: Databricks, Spark, Delta Lake, or similar lakehouse technologies.
Microservices & containerization: Docker, Kubernetes.
Modern databases: Experience across analytical databases (ClickHouse, Snowflake, BigQuery), NoSQL (Cassandra, MongoDB), and columnar stores
Cloud infrastructure: GCP or AWS.
Hands-on experience developing with AI tools (Cursor, Claude Code, etc..) .
Strong DevOps mindset: CI/CD pipelines (GitLab preferred), infrastructure as code, monitoring/alerting.
BSc in Computer Science or equivalent experience.
Excellent communication skills and ability to collaborate across teams.
Nice to have:
Previous experience in ad-tech.
Experience with schema evolution and data serialization (Avro, Protobuf, Parquet)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8616808
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
About us We are Tailor Brands . We built a platform that builds businesses. From launching and managing to growing a business, Tailor Brands is the all-in-one solution that empowers any business owner. Our platform services over 40 million small businesses. Our "Guidance Engine" assesses each new business introduced to our platform and devises a tailored plan that allows you to manage all your business needs from a single dashboard. Through our business-building platform, we’re turning the process of starting, managing, and growing a business into a better experience; we’re simplifying the business journey. At Tailor Brands, we believe in more than just handing you another tool; we are dedicated to teaching you the art of building a business. About the Role: As a Data Engineer at Tailor Brands, you'll design and maintain the data pipelines that power decision-making across product, marketing, and finance. Working with Apache Airflow, Python, and SQL, you'll build trusted, well-documented datasets that enable self-service analytics for the entire organization. You'll champion data quality through validation and monitoring, optimize infrastructure for scale, and be part of a forward-thinking team that actively leverages AI tools like Claude to push the boundaries of modern data engineering. If you thrive on turning messy data into reliable, actionable foundations — and want to do it for a platform serving over 40 million small businesses — this role is for you. What we’re looking for
* Design, implement and maintain pipelines that deliver data with measurable quality and SLAs for our product, marketing, finance, and other departments
* Partner with business domain experts, data analysts, and engineering teams to build foundational datasets that are trusted, well-understood, aligned with business strategy and enable a self-service analysis
* Focus on data quality, detect data/analytics quality issues, implement bug fixes and data validations for prevention
* Identify, design, and implement internal process improvements such as automating manual processes, optimizing data delivery, re-designing infrastructure for greater scalability, etc
* Be part of a team that actively integrates AI tools like Claude into day-to-day workflows, pushing the boundaries of how data engineering gets done
Requirements:
* Proven experience in creating and optimizing big data processes, pipelines and architectures
* 2+ years of experience with ETL design, implementation, and maintenance
* 2+ years of experience with Python programming
* Strong knowledge of SQL and Data modeling, preferably PostgreSQL
* Working experience with Apache Airflow
* Working experience with Git
* Working experience with Cloud environment, preferably
* Team Player, Can-Do attitude and creativity
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8611391
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Merkaz
We are looking for developers interested in joining exciting and innovative bigdata projects
This is a great opportunity for individuals seeking to develop solutions to the most challenging problems in the bigdata field, dealing with operational requirements while using cutting edge technologies.
Requirements:
Education:
BSc in Computer Science or equivalent - advantage
Technical Requirements:
At least 3 years of proven experience in developing Bigdata processes in Python, Spark and SQL.
Understanding of Bigdata architecture and Hadoop stack including, Spark, Kafka, ELK and NoSQL databases.
Experienced in Greenplum or Postgres - advantage.
Experienced in optimizing large scale ETL, Data Pipeline and Data processing.
Strong skills in coding, SQL and debugging.
Deep understanding applications performance tuning.
Working on Linux and Windows OS.
Experienced in Object oriented server-side developing - advantage.
Experienced in with OCP or other K8S based containerization technologies.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8611387
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/04/2026
Job Type: Full Time
A fast-growing fintech AI start-up company, focused on eliminating fraud and chargebacks in online commerce, is looking for an experienced Senior Data Engineer.

In this Roll, you will build large-scale, cutting-edge data solutions for fraud prevention, with the potential to grow into a technical leadership role.

The company is located in Modi'in, central Israel. Hybrid work model.



Responsibilities

Build and maintain scalable data pipelines and ETL processes.
Design complex data models and optimize data architecture.
Collaborate with teams to deliver high-quality, compliant solutions.
Troubleshoot production issues and implement best practices.
Recommend new technologies to enhance the data infrastructure.
Requirements:
5+ years in data engineering with strong Python & software engineering skills
Extensive experience with cloud platforms (AWS, GCP, Azure) and cloud-native architectures
Deep knowledge of relational (PostgreSQL) and NoSQL databases
Experience designing and implementing data warehouses and data lakes
Strong understanding of data modeling techniques
Expertise in data manipulation libraries (e.g., Pandas) and big data frameworks
Experience with data validation tools (Pydantic, Great Expectations)
Proficiency in writing and maintaining unit and integration tests (e.g., Pytest)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8611263
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
15/04/2026
Location: Merkaz
Job Type: Full Time
abra R&D is looking for a Data Scientist! abra R&D is looking for a Data Scientist who will take part in building the next?generation Database built from scratch for AI Agents agentic analytics platform that enables data?driven decision making on large?scale, real?time data. The product focuses on extracting insights, understanding patterns, and supporting decisions through advanced analytics, experimentation, and statistical modeling. The Data Scientist role focuses on analysis, modeling, experimentation, and insights , rather than low?level algorithm or infrastructure development. What you’ll do:
* Analyze large?scale structured and unstructured datasets to extract actionable insights
* Build and evaluate statistical and machine learning models to support analytics and decision systems
* Apply causal inference methodologies to understand relationships in data and measure impact
* Develop time?series models for forecasting, trend analysis, and anomaly detection
* Define statistical methodologies used across analytics and decision?making processes
* Design and analyze experiments (A/B tests, uplift modeling, evaluation frameworks)
* Create data?driven feedback loops to improve product decisions
* Collaborate with AI and engineering teams to translate analytical insights into product features
* Communicate findings clearly to technical and non?technical stakeholders
Requirements:
* 7+ years of experience in Data Science, Applied Machine Learning, or Quantitative Analysis
* M.Sc or PhD in Statistics, Mathematics, Computer Science, or a related field
* Strong experience with Python for data analysis and modeling
* Strong experience with Time?Series Analysis, including forecasting and anomaly detection
* Hands?on experience with machine learning libraries such as scikit?learn, XGBoost, LightGBM
* Strong data manipulation skills using Pandas, NumPy, and large?scale data tools (e.g., Spark)
* Ability to translate data analysis into business and product insights Proven experience with Causal Inference, including methods such as:
* Propensity Score Matching (PSM)
* Inverse Probability Weighting (IPW)
* Difference?in?Differences (DiD)
* Instrumental Variables (IV)
* Regression Discontinuity Design (RDD) Strong Plus
* Experience applying causal inference in real product environments
* Background in analytics platforms or data?driven products
* Experience working with event?based or real?time data
* Experience designing and analyzing experimentation platforms
* Familiarity with LLM?based or agentic analytics systems
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8610881
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
Own accuracy and coverage of detection capabilities such as: technology fingerprinting, SSO/login identification, vulnerability-to-technology mapping
Build AI-powered workflows (LLM classifiers, automated rule generation) to scale detection beyond manual rule-writing
Design eval frameworks and feedback loops - golden datasets, precision/recall tracking, regression testing - to keep quality high as automation grows
Tune IP/domain discovery logic: decision rules, blacklists, thresholds, unstructured data parsing
Extend BI pipelines and schemas to enrich asset data
Investigate customer-reported detection gaps; root-cause and fix systematically
Requirements:
Python (scripting, automation, data analysis)
Hands-on AI/LLM engineering - building multi-step pipelines with LLM APIs, not just prompting
Evaluation mindset - experience measuring and maintaining accuracy of automated systems
Regex, SQL, ETL concepts
Web fundamentals (HTML, HTTP, JS) and basic networking (DNS, WHOIS, CIDR)
Familiarity with CVE/CPE vulnerability ecosystem
Git workflow
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8608745
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are looking for an Experienced Big Data Engineer who loves solving complex problems at an extreme scale. In this role, you arent just building "internal pipelines"-you are developing the actual product our clients interact with. You will write high-performance code, optimize your own Spark processes for client freshness, and own features end-to-end. We need a "problem solver by nature, optimizer in their soul" who brings both technical depth and a great personality to a high-speed, deep technical team.

What youll do:
Build Client-Facing Features: Design and implement high-scale product features for our premium clients - from architecture to production deployment.
Performance Engineering: Optimize scalable data pipelines and distributed processes to meet strict client SLAs. Every millisecond of freshness matters.
System Integrity: Ensure uncompromising data accuracy and performance across massive, complex datasets.
Strategic Collaboration: Partner with upstream data providers, client-side teams, and Product Managers to turn raw events into production-grade features.
Requirements:
What you have
The Foundation: B.Sc. in Computer Science or an equivalent.
Relevant Track Record: 3+ years in Big Data Engineering (Backend experience is a plus, provided youve worked at scale).
Spark Mastery: 1+ years of deep, hands-on experience with Spark (or equivalent). You should understand "under the hood" complexities like memory management and execution plans.
Engineering Craft: Strong programming skills (Ideally Scala) with a deep understanding of distributed programming paradigms. You write clean, production-ready code that is optimized for execution across large-scale clusters.
The Scale Mindset: A natural obsession with high-scale problem solving and system optimization.
The Right DNA: A pragmatic, ownership-driven mindset with a personality that thrives in a collaborative environment.

Bonus points
Spark UI Sensei: Expertise in Spark UI analysis and performance tuning.
Scala Pro: Advanced expertise in Scala.
Modern Stack: Experience with Airflow, EMR-Serverless.
Serving Layer: Experience with BigQuery as a high-performance serving layer.
Functional Roots: Backend experience in functional or concurrent languages (Scala, Go, or Clojure).
Domain Knowledge: Exposure to marketing measurement or AdTech.
The AF Connection: Recommended by our employee.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8605687
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
12/04/2026
Location: Jerusalem
Job Type: Full Time
We're looking for a Data Engineer with 4+ year experience to join our Data Engineering team and help us build and scale our production-grade data platform. You'll work on high-performance systems built on self-hosted ClickHouse, optimize complex data pipelines, and collaborate closely with Product, Analytics, and Infrastructure teams to deliver reliable, fast, and scalable data solutions.

This is a hands-on technical role where you'll have a significant impact on how we ingest, model, store, and serve data that powers our analytics and AI-driven products.
Youll play a key role in shaping the direction of our data platform and have meaningful ownership over critical components of our architecture.

What You'll Do:
Data Modeling & Architecture
Design and evolve data models that reflect business logic and support analytical use cases
Collaborate with the BI and Analytics teams to understand data requirements and translate them into efficient schemas
Performance Optimization
Optimize ClickHouse schemas, partitioning strategies, indexing, and compression
Profile and tune slow queries to improve performance and reduce costs
Implement systems that ensure data quality, consistency, and operational efficiency (e.g., deduplication, validation, anomaly detection)
Monitor pipeline health, data freshness, and query performance with appropriate alerting mechanisms
SQL Compiler Development
Develop and maintain the SQL Compiler layer that translates high-level queries into optimized ClickHouse execution plansImplement query optimization and rewriting strategies to improve performanceDebug and resolve compiler issues to ensure accurate and efficient query translation

Data Pipeline Development & Collaboration
Review and advise the Integration team on pipeline architecture, performance, and best practices.
Provide guidance on data modeling, schema design, and optimization for new data sources.
Troubleshoot and maintain existing pipelines when issues arise or optimization is needed
Ensure data freshness, reliability, and quality across all ingestion pipelines.
Collaboration & Support
Work closely with the Integration team to ensure smooth data ingestion from new sources.
Partner with Infrastructure to support high availability and disaster recovery
Support other teams across the company in accessing and using data effectively.
Requirements:
Excellent communication and collaboration skills
English at a high level, written and spoken required
Ability to work from our Jerusalem office (located in the Central Bus Station next to the train) 2 times a week (Monday & Wednesday) is required
Strong attention to detail, ownership mentality, and ability to work independently
Quick learner who can dive into new codebases, technologies, and systems independently
Hands-on mentality - not afraid to roll up your sleeves, dig into unfamiliar code, and work across the stack (including backend when needed)
4+ years of experience as a Data Engineer
Strong problem-solving skills for complex data challenges at scale - ability to debug performance issues, data inconsistencies, and system bottlenecks in high-volume environments
Experience with data modeling and schema design for analytical workloads
Strong proficiency in SQL and experience with complex analytical queries
Hands-on experience building and maintaining data pipelines (ETL/ELT)
Ability to troubleshoot and optimize systems handling large data volumes (millions+ rows, complex queries, high throughput)
Knowledge of query optimization techniques and execution planning
Familiarity with columnar databases (ClickHouse, BigQuery, Redshift, Snowflake, or similar). Columnar DB experience is a big plus.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8605397
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
12/04/2026
Location: Herzliya
Job Type: Full Time
Our culture of proactiveness and a customer-centric mindset guides us to create a unified platform that makes data science and analytics accessible to everyone. We aim to inspire our customers to make informed decisions that push their business forward. We provide a user-friendly and intuitive platform that makes it easy to turn insights into action and fosters a culture of creativity, experimentation, and continuous improvement.
You will be an essential part of this mission, using your technical expertise to demonstrate how our Data and Intelligence Platform can help customers solve their complex data challenges.
You'll work with a collaborative, customer-focused team that values innovation and creativity. You'll use your skills to create customized solutions to help our customers achieve their goals and guide their businesses forward.
Join us in our quest to change how people work with data and make a better world!
The impact you will have:
Form successful relationships with clients throughout your assigned territory, providing technical and business value to our customers in collaboration with Account Executives.
Operate as an expert in big data analytics to excite customers about our company. You will develop into a champion and trusted advisor on multiple issues of architecture, design, and implementation to lead to the successful adoption of the company Data Intelligence Platform.
Scale best practices in your field and support customers by authoring reference architectures, how-tos, and demo applications, and help build the company community in your region by leading workshops, seminars, and meet-ups.
Grow your knowledge and expertise to the level of a technical and/or industry specialist.
Requirements:
What we look for:
Engage customers in technical sales, challenge their questions, guide clear outcomes, and communicate technical and value propositions.
Passion for delivering technical propositions, identifying customers' pain points and explaining essential areas for business value to develop a trusted advisor skillset.
Knowledgeable in a core Big Data Analytics domain with some exposure to advanced Data Engineering and/or Data science use cases.
Experience diving deeper into solution architecture and expertise with at least one major public cloud platform.
Code in a core programming language like Python, Java, or Scala.
A foundational understanding of Apache Spark architecture is preferable; hands-on skills will benefit the role.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8605263
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
07/04/2026
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a hands on, proactive, and impact driven Senior Business Analyst to join our data team. In this role, youll shape how the company measures success and help embed a strong data driven culture across every domain, from business operations to product, finance, and beyond.

This is an opportunity for someone who thrives in dynamic, fast changing environments, loves building from scratch, and is just as comfortable running deep analyses and leading cross functional measurement discussions as they are partnering with data engineering to design scalable data models that empower the entire organization.

In this role you will
Collaborate with cross functional teams to understand business objectives and develop data driven solutions
Lead measurement and metric discussions with diverse stakeholders, translating needs into clear, consistent, and actionable definitions
Conduct deep dive analyses to uncover insights and deliver impactful recommendations
Partner with data engineering to design scalable data models and improve data accessibility
Build clear, intuitive dashboards and reports to track performance and enable self serve analytics
Proactively monitor business metrics and provide timely insights to optimize operations and identify opportunities
Promote a data driven culture by empowering teams to use data confidently in decision making
Mentor teammates and contribute to the growth and maturity of the data function
Requirements:
4+ years of experience in business analysis, product analytics, or data analysis, ideally in a fast moving environment
Strong SQL skills and proficiency with BI tools (Metabase, Looker, Tableau, or similar); experience with data warehouse concepts and cloud platforms
Skilled at framing problems, defining metrics, and aligning teams to create a shared understanding of success
A hands on, independent self starter who can own projects end to end, from problem definition through delivery
Excellent communication, facilitation, and storytelling skills, able to translate complex data into actionable insights for technical and non-technical audiences
Strong problem solving and critical thinking skills, with the ability to bring clarity and drive decisions forward
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8602163
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו