רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

מהנדס/ת דאטה/DATA ENGINEER

אני עדיין אוסף
מידע על תפקיד זה

לעדכן אותך כשהכל מוכן?

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
G-NESS
דרושים בG-NESS
Location: Herzliya
Job Type: Full Time and Hybrid work
We are looking for a talented Big Data software engineer to join our cyber defense product group and skillfully plan and build our data pipes and processing flows.

The successful candidate should have hands-on experience with Big Data processing technologies and architectures.

 The candidate will join our growing team of analysts, developers, data scientists, and architects who design and develop innovative solutions to the most critical needs of our customers. This is a unique opportunity to join the cyber and Big-Data revolution, learn, influence and work on meaningful challenges.

 Responsibilities
Designs, architects, implements, and supports our data pipes and processing flows.

Work with data scientists and and analytics department in analyzing and understanding data sources.

Design and provide insights on database technology and data modeling best practices.
Requirements:
Be very familiar with frameworks such as Spark, Hadoop, Kafka, Nifi and Airflow.
4 years of experience as Big Data engineer.
Previous experience in configuring and managing multi-source data flows and processing of large data sets.
Experienced with Linux environment
 Fluent in Python and can easily navigate in Big Data store technologies.

 Maintaining data integrity and security and managing data and analysis flows requires attention to details, high responsibility and much talent, therefore we seek excellent candidates with a high sense of responsibility, accountability and details orientation, as well as strong inter-personal skills and ability to perform well as part of a professional team.

 Advantages
 Experience in architecting and configuring virtualization, processing cluster systems and micro services environments (VMs, Dockers, Kubernetes) is an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7970661
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 20 דקות
יוניטסק
דרושים ביוניטסק
מיקום המשרה: חיפה
שכר: 18,000-22,000
תנאים נוספים:החזר הוצאות, קרן השתלמות
בנייה ותחזוקה שוטפת של תשתיות נתונים איכותיות ואמינות לצרכי דוחות, מודלים וניתוחים
פיתוח ועיצוב דשבורדים ודוחות ב-Power BI
פיתוח ותחזוקה של תהליכי ETL (כולל SSIS)
שיפור תהליכים קיימים, אופטימיזציה והובלת חדשנות טכנולוגית בתחום הדאטה
עבודה שוטפת עם צוותי BI, אנליטיקה, data Science ויחידות עסקיות מגוונות
דרישות:
ניסיון של 3 שנים כמפתח/ת BI
שליטה ב-SQL וכתיבת שאילתות מורכבות
ניסיון בפיתוח תהליכי ETL בסביבת Microsoft SSIS
ניסיון בפיתוח דשבורדים ב-Power BI
ניסיון בעבודה עם מסדי נתונים רלציוניים
ניסיון בעבודה עם GIT
שליטה מלאה ב-Excel ובשאר יישומי Office
ניסיון משמעותי בפיתוח ב- Python
ניסיון בעבודה ישירה מול לקוחות

נשמח אם תביא/י איתך גם:
הבנה בארכיטקטורת Big Data ותשתיות Microsoft BI
היכרות עם פיתוח Microservices
ניסיון עם טכנולוגיות ענן (AWS / Azure / GCP)
ניסיון עם כלים מתחום ה-Generative AI
השכלה אקדמית רלוונטית (הנדסת תעשייה וניהול או תחום מקביל חובה)
היכרות עם עולם הרפואה והבריאות הדיגיטלית יתרון משמעותי
יחסי אנוש מעולים, יכולת עבודה עצמאית ובצוות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8210521
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 45 דקות
גב מערכות
דרושים בגב מערכות
סוג משרה: משרה מלאה
לארגון מוביל באזור הקריות דרוש.ה מנהל.ת פרויקט מנוסה להובלת פרויקט אסטרטגי להקמת data Lake מבוסס Splunk.
הפרויקט יספק תשתית מתקדמת לניתוח נתונים, הסקת תובנות, ואינטגרציה עם מגוון מקורות מידע ומערכות ארגוניות.
התפקיד כולל ניהול הפרויקט מקצה לקצה משלב אפיון הדרישות ועד להטמעה ותפעול שוטף, תרגום צרכים עסקיים לפתרונות טכנולוגיים בעולם ה- data, עבודה שוטפת עם צוותי פיתוח, IT, אבטחת מידע וגורמים עסקיים, אחריות על ממשקים עם מערכות חיצוניות, הובלת דיונים מקצועיים, ניהול משימות, לוחות זמנים, סיכונים ופתרון בעיות.
אם את.ה מחפש.ת אתגר מקצועי משמעותי בפרויקט data שאפתני זו ההזדמנות שלך!
דרישות:
ניסיון משמעותי בניהול פרויקטים טכנולוגיים מורכבים
ניסיון מוכח בעבודה עם Splunk
היכרות עמוקה עם עולמות Big Data, data Lakes ואינטגרציה בין מערכות
ניסיון בעבודה מול מגוון בעלי עניין עסקיים וטכנולוגיים
יכולת ניתוח ואפיון מערכות, וכתיבת מסמכי דרישות
תואר ראשון במערכות מידע או תחום רלוונטי יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8156642
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
G-NESS
דרושים בG-NESS
Location: Herzliya
Job Type: Full Time and Hybrid work
Experienced data Engineer? Excellent team player?

Come join a great team to overcome meaningful cyber challenges!

Our data Solutions Group is looking for an exceptional Python Developer with data Engineering experience.
Requirements:
Excellent team player
Excellent Python Developer
BSc Computer Science or similar
2+ years of experience with Big Data frameworks such as Spark/Hadoop
2+ years of experience in managing ETLs in AirFlow, multi-source data flows and processing of large data sets.
3+ years of experience with SQL
Experienced with Linux environment
Attention to details, high responsibility and open minded
Ability to take initiativeת with a self-motivated attitude and reliability
Critical thinker and problem-solving skills
basic data science skills (descriptive statistics, correlation, causation etc)
proven capabilities in data analysis and data -driven conclusions  

Advantages:
Experience with the Elasticsearch suite
JAVA development experience
Background in the cyber domain
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7970641
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
ידיעות אחרונות
דרושים בידיעות אחרונות
מיקום המשרה: ראשון לציון
כגוף התקשורת הדיגיטלי המוביל בישראל, אנחנו מגייסים/ות data Engineer מוכשר/ת שיצטרף/תצטרף לצוות הטכנולוגיה ויוביל/תוביל את עולמות הדאטה שלנו קדימה. כאן תהיו בלב קבלת ההחלטות: תעצבו את החוויות הדיגיטליות, תפתחו פתרונות עתירי דאטה ותשפיעו ישירות על חוויית הקריאה של מיליוני ישראלים.
זו ההזדמנות להצטרף לסביבה טכנולוגית חזקה ומתקדמת בעולם הפאבלישינג בתחום ה- data וה-AI.
במסגרת התפקיד:
אדריכלות נתונים: תכנון והקמה של פתרונות data Pipeline מתקדמים ב-Google Cloud Platform, תוך הטמעת Modern data Stack.
ETL /ELT מתקדמים: פיתוח תהליכים מתקדמים לעיבוד נתונים ב- Real-Time וב-Batch, עם Apache Airflow, DBT ו-Dataflow.
ניהול תשתיות דאטה בענן: בנייה, ניהול ואופטימיזציה של data Lakes ו- data Warehouses ב-BigQuery כולל partitioning, clustering, ויישום אסטרטגיות ל- Cost Optimization.
דרישות:
לפחות 3 שנות ניסיון בהנדסת נתונים או פיתוח BI בסביבות אנטרפרייז.
שליטה בענן: ניסיון עבודה מוכח ב-GCP, בפרט BigQuery, Cloud Storage, Dataflow ו-Cloud Functions.
תכנות: שליטה מתקדמת ב- Python ו-SQL מורכב, ידע ב-Bash/Shell scripting.
כלי ETL /ELT: ניסיון ב-Apache Airflow, DBT או תשתיות אוטומציה דומות.
Version Control ו- DevOps : ניסיון עם Git, CI/CD, והיכרות עם מתודולוגיות DevOps. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8203762
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
Experis Software
דרושים בExperis Software
מיקום המשרה: נס ציונה
התפקיד כולל ניתוח נתונים בהיקפים גדולים, זיהוי מגמות עסקיות והצגת תובנות ויזואליות לתמיכה בתהליכי קבלת החלטות.

תחומי אחריות:
איסוף וניתוח נתונים ממקורות שונים
פיתוח דוחות, Dashboards וכלים אנליטיים
זיהוי מגמות וחריגות לשיפור תהליכים
שיתוף פעולה עם צוותים עסקיים והמרת צרכים לאנליזות
פיתוח תחזיות ומודלים סטטיסטיים
הצגת ממצאים בצורה בהירה וממוקדת
דרישות:
תואר ראשון רלוונטי (סטטיסטיקה, מדעי המחשב, הנדסה, כללה) - חובה
ניסיון של 2+ שנים בניתוח נתונים ומאגרי מידע גדולים - חובה
שליטה ב-SQL וכלי BI (Tableau / Power BI / Qlik) - חובה
ידע ב- Python או R יתרון משמעותי
הבנה בסטטיסטיקה ויכולת בניית מודלים
יכולת הצגת תובנות בצורה ברורה ויזואלית
תקשורת בין-אישית טובה ויכולת עבודה בצוות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8196117
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
הקריה הרפואית רמב"ם
דרושים בהקריה הרפואית רמב"ם
מיקום המשרה: חיפה
סוג משרה: משרה מלאה
בנייה ותחזוקה שוטפת של תשתיות נתונים איכותיות ואמינות לצרכי דוחות, מודלים וניתוחים
שילוב מקורות נתונים מגוונים
שיפור מתמיד של תהליכים, אופטימיזציה והובלת חדשנות טכנולוגית בתחום הנתונים
פיתוח ותחזוקת תהליכי ETL
פיתוח ועיצוב דשבורדים
עבודה שוטפת עם צוות ה- BI, אנליטיקה, data science ויחידות עסקיות
דרישות:
תואר ראשון בהנדסת תעשיה וניהול או תואר מקביל
ניסיון של 3 שנים לפחות כ- data Engineer
ניסיון בבניית תהליכי ETL במיקרוסופט SSIS
ניסיון בעבודה עם מסדי נתונים רלציוניים
ניסיון בכתיבת שאילתות מורכבות ואופטימיזציה ב- SQL
ניסיון בפיתוח ב- PowerBI
ניסיון בעבודה מול GIT
שליטה מלאה ביישומי אופיס ובפרט ב- Excel
ידע וניסיון משמעותי בפיתוח ב- Python

דרישות שיהיוו יתרון:
הבנה בארכיטקטורת Big Data ובתשתיות מיקרוסופט BI
ניסיון בעבודה עם Gen AI
היכרות עם פיתוח בעולם ה- Micro-Services
ידע בסביבות הענן (AWS, GCP, Azure)
היכרות עם עולם הרפואה ועם תחום הבריאות הדיגיטלית

כישורים נוספים
יכולת עבודה ישירה מול לקוחות
כישורים בינאיישים חזקים
יכולת עבודה עצמאית ועבודה בצוות המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8152927
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Alljobs Match
דרושים בAlljobs Match
לחברה מצליחה בראשל"צ, דרוש/ה Data Engineer.

במסגרת התפקיד:
אדריכלות נתונים: תכנון והקמה של פתרונות data Pipeline מתקדמים ב-Google Cloud Platform, תוך הטמעת Modern data Stack.
ETL /ELT מתקדמים: פיתוח תהליכים מתקדמים לעיבוד נתונים ב- Real-Time וב-Batch, עם Apache Airflow, DBT ו-Dataflow.
ניהול תשתיות דאטה בענן: בנייה, ניהול ואופטימיזציה של data Lakes ו- data Warehouses ב-BigQuery כולל partitioning, clustering, ויישום אסטרטגיות ל- Cost Optimization.
דרישות:
לפחות 3 שנות ניסיון בהנדסת נתונים או פיתוח BI בסביבות אנטרפרייז.
שליטה בענן: ניסיון עבודה מוכח ב-GCP, בפרט BigQuery, Cloud Storage, Dataflow ו-Cloud Functions.
תכנות: שליטה מתקדמת ב- Python ו-SQL מורכב, ידע ב-Bash/Shell scripting.
כלי ETL /ELT: ניסיון ב-Apache Airflow, DBT או תשתיות אוטומציה דומות.
Version Control ו- DevOps: ניסיון עם Git, CI/CD, והיכרות עם מתודולוגיות DevOps. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8201646
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Alljobs Match
דרושים בAlljobs Match
Job Type: Full Time and Hybrid work
We are looking for a skilled and motivated Data Engineer to join our dynamic team. In this role, youll play a key part in designing and building scalable data infrastructure and pipelines using cutting-edge technologies on Google Cloud Platform.

Responsibilities:

Data Architecture:
Design and build advanced data pipelines on Google Cloud Platform, implementing the Modern Data Stack to enable scalable, reliable data solutions.

Advanced ETL/ELT Development:
Develop and maintain real-time and batch data processing workflows using tools such as Apache Airflow, DBT, and Dataflow.

Cloud Data Infrastructure Management:
Build, manage, and optimize Data Lakes and Data Warehouses using BigQuery.
Responsibilities include partitioning, clustering, and implementing cost optimization strategies.
Requirements:
Experience:
At least 3 years of hands-on experience in Data Engineering or BI development within enterprise environments.

Cloud Expertise:
Proven experience working with Google Cloud Platform (GCP), especially with BigQuery, Cloud Storage, Dataflow, and Cloud Functions.

Programming:
Advanced proficiency in Python and complex SQL. Familiarity with Bash/Shell scripting is a plus.

ETL/ELT Tools:
Hands-on experience with Apache Airflow, DBT, or similar data automation frameworks.

Version Control & DevOps:
Experience with Git, CI/CD pipelines, and a solid understanding of DevOps methodologies.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8205041
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
Tesnet
דרושים בTesnet
מיקום המשרה: תל אביב יפו
תנאים נוספים:קרן השתלמות
דרוש/ה בודק/ת תוכנה דאטה ג'וניור להשתלבות בצוות חקר נתונים אג'ילי באירגון בכיר -
- עבודה למערכות מידע (SQL)
- בנייה והטמעה של מתודולוגיות ותהליכי QA אפקטיביים
- משתפ/ת פעולה עם צוותים חוצי תפקודים כדי לפתח אסטרטגיות בדיקה ולהבטיח את איכות התוכנה
- לזהות ולתעדף את צרכי העבודה, ליצור תוכניות ולבצע בהתאם
- לנתח ולדווח על תוצאות, לדעת להציע פתרונות מתאימים בהתאם לאתגרים השוטפים במהלך העבודה
דרישות:
- התפקיד מתאים לבוגר/ת קורס דאטה אנליסט ללא ניסיון בעל/ת
רצון להיכנס לתחום הטכנולוגי של בדיקות התוכנה.
- נדרש SQL ברמה גבוהה- כולל שליטה ב: subquery, window functions, scalar functions - חובה!
- הכרות עם datalake, hive - יתרון
- יכולת פתרון בעיות מעולה ומיומנויות אנליטיות
- תקשורת חזקה ומיומנויות בינאישיות
- מוכווני פרטים עם יכולות ארגוניות חזקות
- יכולת תעדוף משימות ועמידה בלוחות זמנים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8153002
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Log-On Software
דרושים בLog-On Software
מיקום המשרה: מספר מקומות
מתן שירותי מידע - מענה לשאלות בנושא כריית מידע ממחסן הנתונים
יישום והטמעת מתודולוגיות עבודה ובקרה על שלמות המידע.
יישום ופיתוח דו"חות ו- ETL בכלי SSBI - Excel services, Qlik Sense,PBI.
ניתוח תהליכי BI כתמיכה לפניות בנושא תקלות.
דרישות:
ניסיון קודם של שלוש שנים לפחות כ- data ANALYST - חובה.
ידע וניסיון מוכח ב- SQL ברמה גבוהה (כולל שאילתות מורכבות, פונקציות שונות) - חובה.
ידע וניסיון מוכח ב-Excel ברמה גבוהה (VLOOKUP, נוסחאות מורכבות וכו') - חובה.
הכרות עם כלי תחקור שונים (Power BI, Qlik וכו') - חובה.
ידע וניסיון ב- Python - חובה! המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7919925
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
אלעד מערכות
דרושים באלעד מערכות
מיקום המשרה: ירושלים
data Scientist לפרויקט AI פורץ דרך בארגון ממשלתי גדול בירושלים
משרה מלאה | היברידיות (עבודה מהבית חלקית) | טכנולוגיות מתקדמות | השפעה ציבורית
ארגון גדול ומוביל בירושלים מגייס data Scientist מנוסה להשתלבות בפרויקט אסטרטגי ייחודי המתמקד ביישום כלי בינה מלאכותית מתקדמים בתהליכים ארגוניים, כולל ניתוח טקסטים, תמלול, זיהוי תמונות, סיווגים חכמים ועוד.
 על הפרויקט:
שילוב מערכות AI ו-ML בתהליכים קריטיים בארגון

תיוג, תקצור, תמלול, חילוץ ישויות וזיהוי תמונות כחלק מתהליך חשיפה דיגיטלית מתקדם

עבודה בסביבת ענן Nimbus / AWS

פיתוח מודולים מותאמים לצרכי הארכיון הלאומי וניתוח דאטה מתקדם
מה בתפקיד?
בחינת פתרונות AI מתקדמים והטמעתם בארגון

פיתוח מודולים אנליטיים מבוססי NLP ו-ML

תכנון תשתיות דאטה ( data Pipelines Infrastructure)

טיפול בדאטה לא מובנה ובניית שאילתות מורכבות

ביצוע בקרה, מדידה, ניהול סיכונים וטיפול בהטיות נתונים

עבודה צמודה עם UX, פיתוח Web Services ו-APIs

שימוש בכלי BI
דרישות:
דרישות חובה:
לפחות 5 שנות ניסיון בתחום הדאטה, מתוכן שנתיים כ- data Scientist

ניסיון מעשי עם NLP, ML, LLM ופרויקטים בענן

ניסיון בהגדרת והטמעת data Pipelines

ידע בתכנות: Python, Cypher, עבודה עם APIs

ניסיון עם בסיסי נתונים: SQL, NoSQL, Graph DB (Neo4j)

ניסיון בOCR יתרון משמעותי

ניסיון בתכנון UX וUI יתרון

 מיקום: ירושלים
היברידיות
 משרה מלאה | תפקיד משמעותי בצוות data מתקדם

רוצה להיות חלק משינוי טכנולוגי אמיתי ולהוביל פתרונות AI חדשניים בארגון ציבורי? שלח/י קו"ח עכשיו! המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8197006
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
אלעד מערכות
דרושים באלעד מערכות
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
data Engineer לארגון ביטחוני מוביל בתל אביב!
משרה מלאה | ללא היברידיות | תפקיד משמעותי בעולמות הBig data והAI

אלעד מערכות מגייסת  data Engineer מנוסה לארגון גדול ומוביל בתל אביב תפקיד מאתגר הכולל הובלת פתרונות מידע בפרויקטים רחבי היקף, עבודה עם טכנולוגיות מתקדמות ותרומה ישירה לאסטרטגיות דאטה עתידיות בארגון.

 מה כולל התפקיד?
ניהול כולל של המידע בהתאם לסטנדרטים הארגוניים ( data Quality, Metadata, Linkage, Reference data )

תכנון אסטרטגי של פתרונות מידע וטכנולוגיות חדשניות

פיתוח תהליכי עבודה בעולם הBig data והML

שיתוף פעולה עם צוותי data Science, אנליסטים ומנהלי פרויקטים

שימוש בטכנולוגיות מתקדמות ומערכות ענן פנימיות

בחינת כלים חדשים והתאמת פתרונות לצרכים עסקיים וטכנולוגיים
דרישות:
דרישות חובה:
תואר ראשון בתעשייה וניהול / מערכות מידע / מדעי המחשב / מתמטיקה / סטטיסטיקה

לפחות 3 שנות ניסיון כData Engineer

ניסיון מוכח בניהול מאגרי מידע גדולים DWH / NoSQL / MSSQL

שליטה בSQL וניסיון עם תהליכי ETL

ניסיון בעבודה עם תשתיות ענן פנימי

?? יתרונות בולטים:
ניסיון עם טכנולוגיות Machine Learning וBig data

היכרות עם מתודולוגיות Agile

ניסיון עם SAP BO וIDT

היכרות עם מערכת SAP ERP, ובמיוחד מודול FM יתרון משמעותי

ניסיון בפיתוח וניתוח עם Power BI

מיקום: תל אביב
 משרה מלאה | ללא היברידיות | תנאים מצוינים למתאימים/ות

רוצה להשתלב בסביבת דאטה מתקדמת, ביטחונית ובעלת השפעה רחבה? שלח/י קו"ח עכשיו! המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8196992
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
מלם תים
דרושים במלם תים
Malam Team מחפש/ת data Engineer ללקוח גדול בתחום הבריאות בבני ברק.
במסגרת התפקיד פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Apache Nifi ו Apache Spark.
עבודה עם Apache Flink לפיתוח תהליכי עיבוד נתונים בזמן אמת, ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוניים, פיתוח פתרונות דאטה וכתיבת קוד ב Python
עבודה צמודה עם צוותי BI, data Science ופיתוח מערכות מידע בארגון.
דרישות:
- ניסיון של 3 + שנים כ data Engineer - Apache Spark / Apache NiFi / Apache Flink
- ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית data Flows
- הבנה בארכיטקטורת נתונים ותשתיות Big Data כולל אתגרים ופתרונות
- שליטה מלאה ב - SQL המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8216418
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
GotFriends
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה פיתחה מוצר בתחום מודיעין המכירות שפונה למתכנתים והמטרה שלו לעזור לחברות תוכנה למצוא הזדמנויות מכירה שהן באמת טובות ולא רנדומליות. הפלטפורמה מונעת על ידי בינה מלאכותית, תוכננה באופן ייחודי לספק אינטליגנציה ברמת פירוט גבוהה, המאפשרת לצוותים להפוך נתונים מורכבים לתובנות ניתנות לפעולה.
החברה ממוקמת בתל אביב- קו רכבת ומונה 28 עובדים. עבודה מהמשרדים.
מהות התפקיד: תפקיד ראשון בחברה, פיתוח ב- Python עם Apache Spark, CI/CD Pipelines, AWS Cloud Services.
דרישות:
- 5 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח ב-Spark
- ניסיון בפיתוח עם Cloud המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8216104
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We're seeking talented data engineers to join our rapidly growing team, which includes senior software and data engineers. Together, we drive our data platform from acquisition and processing to enrichment, delivering valuable business insights. Join us in designing and maintaining robust data pipelines, making an impact in our collaborative and innovative workplace.

Responsibilities
Design, implement, and optimize scalable data pipelines for efficient processing and analysis.
Build and maintain robust data acquisition systems to collect, process, and store data from diverse sources.
Collaborate with DevOps, Data Science, and Product teams to understand needs and deliver tailored data solutions.
Monitor data pipelines and production environments proactively to detect and resolve issues promptly.
Apply best practices for data security, integrity, and performance across all systems.
Requirements:
4+ years of experience in data or backend engineering, with strong proficiency in Python for data tasks.
Proven track record in designing, developing, and deploying complex data applications.
Hands-on experience with orchestration and processing tools such as Apache Airflow and Apache Spark.
Bachelors degree in Computer Science, Information Technology, or a related field or equivalent practical experience.
Ability to perform under pressure and make strategic prioritization decisions in fast-paced environments.
Excellent communication skills and a strong team player, capable of working cross-functionally.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8214883
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for brilliant data engineers to join our rapidly growing team.

You will join a team consisting of senior software and data engineers that drive our data platform from data acquisition, to processing and enrichment and all the way to business insights. You will join an early stage team and company and will have a major impact on the decisions and architecture of our various products.

Responsibilities
Design and build data acquisition pipelines that acquire, clean, and structure large datasets to form the basis of our data platform and IP
Design and build data pipelines integrating many different data sources and forms
Define architecture, evaluate tools and open source projects to use within our environment
Develop and maintain features in production to serve our customers
Collaborate with product managers, data scientists, data analysts and full-stack engineers to deliver our product to top tier retail customers
Take a leading part in the development of our enterprise-grade technology platform and ecosystem
Harmonize and clean large datasets from different sources
Requirements:
At least 6 years of experience in software engineering in Python or an equivalent language
At least 3 years of experience with data engineering products from early-stage concept to production rollouts
Experience with cloud platforms (GCP, AWS, Azure), working on production payloads at large scale and complexity
Hands-on experience with data pipeline building and tools (Luigi, Airflow etc), specifically on cloud infrastructure
Advantage: Hands-on experience with relevant data analysis tools (Jupyter notebooks, Anaconda etc)
Advantage: Hands-on experience with data science tools, packages, and frameworks
Advantage: Hands-on experience with ETL Flows
Advantage: Hands-on experience with Docker / Kubernetes
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8214879
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking an experienced and innovative Data Engineer to join our dynamic team at ! As a leading FinTech startup based in Tel Aviv, is dedicated to providing comprehensive financial & all around solutions for small businesses. The ideal candidate will possess a strong background in data engineering, data warehousing, and data modeling. This role demands a talented professional who can design, develop, and maintain our data infrastructure, empowering stakeholders across the company to make data-driven decisions. If you are a talented, humble, and ambitious individual ready to make a significant impact in a rapidly scaling company, we invite you to join us on our journey to revolutionize services for small businesses worldwide.
About the Opportunity:
As a Data Engineer at , you will play a pivotal role in establishing and enhancing data infrastructure, empowering stakeholders across the company to make informed, data-driven decisions.

What youll be doing:
Engage with potential customers via phone, email, and online communication tools to follow up on inquiries and leads.
Build and maintain relationships with prospects, understanding their needs and offering tailored solutions.
Develop and deliver sales pitches that highlight the benefits of services.
Guide customers through the sales process, from the initial conversation to closing the deal.
Assist in onboarding new customers, ensuring they have a smooth and positive experience with platform.
Maintain accurate records of interactions, sales progress, and follow-up tasks using our CRM system.
Continuously refine your product knowledge to better assist prospects and customers.
Requirements:
Bachelors degree in Computer Science, Engineering, or equivalent practical experience
3+ years of experience as a Data Engineer
Proficiency in data modeling, ETL/ELT development, and data warehouse methodologies
Strong SQL expertise and experience working with databases such as Postgres, MySQL and MongoDB
Experience with Python for data manipulation and feature preparation
Experience with data pipeline tools like Apache Airflow or similar
Experience with cloud platforms, preferably AWS

Preferred Qualifications:
Experience with machine learning and data science workflows
Experience with big data technologies like Hadoop, Spark, or similar
Experience with MLOps practices and tools
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8214444
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Required Data Engineering Tech Lead
Data is everythingits at the heart of every product decision, every customer insight, and every strategic move we make. The Data Group builds and maintains the core data assets that power our products, from our Company and Contact databases to our Connect and Recommendation systems. This role sits at the forefront of that mission, leading engineering innovation that directly shapes the experience of our growing user base and drives the evolution of our intelligent data services.
What will you be responsible for?
Leading the design and evolution of scalable, high-quality data workflowsfrom batch pipelines to real-time data products.
Setting and upholding engineering best practices across code quality, testing, CI/CD, observability, and documentation.
Mentoring and empowering data engineers while fostering a high-performance, collaborative team culture.
Identifying and executing on opportunities to create new data features and assets that enhance product capabilities.
Driving architectural decisions around data modeling, storage, and compute in cloud environments (e.g., Databricks, Snowflake).
Collaborating with cross-functional stakeholdersincluding Product, DevOps, and R&Dto ensure seamless delivery and platform excellence.
Championing a data-driven mindset throughout the organization, balancing business context with technical rigor.
Requirements:
5+ years of hands-on experience building and maintaining large-scale data pipelines (batch and streaming).
Deep expertise in Python and SQL, with a focus on clean, reliable, and performant code.
Strong problem-solving mindset with the ability to break down complex technical challenges and align solutions to business goals.
Solid background in data modeling, analytics, and architecture design for scalability and cost-effectiveness.
Experience working with modern OLAP systems and cloud data platforms like Databricks, Snowflake, or BigQuery.
Nice to have: familiarity with AI agent protocols (e.g., A2A, MCP) and LLM-based technologies (e.g., vector databases, embeddings) for intelligent data applications.
AI-savvy: comfortable working with AI tools and staying ahead of emerging trends.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8212909
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We're looking for an experienced Data Engineer Team Lead to join our growing data group. In this role, youll not only design and implement high-scale, data-intensive platforms but also lead a team of talented engineers, driving the evolution of our data infrastructure. You will research and implement cutting-edge algorithmic solutions and collaborate with cross-functional teams on significant, high-impact projects that support our mission of providing accurate and actionable business intelligence.
Where does this role fit in our vision?
Every role at our company is designed with a clear purposeto integrate collective efforts into our shared success, functioning as pieces of a collective brain. Data is at the heart of everything we do. Our data engineers are responsible for building the core products that drive our business. The data teams own and manage the pipelines that create our assets, with a strong focus on the company KPIs.
What will you be responsible for?
Solve Complex Business Problems with Data Integration and Engineering Solutions
Develop and implement robust, scalable data pipelines and integration solutions within our Databricks-based environment.
Leverage technologies like Spark, Kafka, and Airflow to tackle complex data challenges and enhance business operations.
Design innovative data solutions that support millions of data points, ensuring high performance and reliability.
Collaborate with Business Stakeholders and Define Priorities
Partner with Product Managers, Data Scientists, and other key stakeholders to prioritize data initiatives that directly impact our core product offerings and user experience.
Ensure data solutions align with business goals, helping drive product features that bring value to our users and streamline B2B sales processes.
Requirements:
3+ years of experience in leading people
3+ years of experience in data engineering
5+ years of experience as a software developer (Python preferred)
Proficient in the composition of Advanced SQL (analytical functions) and query performance tuning skills
Experience working within the AWS ecosystem (AWS S3, Glue, EMR, Redshift, Athena) or comparable cloud environments (Azure/GCP)
Experience extracting, ingesting, and transforming large data sets
Experience with working with multiple kinds of databases (relational, document storage, key-value, time-series) and their associated query languages - specifically understanding when to use one vs. another
Experience with big data platforms such as Spark, Databricks, and Kafka as a streaming bus
Experience utilizing enterprise data warehousing systems such as Redshift or Snowflake
AI-savvy: comfortable working with AI tools and staying ahead of emerging trends.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8212732
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Data Engineer for the Insight Team to join our Data Group and a new team responsible for developing innovative features based on multiple layers of data. These features will power recommendation systems, insights, and more. This role involves close collaboration with the core teams within the Data Group, working on diverse data pipelines that tackle challenges related to scale and algorithmic optimization, all aimed at enhancing the data experience for our customers.
Where does this role fit in our vision?
Every role at our company is designed with a clear purposeto integrate collective efforts into our shared success, functioning as pieces of a collective brain. Data is everything, its at the heart of everything we do. The Data Group is responsible for shaping the experience of hundreds of thousands of users who rely on our data daily.
The Insight Team monitors user behavior across our products, leveraging millions of signals and time-series entities to power a personalized recommendation and ranking system. This enables users to access more unique and tailored data, optimizing their experience while maintaining a strong focus on the key KPIs that drive the success of our Data Group.
What will you be responsible for?
Develop and implement robust, scalable data pipelines and integration solutions within our Databricks-based environment.
Develop models and implement algorithms, with a strong emphasis on delivering high-quality results.
Leverage technologies like Spark, Kafka, and Airflow to tackle complex data challenges and enhance business operations.
Design innovative data solutions that support millions of data points, ensuring high performance and reliability.
Requirements:
3+ years of experience in data engineering, building and optimizing scalable data pipelines.
5+ years of experience as a software developer, preferably in Python.
Algorithmic experience, including developing and optimizing machine learning models and implementing advanced data algorithms.
Experience working with cloud ecosystems, preferably AWS (S3, Glue, EMR, Redshift, Athena) or comparable cloud environments (Azure/GCP).
Expertise in extracting, ingesting, and transforming large datasets efficiently.
Deep knowledge of big data platforms, such as Spark, Databricks, Elasticsearch, and Kafka for real-time data streaming.
(Nice-to-have) Hands-on experience working with Vector Databases and embedding techniques, with a focus on search, recommendations, and personalization.
AI-savvy: comfortable working with AI tools and staying ahead of emerging trends.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8212720
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Data Engineer to design and implement high-scale, data-intensive platforms, research and develop algorithmic solutions, and collaborate on key company initiatives. You will play a critical role within our core data teams, which are responsible for managing and optimizing our fundamental data assets.
Where does this role fit in our vision?
Every role at our company is designed with a clear purposeto integrate collective efforts into our shared success, functioning as pieces of a collective brain. Data is at the heart of everything we do. Our data engineers are responsible for building and maintaining the core products that power our business. The data teams own and manage the pipelines that generate our assets, with a strong focus on optimizing key company KPIs.
We leverage cutting-edge technologies to build and scale our data infrastructure. In this role, you will work closely with Data Scientists and Data Analysts on a daily basis, collaborating to develop innovative data solutions that drive business impact.
What will you be responsible for?
Solve Complex Business Problems with Scalable Data Solutions
Develop and implement robust, high-scale data pipelines to power our core assets.
Leverage cutting-edge technologies to tackle complex data challenges and enhance business operations.
Collaborate with Business Stakeholders to Drive Impact
Work closely with Product, Data Science, and Analytics teams to define priorities and develop solutions that directly enhance our core products and user experience.
Build and Maintain a Scalable Data Infrastructure
Design and implement scalable, high-performance data infrastructure to support machine learning, analytics, and real-time data processing.
Continuously monitor and optimize data pipelines to ensure reliability, accuracy, and efficiency.
Requirements:
Heres what we need from you
3+ years of experience in designing and implementing server-side data solutions at scale.
4+ years of programming experience, preferably in Python and SQL, with a strong understanding of data structures and algorithms.
Proven experience in implementing algorithmic solutions, data mining, and analytical methodologies to optimize data processing and insights.
Proficiency in orchestration frameworks such as Airflow, Kubernetes, and Docker Swarm, ensuring seamless workflow automation and management.
Experience with Data Lakes and Spark is a strong advantage, particularly for processing large-scale datasets.
Familiarity with the AWS ecosystem (S3, Glue, EMR, Redshift) - nice to have
Knowledge of tools such as Kafka, Databricks, and Jenkins is a plus.
Hands-on experience working with various database engines, including:
Relational databases (PostgreSQL, MySQL)
Document storage (MongoDB)
Key-value stores (Redis)
Time-series databases (Elasticsearch, ClickHouse)
AI-savvy: comfortable working with AI tools and staying ahead of emerging trends.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8212705
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
a Senior Data Engineer to join its Research Engineering team. The Research Engineering teams mission is to enable research needs. We succeed when our research analysts, data scientists, and engineers have access to the data, tools, knowledge, and support to do their jobs painlessly and efficiently.

We build the foundational infrastructure and key applications that allow internal users to derive actionable insights from vast data. Both enablingand runningBig Data processing at the scale of hundreds of TB is a core part of what our team does, but were not just a Big Data team. We work across the tech stack in support of our mission to enable data-driven research and investigation, from back-end to front-end to data stores.

What you'll be doing:

Design, build, and maintain foundational infrastructure and key applications that allow people to effectively leverage proprietary and public data
Use modern technologies daily, such as: Snowflake, Databricks, Apache Spark, Elasticsearch, AWS, Kafka, and more
Expand and optimize data warehouse and lakehouseweighing tradeoffs between performance, cost, and user experienceacross continually larger and more complex datasets
Model data and define storage strategy, to ensure that data is intuitive for researchers to find, and easy and fast for them to access
Enhance analysts most-used web application, which gives them in-depth insight into every decision we make
Collaborate directly with colleagues from various disciplines: Analysts, Data Scientists, and other Engineers (all of whom write production code!)
Self-manage project planning, milestones, designs, and estimations
Hold yourself and others to a high standard when working with production systems. We take pride in our tests, monitoring & alerting abilities just as we do with our systems.
Debug complex problems across the whole stack
Requirements:
5+ years of proven experience with designing, implementing, and maintaining large-scale backend production systems
Experience building and maintaining data-intensive applications
Experience with data processing technologies, e.g. Spark, Flink, EMR, Iceberg
Experience with data warehousing frameworks, e.g. Snowflake, Hive, Glue, Databricks Unity Catalog
Experience working in Python
Experience with AWS or other public clouds
Professional proficiency in English
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8212533
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
As the Data Stores team, we are responsible for implementing and delivering database solutions that handle and store petabytes of data. Our focus is on scalability, low latency, high throughput, and geo-distributed database systems, ingesting terabytes of data every day. We provide seamless, reliable, and scalable database solutions, which are key components for Machine Learning Models that deliver highly accurate, real-time risk decisions to protect our customers from fraud. Continually adapting to the evolving landscape and trends in databases, we implement new database offerings to ensure innovative solutions stay ahead in the market.

What you'll be doing:
Design, implement, and maintain scalable, reliable, and efficient database solutions.
Lead and mentor engineers to ensure the seamless operation of our database systems.
Investigate and implement performance and cost optimizations for our database solutions.
Create or introduce tooling and processes to support the operational aspects required for maintaining large database solutions.
Contribute to the continual improvement of our database infrastructure.
Stay updated with the latest trends and technologies for databases, and implement new database offerings as needed.
Participate in on-call rotations to ensure the availability and performance of our database systems.
Requirements:
5+ years of experience as a data Infrastructure or backend-oriented software engineer.
Proven experience in designing and maintaining large-scale database solutions.
Strong knowledge of database principles, distributed systems, and database management.
Experience with both Relational(e.g: MySQL, Postgres or MariaDB) and NoSQL databases (e.g: Aerospike, Cassandra, ScyllaDB, DynamoDB, ElasticSearch)
Experience with AWS Infrastructure and database products.
Strong linux troubleshooting experience.
Proficiency in Bash, Python, or Go.
Experience with configuration management (chef, ansible, terraform or cloud formation)
Excellent problem-solving skills and attention to detail.
Strong communication skills.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8212515
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a talented Senior Data Engineer to join us.
As a Data Engineer, you will be a key member of the data team, at the core of a data-driven company, developing scalable, robust data platforms and data models and providing business intelligence. You will work in an evolving, challenging environment with a variety of data sources, technologies, and stakeholders to deliver the best solutions to support the business and provide operational excellence.
If you are passionate about data, a team player, and proactive, we want to hear from you.
Responsibilities:
Design, Develop & Deploy Data Pipelines and Data Models on various Data Lake / DWH layers
Ingest data from and export data to multiple third-party systems and platforms (e.g., Salesforce, Braze, SurveyMonkey).
Architect and implement data-related microservices and products
Ensure the implementation of best practices in data management, including data lineage, observability, and data contracts.
Maintain, support, and refactor legacy models and layers within the DWH
Requirements:
5+ years of experience in software development, data engineering, or business intelligence developement
Proficiency in Python - A must.
Advanced SQL skills - A must
Strong background in data modeling, ETL development, and data warehousing - A must.
Experience with big data technologies, particularly Airflow - A must
Familiarity with tools such as Spark, Hive, Airbyte, Kafka, Clickhouse, Postgres, Great Expectations, Data Hub, or Iceberg is advantageous.
General understanding of cloud environments like AWS, GCP, or Azure - A must
Experience with Terraform, Kubernetes (K8S), or ArgoCD is advantageous.
A bachelors degree in Computer Science, Engineering, or a related field is advantageous but not mandatory
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8212139
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Netanya
Job Type: Full Time
we are a global pioneer of RADAR systems for active military protection, counter-drone applications, critical infrastructure protection, and border surveillance.
Join Our Team as a Senior Data Engineer at our company!
Job Summary:
We are seeking an experienced Senior Data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data-driven solutions for the business.
Key Responsibilities:
Design, develop, and optimize ETL/ELT pipelines for large-scale data processing.
Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, Azure services.
Troubleshoot and optimize queries and jobs for performance improvements.
Implement best practices for data governance, security, and monitoring.
Stay updated with industry trends and emerging technologies in data engineering.
Requirements:
4+ years of experience in data engineering or related fields.
Proficiency in Python for data processing and automation.
Expertise in Apache Airflow for workflow orchestration Must
Deep understanding of Apache Spark and Databricks for big data processing.
Familiarity with cloud-based environments, particularly Azure.
Advanced proficiency in SQL and query optimizations.
Familiarity with data modeling, ETL/ELT principles, and performance tuning.
Knowledge of CI/CD, containerization (Docker).
An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
If youre passionate about building scalable data solutions and thrive in a fast-paced environment, wed love to hear from you!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8211085
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Netanya
Job Type: Full Time
we are a global pioneer of RADAR systems for active military protection, counter-drone applications, critical infrastructure protection, and border surveillance.
Were seeking a Data Tech Lead to drive technical excellence in data engineering and analytics. As the go-to expert, youll set the technical direction, optimize data pipelines, and tackle programming challengesclosing knowledge gaps, solving data-related questions, and streamlining operations. Youll also design scalable architectures, manage ETL workflows, and enhance data processing efficiency.
Key Responsibilities:
Oversee the technical aspects of data projects by making architectural and design decisions.
Streamline existing operations and implement improvements with the teams collaboration.
Guiding team members in technical matters, and supervising system modifications.
Conducting Code reviews for data analysts, BI Analysts and data engineers.
Bridge technical knowledge gaps within the data team, answering critical product-related questions.
Requirements:
5+ years of experience in data engineering & Big Data Analytics.
Data Engineering & Automation: Building robust, production-ready data pipelines using SQL, Python, and PySpark, while managing ETL workflows and orchestrating data processes with Airflow (unmanaged) and Databricks.
Big Data Analysis & Distributed Processing: Expertise in Databricks (Spark, etc.) for handling large-scale data analytics with optimized efficiency.
Cloud Infrastructure: Proficient in Cloud Services (preferably Azure) for data storage and processing.
Data Architecture: Expertise in data architecture to ensure best practices in scaling, cost efficiency, and performance optimization.
If youre passionate about building scalable data solutions and thrive in a fast-paced environment, wed love to hear from you!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8211084
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
5 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Solutions Architect, youll build relationships with customers and operate as their trusted advisor, ensuring they get the most out of the cloud at every stage of their journey.

Youll manage the overall technical relationship between us and our customers, making recommendations on software, data, security, cost, performance, reliability and operational efficiency to accelerate their business transformation. Internally, you will be the voice of the customer, sharing their needs and wants to make our value higher for our customers.

In this role, your creativity will link technology to tangible solutions, with the opportunity to implement cloud-native architectures for a variety of use cases. You will participate in the creation and sharing of best practices, technical content and new reference architectures (e.g., white papers, code samples, blog posts) and evangelize and educate about our technology (e.g., through workshops, user groups, meetups, public speaking, online videos or conferences).
Requirements:
BASIC QUALIFICATIONS:
- Background in any of the following: Cloud Architecture, Systems Design, Software Development, Infrastructure Architecture, Data Engineering or DevOps.
- Technical Degree (Computer Science, Maths, Engineering or equivalent) and/or relevant tech experience.
- Fluent written and verbal communication skills in English and Hebrew.
- A passion for technology and for learning.

PREFERRED QUALIFICATIONS:
- Experience architecting, migrating, transforming or modernizing customer requirements to the cloud.
- Presentations and whiteboarding with and for internal and external executives, IT management, and developers.
- Experience working with or for local Israeli enterprises (financial, telco, retail etc.)
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8210405
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Petah Tikva
Job Type: Full Time
We are looking for a highly skilled Data Engineer to join our growing Data Analytics Department.
As a Data Engineer in a multi cloud company, you will build data-driven solutions for our customers using cutting-edge data tools and large-scale data on AWS\GCP\Azure.
Job Responsibilities:
Lead data solutions design and development for our various clients and projects.
Design the solution by understanding the needs, modeling the data, choosing the right tools and defining the interfaces/dashboards.
Develop Data Pipelines, Data Lakes, DWHs, AI\ML models, Dashboards and reports using advanced tools and leading technologies.
Requirements:
5+ years of relevant experience as Data Engineer a must.
Experience with Python based data pipelines/ETLs and other ETL\ELT tools (such as Glue, Rivery, Data Factory, DBT).
High Proficiency in SQL a must.
Experience designing and developing DWHs in the cloud Redshift\Snowflake\BigQuery is a must.
Experience with BI & visualizations tools like Tableau\Quicksight\Power BI\Looker.
Knowledge and experience with AI\ML (working with tools like SageMaker\ Bedrock\ Q\ BigQuery ML\ Vertex AI\ Gemini) - big advantage.
Strong analytical and problem-solving skills with attention to details.
High self-learning skills
Fluent English.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8208950
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
Location: Ashkelon
Job Type: Full Time
If you're passionate about both sports and technology and want to drive the sports-tech and data industries into the future, we invite you to join the team!
We are looking for a highly motivated Senior Data Engineer.
Responsibilities:
Building a robust data collection and measurement infrastructure for the department and linked products
Taking ownership of major projects from inception to deployment.
Implementing a systematic approach for saving and managing scraper data.
Enabling efficient data access for support teams
Architecting simple yet flexible solutions and then scaling them as we grow.
Establishing a strong data framework to support the department and linked products future developments
Collaborating with cross-functional teams to ensure data integrity, security, and optimal performance across various systems and applications.
Staying current with emerging technologies and industry trends to recommend and implement innovative solutions that enhance data infrastructure and capabilities.
Requirements:
5+ years of experience as a Data Engineer.
3+ years of experience using Spark.
Experience building and maintaining production grade data pipelines, and working in distributed architectures.
Knowledge and understanding of work in a modern CI environment: Git, Docker, K8S.
Experience with ETL tools: AWS Glue/Apache Airflow/Prefect, etc.
Experience with big data like Iceberg, ClickHouse or similar.
Experience with Kafka.
Advantages:
Experience with designing and implementing big data infrastructure
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8208191
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו