משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל המידע למציאת עבודה
כל מה שרציתם לדעת על מבחני המיון ולא העזתם לשאול
זומנתם למבחני מיון ואין לכם מושג לקראת מה אתם ה...
קרא עוד >
לימודים
עומדים לרשותכם
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 9 שעות
Gtech
דרושים בGtech
לארגון בתחום הפיננסי במרכז דרוש/ה מיישם /ת BI
התפקיד כולל: אפיון ומיכון תהליכים, בנייה ועיצוב דוחות מבוססי BI ויישומי אקסל מתקדמים, עבודה עם SQL, עבודה עם כלי Power BI.
העבודה מתבצעת בסביבה עתירת מערכות מידע וכוללת הכרות והבנה של שוק ההון.
עובדים בהיברידיות של יום בשבוע מהבית ו4 ימים במשרד
דרישות:
בוגר/ת תואר ראשון בתחום כלכלה/ מנהל עסקים עם התמחות במערכות מידע - חובה
לפחות כשנתיים ניסיון עם כלי Power- BI באקסל - חובה
אקסל ברמה גבוהה כולל פונקציות מורכבות כמו VLOOKUP PIVOT- חובה
הכרות עם VBA - חובה
הכרות עם מסדי נתונים (כגון SQL server, MySQL), כתיבת שאילתות SQL - חובה
הכרות והבנה של שוק ההון יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8154121
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 9 שעות
Tesnet
דרושים בTesnet
מיקום המשרה: תל אביב יפו
תנאים נוספים:קרן השתלמות
דרוש/ה בודק/ת תוכנה דאטה ג'וניור להשתלבות בצוות חקר נתונים אג'ילי באירגון בכיר -
- עבודה למערכות מידע (SQL)
- בנייה והטמעה של מתודולוגיות ותהליכי QA אפקטיביים
- משתפ/ת פעולה עם צוותים חוצי תפקודים כדי לפתח אסטרטגיות בדיקה ולהבטיח את איכות התוכנה
- לזהות ולתעדף את צרכי העבודה, ליצור תוכניות ולבצע בהתאם
- לנתח ולדווח על תוצאות, לדעת להציע פתרונות מתאימים בהתאם לאתגרים השוטפים במהלך העבודה
דרישות:
- התפקיד מתאים לבוגר/ת קורס דאטה אנליסט ללא ניסיון בעל/ת
רצון להיכנס לתחום הטכנולוגי של בדיקות התוכנה.
- נדרש SQL ברמה גבוהה- כולל שליטה ב: subquery, window functions, scalar functions - חובה!
- הכרות עם datalake, hive - יתרון
- יכולת פתרון בעיות מעולה ומיומנויות אנליטיות
- תקשורת חזקה ומיומנויות בינאישיות
- מוכווני פרטים עם יכולות ארגוניות חזקות
- יכולת תעדוף משימות ועמידה בלוחות זמנים המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8153002
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 12 שעות
GotFriends
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת פתרון לאחת הבעיות הסבוכות ביותר באבטחת הסייבר- כיצד למנוע מתוקפים לנוע ברשת הארגונית.
החברה ממוקמת בתל אביב- קו רכבת, מונה 100 עובדים גלובלית, רובם בישראל ומשלבת מודל עבודה היברידי.
מהות התפקיד: חלק מצוות. בניית data -Platform Infrastructures שתתמוך ב-High Scale, פיתוח ב- Python, עבודה עם Kafka, Kubernetes, Iceberg Trino.
דרישות:
- 4 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח ב- Python
- תואר טכנולוגי או יחידה טכנולוגית המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8213186
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
Alljobs Match
דרושים בAlljobs Match
Job Type: Full Time and Hybrid work
We are looking for a skilled and motivated Data Engineer to join our dynamic team. In this role, youll play a key part in designing and building scalable data infrastructure and pipelines using cutting-edge technologies on Google Cloud Platform.

Responsibilities:

Data Architecture:
Design and build advanced data pipelines on Google Cloud Platform, implementing the Modern Data Stack to enable scalable, reliable data solutions.

Advanced ETL/ELT Development:
Develop and maintain real-time and batch data processing workflows using tools such as Apache Airflow, DBT, and Dataflow.

Cloud Data Infrastructure Management:
Build, manage, and optimize Data Lakes and Data Warehouses using BigQuery.
Responsibilities include partitioning, clustering, and implementing cost optimization strategies.
Requirements:
Experience:
At least 3 years of hands-on experience in Data Engineering or BI development within enterprise environments.

Cloud Expertise:
Proven experience working with Google Cloud Platform (GCP), especially with BigQuery, Cloud Storage, Dataflow, and Cloud Functions.

Programming:
Advanced proficiency in Python and complex SQL. Familiarity with Bash/Shell scripting is a plus.

ETL/ELT Tools:
Hands-on experience with Apache Airflow, DBT, or similar data automation frameworks.

Version Control & DevOps:
Experience with Git, CI/CD pipelines, and a solid understanding of DevOps methodologies.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8205041
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 12 שעות
טי סי אם טכנולוגיות בע"מ
דרושים בטי סי אם טכנולוגיות בע"מ
מיקום המשרה: בני ברק
* פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Apache Nifi ו Spark Apache-
* עבודה עם Apache Flink לפיתוח תהליכי עיבוד נתונים בזמן אמת
* ניהול, עיבוד וטיוב נתונים באמצעות ElasticSearch
* כתיבת שאילתות מורכבות וייעול ביצועים על בסיסי נתונים רלציוניים ולא רלציוניים
* פיתוח פתרונות דאטה וכתיבת קוד ב Python
* עבודה צמודה עם צוותי Science data, BI ופיתוח מערכות מידע בארגון.
דרישות:
ניסיון של +3 שנים כEngineer data - תוך עבודה משמעותית באחד או יותר מהשירותים הבאים: Apache Spark o NiFi Apache o Flink Apache o
* ניסיון משמעותי בפיתוח בשפת Python לעיבוד נתונים ובניית Flows data
* הבנה בארכיטקטורת נתונים ותשתיות data Big כולל אתגרים ופתרונות
* שליטה מלאה ב -SQL
יתרון משמעותי לניסיון בסביבות השפות והכלים: Aggregation Pipelines וכתיבת MongoDB
* כתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים
* שירותי Cloudera בסביבת CDP Kafka
* מודולי AI ותהליך שילובם בפתרונות דאטה
* הכרות עם פיתוח לעולם ה Services-Micro בכלל ו OpenShift בפרט
* עבודה עם כלי ניהול תצורה בפיתוח המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8214500
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
דרושים במרמנת - ארגון וניהול פרוייקטים
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
חברת מרמנת מחפשת רכז/ת נתונים אחראי/ת ומדויק/ת שיצטרף/תצטרף אלינו לתקופה זמנית! (חודשים יוני עד אוגוסט).
התפקיד כולל:
ניתוח ומעקב אחר נתונים, עבודה מול טבלאות ודוחות אקסל,
מעקב שוטף אחר מדדים.
דרישות:
דרישות התפקיד:
שליטה מצוינת בExcel
ניסיון קודם בניתוח ומעקב אחר נתונים חובה
סדר, דיוק ויכולת עבודה עצמאית
יכולת למידה מהירה ויחסי אנוש טובים
העבודה בתל אביב רמת החייל. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8164595
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
Alljobs Match
דרושים בAlljobs Match
לחברה מצליחה בראשל"צ, דרוש/ה Data Engineer.

במסגרת התפקיד:
אדריכלות נתונים: תכנון והקמה של פתרונות data Pipeline מתקדמים ב-Google Cloud Platform, תוך הטמעת Modern data Stack.
ETL /ELT מתקדמים: פיתוח תהליכים מתקדמים לעיבוד נתונים ב- Real-Time וב-Batch, עם Apache Airflow, DBT ו-Dataflow.
ניהול תשתיות דאטה בענן: בנייה, ניהול ואופטימיזציה של data Lakes ו- data Warehouses ב-BigQuery כולל partitioning, clustering, ויישום אסטרטגיות ל- Cost Optimization.
דרישות:
לפחות 3 שנות ניסיון בהנדסת נתונים או פיתוח BI בסביבות אנטרפרייז.
שליטה בענן: ניסיון עבודה מוכח ב-GCP, בפרט BigQuery, Cloud Storage, Dataflow ו-Cloud Functions.
תכנות: שליטה מתקדמת ב- Python ו-SQL מורכב, ידע ב-Bash/Shell scripting.
כלי ETL /ELT: ניסיון ב-Apache Airflow, DBT או תשתיות אוטומציה דומות.
Version Control ו- DevOps: ניסיון עם Git, CI/CD, והיכרות עם מתודולוגיות DevOps. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8201646
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 12 שעות
G-NESS
דרושים בG-NESS
Location: Herzliya
Job Type: Full Time and Hybrid work
Experienced data Engineer? Excellent team player?

Come join a great team to overcome meaningful cyber challenges!

Our data Solutions Group is looking for an exceptional Python Developer with data Engineering experience.
Requirements:
Excellent team player
Excellent Python Developer
BSc Computer Science or similar
2+ years of experience with Big Data frameworks such as Spark/Hadoop
2+ years of experience in managing ETLs in AirFlow, multi-source data flows and processing of large data sets.
3+ years of experience with SQL
Experienced with Linux environment
Attention to details, high responsibility and open minded
Ability to take initiativeת with a self-motivated attitude and reliability
Critical thinker and problem-solving skills
basic data science skills (descriptive statistics, correlation, causation etc)
proven capabilities in data analysis and data -driven conclusions  

Advantages:
Experience with the Elasticsearch suite
JAVA development experience
Background in the cyber domain
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7970641
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 13 שעות
Comblack
דרושים בComblack
מיקום המשרה: ירושלים
סוג משרה: משרה מלאה
חברת COMBLACK מגייסת data Engineer לארגון ממשלתי בירושלים!
תפקיד מאתגר הכולל ניתוח נתונים מורכבים, בניית תשתיות ו- data Pipelines מתקדמים.
דרישות:
4+ שנות ניסיון בתחום
שליטה ב-SQL, NoSQL ו- Big Data
היכרות עם DWH ו- ETL
ניסיון עם Python וכתיבת מסמכי אפיון
קונפיגורציה של Streaming/ data Pipelines
יתרונות:
Spark, Machine Learning, GIS, QLIK המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8213290
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 13 שעות
ידיעות אחרונות
דרושים בידיעות אחרונות
מיקום המשרה: ראשון לציון
כגוף התקשורת הדיגיטלי המוביל בישראל, אנחנו מגייסים/ות data Engineer מוכשר/ת שיצטרף/תצטרף לצוות הטכנולוגיה ויוביל/תוביל את עולמות הדאטה שלנו קדימה. כאן תהיו בלב קבלת ההחלטות: תעצבו את החוויות הדיגיטליות, תפתחו פתרונות עתירי דאטה ותשפיעו ישירות על חוויית הקריאה של מיליוני ישראלים.
זו ההזדמנות להצטרף לסביבה טכנולוגית חזקה ומתקדמת בעולם הפאבלישינג בתחום ה- data וה-AI.
במסגרת התפקיד:
אדריכלות נתונים: תכנון והקמה של פתרונות data Pipeline מתקדמים ב-Google Cloud Platform, תוך הטמעת Modern data Stack.
ETL /ELT מתקדמים: פיתוח תהליכים מתקדמים לעיבוד נתונים ב- Real-Time וב-Batch, עם Apache Airflow, DBT ו-Dataflow.
ניהול תשתיות דאטה בענן: בנייה, ניהול ואופטימיזציה של data Lakes ו- data Warehouses ב-BigQuery כולל partitioning, clustering, ויישום אסטרטגיות ל- Cost Optimization.
דרישות:
לפחות 3 שנות ניסיון בהנדסת נתונים או פיתוח BI בסביבות אנטרפרייז.
שליטה בענן: ניסיון עבודה מוכח ב-GCP, בפרט BigQuery, Cloud Storage, Dataflow ו-Cloud Functions.
תכנות: שליטה מתקדמת ב- Python ו-SQL מורכב, ידע ב-Bash/Shell scripting.
כלי ETL /ELT: ניסיון ב-Apache Airflow, DBT או תשתיות אוטומציה דומות.
Version Control ו- DevOps : ניסיון עם Git, CI/CD, והיכרות עם מתודולוגיות DevOps. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8203762
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 13 שעות
Hyp
דרושים בHyp
מיקום המשרה: בני ברק
אנחנו מחפשים אנליסט/ית נתונים שיצטרף/תצטרף לצוות האסטרטגיה שלנו ויסייע/תסייע בהובלת תהליכי ניתוח נתונים לקבלת החלטות אסטרטגיות. התפקיד כולל איסוף, ניתוח והצגת נתונים להפקת תובנות אסטרטגיות משמעותיות לארגון, לצד שיפור מתמיד בתהליכי העבודה ויכולות קבלת החלטות מבוססות נתונים.
איסוף, עיבוד וניתוח נתונים ממקורות מגוונים לצורך הפקת תובנות עסקיות.
זיהוי מגמות שוק, ביצוע תחזיות עתידיות ויצירת המלצות מבוססות דאטה
בניית לוחות מחוונים (Dashboards) ודוחות ויזואליים לשימוש הנהלה וצוותים עסקיים.
שיפור וייעול מתמיד של כלי BI והפקת דוחות מותאמים אישית
דרישות:
לפחות 3 שנות ניסיון בתפקיד דומה חובה
תואר ראשון רלוונטי (כלכלה, סטטיסטיקה, מדעי המחשב, תעשייה וניהול).
ניסיון משמעותי בתחום פתרונות תשלומים וסליקה יתרון משמעותי!
ניסיון בעבודה עם בסיסי נתונים גדולים ומערכות BI מבוססות ענן (AWS QuickSight).
שליטה ב-SQL וב - Python - יתרון.
יכולת עבודה עצמאית, חשיבה אנליטית ועסקית מפותחת.
יכולת תקשורת גבוהה והצגת נתונים באופן ברור לגורמים עסקיים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8158750
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 13 שעות
TechTalent
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת הייטק איכותית במרכז הארץ דרוש/ה data engineer.
במסגרת התפקיד: השתלבות בצוות data מגוון ואיכותי, עבודה שכוללת
שימוש ב- Spark, apache airflow, Python, gcp לעיתים שימוש ב-Scala
וכן עבודה שכוללת פיתוחים מאפס.
דרישות:
תואר ראשון במדעי המחשב או בהנדסת תכנה
לפחות 4 שנות ניסיון בתור data engineer - חובה
רקע בפיתוח backend
רקע בשימוש ב- Python - חובה
ניסיון כלשהו ב-Scala - יתרון אך לא חובה
ניסיון כלשהו ב- Spark, apache airflow,, gcp
אנגלית מעולה
רמה אישית גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8213309
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
חברה חסויה
מיקום המשרה: לוד וראשון לציון
סוג משרה: משרה מלאה
חברה גלובלית מגייסת data & AI Solutions Manager לתפקיד שכולל
תחומי אחריות:
אחריות על מתן שירותי דוחות וניתוח נתונים בכל הפונקציות של החברה בשוק המקומי.
שימוש בנכסי הנתונים כדי לענות על שאלות עסקיות ולפתור אתגרים בשוק, תוך יכולת לפשט מושגים טכניים
מתן ייעוץ לגבי אסטרטגיות נתונים, מגמות, הזדמנויות וסיכונים.
תמיכה בפיתוח יכולות ניתוח נתונים בכל הפונקציות והקטגוריות בשוק.
יצירה והוצאה לפועל של האסטרטגיה הארגונית בתחום
ניהול פרויקטים, כולל תיעוד עלויות, יתרונות והשפעות, והצגתם להנהלה.
בניית קשרים עם בעלי עניין מרכזיים בארגון כדי להבטיח עבודה יעילה משותפת
הצגת הזדמנויות טכנולוגיות חדשות
קידום שיטות עבודה מומלצות והשתתפות פעילה בקהילות מקצועיות.
תקשורת פנימית וחיצונית כדי להציג יוזמות ותוצאות של המחלקה.
דרישות:
תואר ראשון בתחום רלבנטי- חובה
ניסיון של 7 שנים לפחות, מתוכן לפחות 5 שנים בתפקידי דאטה ואנליזה כולל ניסיון ניהולי.
ניסיון מעשי בטכניקות ותוכנות להמחשת נתונים וסטטיסטיקה (למשל, MS Power BI, Python, SQL) וסביבות ענן (AZURE, AWS, Google Cloud וכו')
היכרות והבנה של מוצרי צריכה
אנגלית ברמה גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8193812
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
אלעד מערכות
דרושים באלעד מערכות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
data Infrastructure Engineer Elad Systems | data Division
Elad Systems data Division is seeking a skilled data Engineer to join our growing team, supporting end-to-end AI-driven projects for top-tier clients across industries.
What Youll Do:
Design and build robust, scalable data pipelines for AI/ML applications
Work with modern cloud environments (AWS/Azure/GCP), leveraging tools like Airflow, Kafka, EC2 and Kubernetes
Develop Infrastructure as Code (IAC) with Terraform or equivalent
Support data lakes and DWHs (e.g., Snowflake, BigQuery, Redshift)
Ensure data quality, observability, and system reliability
Requirements:
What You Bring:
3+ years of experience in data engineering or backend development
Proficiency in Python
Hands-on experience with streaming, orchestration, and cloud-native tools
Strong problem-solving skills and an independent, delivery-focused mindset
Experience with Docker and CI/CD platform
Have a solid background working with data warehousing technologies, such as Snowflake, Databricks, Redshift, BigQuery, etc.
Advantage: Experience supporting ML pipelines or AI product development


Why Elad:
Work on diverse, high-impact AI projects in a dynamic and collaborative environment
Access to learning programs, career growth paths, and cutting-edge tech
Hybrid work model and flexible conditions
Join us and help shape the data foundations of tomorrows AI solutions.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8193929
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
G-NESS
דרושים בG-NESS
Location: Herzliya
Job Type: Full Time and Hybrid work
We are looking for a talented Big Data software engineer to join our cyber defense product group and skillfully plan and build our data pipes and processing flows.

The successful candidate should have hands-on experience with Big Data processing technologies and architectures.

 The candidate will join our growing team of analysts, developers, data scientists, and architects who design and develop innovative solutions to the most critical needs of our customers. This is a unique opportunity to join the cyber and Big-Data revolution, learn, influence and work on meaningful challenges.

 Responsibilities
Designs, architects, implements, and supports our data pipes and processing flows.

Work with data scientists and and analytics department in analyzing and understanding data sources.

Design and provide insights on database technology and data modeling best practices.
Requirements:
Be very familiar with frameworks such as Spark, Hadoop, Kafka, Nifi and Airflow.
4 years of experience as Big Data engineer.
Previous experience in configuring and managing multi-source data flows and processing of large data sets.
Experienced with Linux environment
 Fluent in Python and can easily navigate in Big Data store technologies.

 Maintaining data integrity and security and managing data and analysis flows requires attention to details, high responsibility and much talent, therefore we seek excellent candidates with a high sense of responsibility, accountability and details orientation, as well as strong inter-personal skills and ability to perform well as part of a professional team.

 Advantages
 Experience in architecting and configuring virtualization, processing cluster systems and micro services environments (VMs, Dockers, Kubernetes) is an advantage.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
7970661
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 8 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
As part of the role you will have the opportunity to:
Build end-to-end development of data infrastructure features, scalable data processing, database interaction and integration with CI/CD.
Take part in expanding our core data platform solutions, build new pipelines from scratch that ingest and process data at scale.
Work across a rich stack of technologies from Apache Kafka, Apache Storm, NoSQL, and relational databases.
Analyze and optimize performance, scalability, and stability of our product environments.
Work closely with the data-science team to implement production grade pipelines based on AI research.
Requirements:
4+ years of experience as a Data Engineer with backend development
Proficiency in Java and Spring - Must
Hands on experience with developing and maintaining a distributed data processing pipelines such as: Apache Storm, Kafka, Spark or Airflow
Familiarity with design principles such as Data Modelling, Distributed Processing, Streaming vs. Batch processing
Proven experience in leading design and system architecture of complex features
Experienced in database optimization tasks such as: sharding, rollup, optimal indexes etc.
Familiarity with cloud platforms
Willing to work in a fast, high growth start-up environment and be able to switch between devops/programming/debugging tasks
Self-management skills and ability to work well both independently and as part of a team, sense of ownership and of urgency
Good communication skills in English
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8219553
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
As a Data Analyst at our company you will be working with colleagues from various disciplines, such as - Product, Engineering, Marketing, Sales, Customer Success, Risk, Data Scientists within the team and other Data Analysts - on their KPIs, the way they observe information and the hardest questions each team is facing in order to drive insights and keep our company a data driven company. You will play a key role in the ability of each team at our company to keep scaling!
How your day is going to look, what you will be doing?
- Helping each team to take decisions based on data by:
Identify, analyze, and interpret trends or patterns in complex data sets to drive actionable insights
Define and implement KPIs across different teams
Accompany product features from tech design to feature performance
Translate product/business requirements to analytical logics, and create a very clear visualization which "tells the story" using a BI tool or other platform.
Requirements:
5+ years of experience as a Data Analyst
SQL at a high level is mandatory
An ability to understand complex ideas and simplify them to relevant stakeholders.
Team player, effective interpersonal skills and good vibes. Manage relationships with key partners across different functions, ability to work independently
Experience in fast-paced, high-intensity work environment
Experience in BI tools such as Tableau, Redash or similar
Experience in data modeling, ETL development, and data warehousing
Preferred qualifications (If you have those, we see it as advantage, but it's not a must)
Experience in Python
B.S in one of the following: Industrial Engineering, Statistics, Mathematics, Economics, or a related field.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8219397
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time and Temporary
We are looking for a Data Engineer to join our team and play a key role in designing, building, and maintaining scalable, cloud-based data pipelines. You will work with AWS (Redshift, S3, Glue, Managed Airflow, Lambda) to integrate, process, and analyze large datasets, ensuring data reliability and efficiency.
Your work will directly impact business intelligence, analytics, and data-driven decision-making across the
What Youll Do:
ETL & Data Processing: Develop and maintain ETL processes, integrating data from various sources (APIs, databases, external platforms) using Python, SQL, and cloud technologies.
Cloud & Big Data Technologies: Implement solutions using PySpark, Databricks, Airflow, and cloud platforms (AWS) to process large-scale datasets efficiently.
Data Modeling: Design and maintain logical and physical data models to support business needs.
Optimization & Scalability: Improve process efficiency and optimize runtime performance to handle large-scale data workloads.
Collaboration: Work closely with BI analysts and business stakeholders to define data requirements and functional specifications.
Monitoring & Troubleshooting: Ensure data integrity and reliability by proactively monitoring pipelines and resolving issues.
Data Modeling: Design and maintain logical and physical data models to support analytics and operational needs.
Requirements:
Education & Experience:
BSc in Computer Science, Engineering, or equivalent practical experience.
3+ years of experience in data engineering or related roles.
Technical Expertise:
Proficiency in Python for data engineering and automation.
Experience with Big Data technologies such as Spark, Databricks, DBT, and Airflow.
Hands-on experience with AWS services (S3, Redshift, Glue, Managed Airflow, Lambda)
Knowledge of Docker, Terraform, Kubernetes, and infrastructure automation.
Strong understanding of data warehouse (DWH) methodologies and best practices.
Soft Skills:
Strong problem-solving abilities and a proactive approach to learning new technologies.
Excellent communication and collaboration skills, with the ability to work independently and in a team.
Nice to Have (Big Advantage):
Experience with JavaScript, React, and Node.js.
Familiarity with K8s for infrastructure as code.
Experience with Retool for internal tool development.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8219367
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We are looking for a highly motivated and talented Senior Business Analyst to join our Revenue Analytics team and contribute to our Go-To-Market organization's strategic decision-making process.
As a Senior Business Analyst, you will work closely with members of the Go-To-Market organization to drive impact, value, and insights using data and play a key role in our growth.
What does a Senior Business Analyst mean?
Collaborate closely with members of the Go-To-Market organization to leverage data for strategic decision-making.
Design and build dashboards to monitor business KPIs, ensuring data hygiene and integrity.
Develop models, targets, and tracking reports to measure the effectiveness of our Go-To-Market efforts.
Identify new growth opportunities and foster a data-driven culture within the Go-To-Market organization.
Communicate your findings and recommendations to stakeholders in a clear and compelling manner.
Collaborate with data engineers to integrate new data sources, enhancing our systems.
Requirements:
How does the ideal candidate look like:
At least 3 years experience as a data/ business analyst (B2B SaaS experience is a significant advantage).
A bachelors degree in a quantitative field.
SQL proficiency - a must; Python and DBT - a plus
Experience with analytics and visualization tools (Tableau - an advantage).
An in-depth understanding of the B2B sales landscape & digital data industry - an advantage
Experience with data modeling, data pipeline development, and understanding of ERD concepts.
Strong problem-solving skills and ability to think strategically.
Proficiency in working with complex data schemas.
Can use their analytical skills to drive business impact.
Ability to interact comfortably with colleagues, especially around data-related topics.
Excellent communication and presentation skills.
Proficiency in English.
Positive, team-oriented, and can-do attitude
*All Similarweb offices work in a hybrid model, so you can enjoy the flexibility of working from home with the benefits of building face-to-face connections with fellow Similarwebbers.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8219362
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Senior Data Scientist to join our team and help advance our Apps solution. Our product is designed to provide detailed and accurate insights into Apps Analytics, such as traffic estimation, revenue analysis, and app characterization. The role involves designing and implementing statistical and ML algorithms within big data pipelines, while ensuring data robustness and efficiency. You will be expected to come up with creative solutions to problems related to time series, text analysis, estimation and classification. You will work closely with a diverse team of scientists, engineers, analysts, and collaborate with business and product stakeholders.
Key Responsibilities: Develop and implement complex, innovative big data ML algorithms for new features, working in collaboration with data engineers and analysts.
Participate in the design of our data products based on your knowledge of the data sources available.
Monitor and analyze data along the pipelines to ensure product quality and promptly resolve any issues that arise.
Requirements:
- Masters degree in Computer Science, Mathematics, Data Science or another relevant scientific discipline.
- At least 4 years of experience in data science or related roles.
- Proficiency in Python.
- Familiarity with statistical estimation methods, time series analysis, supervised and unsupervised machine learning models.
- Experience with Big Data technologies and distributed computing such as Spark is a huge advantage.
- Strong problem-solving skills and ability to learn new technologies quickly.
- Being goal-driven, efficient and thinking out of the box.
- Excellent communication skills and ability to work independently and in a team.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8219319
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
Transmit Security is a top player in its game and is heading for an exciting year.

In this role, you will take an integral part in the creation of a new and innovative SaaS product.

If you are a talented software engineer that likes to solve complex problems and looking for your next challenge we want you to join our team!

What youll do: As the Team Leader for Data Platform at Transmit Security, you will lead a talented team to design, implement, and deploy scalable data solutions for an innovative SaaS product. Youll be responsible for shaping the direction of a system that impacts millions of users worldwide. If you're an experienced manager with a strong technical background, ready to lead in a dynamic, fast-paced production environment, we want you on our team!
Responsibilities:
Lead and guide the Data Engineering team in the design and deployment of scalable data infrastructure.
Collaborate effectively with cross-functional teams (Data Science, Security, etc.) to ensure alignment on business needs and security standards.
Manage the technical backlog, make critical decisions on product milestones, and ensure timely, secure, high-quality delivery and deployment.
Foster the growth of team members through mentorship, personal development opportunities, and the promotion of continuous improvement.
Identify, manage, and mitigate security risks across the data platform, maintaining high standards in all initiatives.
Define and implement methodologies to guarantee the performance, scalability, and quality of our data infrastructure.
Requirements:
5+ years of software engineering experience, with at least 2 years in a leadership capacity.
Extensive knowledge of distributed computing platforms (Flink, Spark, Beam) and cloud platforms (AWS, GCP, Azure).
Proficiency in programming languages such as Python, Java, Scala, or Go.
Demonstrated strong leadership abilities, including guiding teams, managing backlogs, and fostering effective cross-functional collaboration.
Proven experience in managing security risks and ensuring high-quality, scalable, and compliant systems.
Ability to maintain focus on key priorities and excel in a fast-paced, dynamic production environment.
Advantages:
Bachelors degree in Computer Science or a related field.
Experience with microservice architecture, data management tools (Kafka, Airflow, MLOps), and CI/CD processes.
Familiarity with databases (Postgres SQL, Redis) and Kubernetes.
Background in identity management, risk assessment, or fraud detection.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8219295
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are seeking a skilled Data/ Backend Engineer to design and implement complex, high-scale systems that retrieve, process, and analyze data from the digital world. This role involves developing and maintaining backend infrastructure, creating robust data pipelines, and ensuring the seamless operation of data-driven products and services.
Key Responsibilities:
- Design and build high-scale systems and services to support data infrastructure and production systems.
- Develop and maintain data processing pipelines using technologies such as PySpark, Hadoop, and Databricks.
- Implement dockerized high-performance microservices and manage their deployment.
- Monitor and debug backend systems and data pipelines to identify and resolve bottlenecks and failures.
- Work collaboratively with data scientists, analysts, and other engineers to develop and maintain data-driven solutions.
- Ensure data is ingested correctly from various sources and is processed efficiently.
Requirements:
- BSc degree in Computer Science or equivalent practical experience.
- At least 4+ years of server-side software development experience in languages such as Python, Java, Scala, or Go.
- Experience with Big Data technologies like Hadoop, Spark, Databricks, and Airflow.
- Familiarity with cloud environments such as AWS or GCP and containerization technologies like Docker and Kubernetes.
- Strong problem-solving skills and ability to learn new technologies quickly.
- Excellent communication skills and ability to work in a team-oriented environment.
Nice to Have:
- Experience with web scraping technologies.
- Familiarity with Microservices architecture and API development.
- Knowledge of databases like Redis, PostgreSQL, and Firebolt.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8219243
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 11 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a Data Engineer to join our team and help advance our Apps solution. Our product is designed to provide detailed and accurate insights into Apps Analytics, such as traffic estimation, revenue analysis, and app characterization. The role involves constructing and maintaining scalable data pipelines, developing and integrating machine learning models, and ensuring data integrity and efficiency. You will work closely with a diverse team of scientists, engineers, analysts, and collaborate with business and product stakeholders.
Key Responsibilities:
Develop and implement complex, innovative big data ML algorithms for new features, working in collaboration with data scientists and analysts.
Optimize and maintain end-to-end data pipelines using big data technologies to ensure efficiency and performance.
Monitor data pipelines to ensure data integrity and promptly troubleshoot any issues that arise.
Requirements:
Bachelor's degree in Computer Science or equivalent practical experience.
At least 3 years of experience in data engineering or related roles.
Experience with big data Machine Learning - a must ! .
Proficiency in Python- must. Scala is a plus.
Experience with Big Data technologies including Spark, EMR and Airflow.
Experience with containerization/orchestration platforms such as Docker and Kubernetes.
Familiarity with distributed computing on the cloud (such as AWS or GCP).
Strong problem-solving skills and ability to learn new technologies quickly.
Being goal-driven and efficient.
Excellent communication skills and ability to work independently and in a team.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8219237
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 13 שעות
Location: Merkaz
Job Type: Full Time
We are looking for a Big Data Software Engineer to join our growing team. In this role, you will be responsible to design and development of our big data processing engine.
Responsibilities:
Design and development of high-quality big data processing engineer
Identify and proactively address potential product risks and challenges and ensuring success
Work closely with stakeholders to transform requirements into technical specifications
Ensure that the code is consistent with industry coding standards and best practices
Take a deep dive into the technical details and provide expert advice and solutions
Requirements:
5+ years of experience in the SW Engineering industry
5+ years of hands-on experience with Java development
3+ years of experience in Scala, Spark, Hadoop
Experience in Spark on K8s and Airflow a big plus
3+ years of experience with SQL and Non-SQL DBs
3+ years of proven experience of designing and building cloud application on AWS (Azure, GCP)
Experience with Spring Framework Advantage
Experience with microservice architecture Advantage
Experience of working with DevOps and working with CI/CD practices Advantage:
Deep understanding of Agile principles, practices and values
Solid understanding of design patterns, software development techniques, and clean code practices
Team player, strong communication skills, and a positive attitude
Fast learner, self-starter, broad-minded with a can do approach
Advanced English written and verbal communication skills
Bachelors, BScs or Masters degree in Computer Science or Engineering fields from leading academic school
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8219012
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
Location: Ra'anana
Job Type: Full Time and Hybrid work
We are expanding our global data platform infrastructure team and were hiring top-tier engineering talent in Israel. This is a critical role focused on building scalable, secure, and intelligent platform capabilities that empower data engineers, analysts, ML engineers, and data scientists across the company.
Youll be part of a high-impact international team driving the foundation of our enterprise data platform designing automation, governance, and observability frameworks that power secure, compliant, and efficient data operations at scale.
Location: Raanana, Israel (Hybrid 3 days/week onsite, office is right on the train station)
What Youll Do
Design and build infrastructure for real-time, secure, and governed data operations empowering data practitioners across
Develop capabilities to support data ingestion, modeling, analytics, and MLOps using modern tooling and scalable cloud-native architecture
Implement security best practices, including automatic key rotation, RBAC, data classification, and encryption at rest/in transit
Own and automate infrastructure components using Infrastructure as Code (e.g., Terraform)
Build and maintain operations for tools like Airflow and dbt to enable seamless orchestration and transformation workflows
Collaborate across data engineering, analytics, data science, and DevOps teams to enhance platform capabilities and adoption
Support modern metadata standards and technologies like Model Context Protocol (MCP) and Apache Iceberg
Monitor and improve platform performance, reliability, and security posture.
Requirements:
8+ years of experience in platform infrastructure, DevOps for data, or data platform engineering roles
Strong Python development skills
Good SQL knowledge and experience with query optimization
Hands-on experience with Airflow, Kafka and dbt operationalization
Strong background in cloud data platforms on AWS and GCP
Hands-on experience with Kubernetes for containerized environments.
Familiarity with Infrastructure as Code practices using tools like Terraform
Solid understanding of RBAC, data security, and enterprise compliance
Experience with data lake/lakehouse table formats like Apache Iceberg
Experience with modern data warehouses or lakehouses such as Snowflake or Databricks
Knowledge of data lineage, metadata frameworks, and data observability practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8218957
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
Location: Tel Aviv-Yafo
Job Type: Full Time
We are looking for a highly motivated and experienced Data Analytics Team Lead to lead our Israel-based team within the Services organization. This role offers the opportunity to drive innovation and shape the future of customer-facing analytics solutions. You will oversee the development and delivery of custom data reports, ensuring that our clients receive maximum value from our location intelligence data.
RESPONSIBILITIES:
As a Team Lead, you will be responsible for managing a high-performing analytics team, developing scalable data products, and collaborating cross-functionally to deliver value to our clients. Your key responsibilities will include:
Team Leadership & Development
Lead and inspire a cohesive, high-performing team while fostering a positive, proactive culture.
Mentor and coach team members, supporting both professional development and the achievement of team goals.
Manage hiring efforts to support team growth in line with business needs.
Facilitate knowledge-sharing and collaboration across internal teams.
Project & Resource Management
Estimate project scope and effort based on deep familiarity with our data, tools, and internal processes.
Allocate work effectively based on team capacity, priorities, and constraints.
Handle escalations and interruptions while maintaining project focus and team productivity.
Define and track team KPIs, identifying areas for improvement and driving operational excellence.

Cross-functional Collaboration

Work closely with Solutions Engineering, Consulting, Customer Success, and Sales to define project scopes and manage client expectations.
Collaborate with Product and R&D teams to align on data methodologies, product roadmap, and technical best practices.
Support analytics teams across the organization in building and optimizing data pipelines.
Technical Innovation
Identify opportunities to improve processes and implement efficiencies in report development and delivery.
Drive technical initiatives to enhance the scalability, reliability, and maintainability of reporting pipelines.
Team & Tech Stack
Youll lead one of two Data Analytics teams (the other is US-based). The team works with large-scale data to construct custom metrics and support client-specific reporting needs.
The team includes data analysts, data pipeline engineers and software engineers.
Languages & Tools: Python, Spark, Airflow, Databricks, Dataproc, Hive, MongoDB, Tableau.
Requirements:
At least 2 years of proven experience leading data analytics teams
Strong technical background, hands-on experience in Python and PySpark
Strong statistical background, proven experience in developing new methodologies
Experience with geo spatial data - advantage
Ability to manage multiple complex projects in a dynamic, cross-functional environment
High sense of accountability and ownership
Excellent communication and interpersonal skills, excellent spoken and written English
Passion for mentoring and team development
Strong analytical thinking and problem-solving skills
B.Sc/M.Sc in Industry & Management, Computer Science, Mathematics, Statistics, Economics or equivalent
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8218860
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 15 שעות
Location: Merkaz
As a Team Lead, you will have the opportunity to significantly impact intelligence processes and contribute to counter-terrorism efforts by designing and implementing cutting-edge big data solutions on various platforms.
Responsibilities
Manage and lead a team of Big Data engineer.
Design and implement advanced infrastructure solutions using Hadoop Ecosystem.
Work closely with other departments within the organization to understand their needs and develop tailored solutions.
Analyze user requirements and recommend new tools and technologies in the field of Big Data.
Develop self-service solutions for managing and creating infrastructure under team's responsibility.
Manage large-scale projects while meeting deadlines and targets.
Requirements:
At least 3 years experience leading complex project in the field of Big Data engineering.
Experience working with systems such as Hadoop, ElasticSearch, Vertica or similar technologies.
Proven track record of successfully managing technical team to design and deliver innovative solutions.
Experience with SQL and Linux.
Familiarity with Spark, Python, Hive.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8218727
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 16 שעות
Location: Merkaz
Join our Data Science research team, leveraging analytical capabilities into the field of cybersecurity.
Responsibilities
Develop and implement statistical models and algorithms in big data environment to analyze communication data and logs for endpoint devices, identifying network attacks and anomalies.
Extract insights and enrichment using advanced analytical tools.
Lead end-to-end data science projects, including requirements gathering, conducting proof of concept (POCs), demonstrating value, building pipelines in operational systems and monitoring project progress.
Maintenance, improvement and optimization of production models.
Collaborate with various stakeholders within the unit and identify challenges and improvements that can addressed using data science techniques.
Requirements:
Master's degree in Engineering or related fields, with a focus on Applied statistics, machine learning or AI.
+3 years of experience as a data scientist, specializing in tabluar data.
Experience in network communication principles- must.
Proficiency in Python, with extensive experience in libraries such as Scikit-learn, Pandas, NumPy and SciPy.
Full proficiency in SQL.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8218643
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
We're looking for a Data Analyst Team Leader to join our office in Tel Aviv and play a key role in our success.>
Responsibilities:
As Data Analyst Team Leader, you will:
Split your time evenly between team leadership (50%) and hands-on analytical work (50%)
Personally analyze large datasets from our sensors to discover critical trends in hive state, health, and pollination efficiency
Lead and mentor a team of data analysts, fostering professional growth while staying deeply involved in technical execution
Directly build and optimize dashboards and reports that communicate key metrics across the organization
Write and review code for data pipelines, analytical models, and visualization tools
Develop and implement data quality processes while maintaining your technical edge through active coding
Balance strategic leadership with day-to-day technical contribution across multiple concurrent projects.
Requirements:
6+ years of hands-on data analysis experience with a proven track record of delivering impactful data-driven projects
3+ years of team leadership experience while maintaining significant technical contributions
Expert-level proficiency in Python and SQL that you actively apply in your daily work
Strong data visualization skills with experience personally creating intuitive dashboards
Ability to balance management responsibilities with continued technical excellence
Exceptional communication skills for presenting your team's and your own technical findings
Passion for continuous learning and implementing innovative data techniques
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8218335
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Herzliya
Job Type: Full Time
We are searching for an innovative and experienced Data Engineer that will join us and be part of our new data initiatives team in our data group.
As a Data Engineer, you will:
Be a part of a cross functional team of data, backend and DevOps engineers.
Be responsible for ingesting large volumes of new data, followed by deep understanding and inspection of the data in close collaboration with data scientists.
Lead the architecture, planning, design and development of mission-critical, diverse and large-scale data pipelines over both public and on-prem cloud solutions.
Requirements:
At least 3 years of experience working as a Data Engineer
At least 3 years of experience coding with Object-Oriented Programming (OOP) languages.
Hands-on experience with Spark for large-scale batch processing.
Hands-on experience working with AWS data processing tools and concepts.
Proven understanding in designing, developing and optimizing complex solutions that move and/or manipulate large volumes of data.
Sound understanding of partitioning and optimization techniques of different big data file formats (such as Parquet, DeltaLake, AVRO, HDF5)
Experience with Docker, Linux, CI/CD tools and concepts, Kubernetes.
Experience with data pipelining tools such as Airflow, Kubeflow or similar.
BSc / MSc degree in Computer Science/Engineering / Mathematics or Statistics.
Understanding of ML concepts and processes.
Advantage:
Hands-on experience with DataBricks platform.
Experience working on large scale and complex on-premises systems.
Hands-on experience in ML frameworks and models training and implementation.
Hands-on experience in lower-level programming languages such as C++ or RUST
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8218224
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו