דרושים » ניהול ביניים » data Engineer עבור חברה גלובלית באזור השרון

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
חברה גלובלית באזור השרון מגייסת data Engineer
התפקיד כולל עבודה עם פיתוח והקמה של פלטפורמת data ארגונית, תכנון ובניית תהליכי ELT מתקדמים, איסוף, עיבוד ואחסון מידע ממקורות שונים, פיתוח מערכות data סקלאביליות, עבודה עם טכנולוגיות Big Data ו-Cloud, ושיתוף פעולה עם צוותי R&D וגורמים עסקיים לצורך הפקת תובנות מבוססות נתונים ועוד.
דרישות:
- שנתיים ניסיון כ- data Engineer
- ניסיון בעבודה עם טכנולוגיות Snowflake/ Databricks
- ניסיון בפיתוח תהליכי ELT ועבודה עם SQL
- ניסיון בסביבות Cloud כגון AWS / Azure / GCP
- תואר ראשון במדעי המחשב / הנדסת תוכנה - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8608609
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 23 שעות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
פיתוח מקצה לקצה של מערכות מתקדמות מבוססות ML DL ו AI, החל משלבי האפיון ועד להעלאה לסביבת ייצור. העבודה תתבצע עם מודלים מתקדמים, תשתיות דאטה וארכיטקטורות סקיילביליות בסביבות ענן.

תחומי אחריות עיקריים:

- פיתוח והטמעת מודלים מבוססי ML DL ו AI.
- ניתוח נתונים מורכבים והסקת מסקנות עסקיות קריטיות
- יישום מודלים מתקדמים כגון Boosting, Random Forest, GLM, Regression, Clustering, PCA
- פיתוח והטמעת שירותים סביב LLMs, Data pipelines, APIs ותשתיות ליבה

מסגרת המשרה:

- משרה מלאה
- ימי ראשון- חמישי
- גמישות אפשרית בשעות (לא קיימת עבודה מרחוק)
- ישיבה במשרדי החברה - געש, הגעה עצמאית
- עבודה בצוות
- עבודה בכפיפות למנהלת מחלקה.
דרישות:
השכלה:
- תואר ראשון רלוונטי.

ניסיון מקצועי (חובה):

- 2+ שנות ניסיון בפיתוח פתרונות AI
- ניסיון עם LLM, כולל עבודה מול OpenAI וAzure OpenAI
- ניסיון בפיתוח Backend וAPI
- ניסיון בעבודה בסביבות ענן
- ניסיון ב-RAG וVector Databases

כישורים טכניים (חובה):
- יכולת אנליטית גבוהה וחשיבה יצירתית לפתרון בעיות עסקיות
- הבנה מעמיקה בעולמות ML, Deep Learning, AI, דאטה וSQL
- פיתוח ב-Python ושימוש בספריות Numpy, Pandas, Scikit-Learn, PyTorch
- ניהול prompting מתקדם: safety filters, guardrails, versioning וארכיטקטורה מותאמת לניסויים
- עבודה מול ספקי מודלים שונים, Caching, Fallbacks ואופטימיזציית עלות מול ביצועים
- ראייה תצפיתית (observability): לוגים, מטריקות, ודשבורדים
- ידע באבטחה: Authorization and Authentication
- ניסיון עם MCP, בניית Tools ועבודה עם מודלים מולטימודליים
- אנגלית ברמה גבוהה - חובה
* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8606014
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים במגייסת
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה יזמית ציבורית מובילה בתחום האנרגיה הסולארית וסחר בחשמל אנחנו מגייסים מנהל /ת ביצועים של מערכות אנרגיה סולארית ואגירה
תיאור התפקיד:
מנהל /ת הביצועים אחראי/ת על ניתוח נתוני הייצור של המערכות הסולאריות והאגירה לצורך זיהוי פערים וחריגות, זיהוי מגמות שליליות לאורך זמן, ניהול מעקב ובקרה לטובת מיקסום תפוקות המתקנים.
עיקרי תחומי אחריות:
עבודה שוטפת מול מערכות ניטור ומערכות לניהול ביצועים לצורך בקרת ביצועים והפקת דוחות תקופתיים.
ניתוח נתוני ייצור והשוואתם לתחזיות.
ביצוע חקר נתונים לטובת זיהוי חריגות, פערי ביצועים והצפתם.
זיהוי מגמות ארוכות טווח, מעקב KPI's טכניים למול יעדים ומול התחייבויות קבלנים.
הכנה והצגת דוחות ביצועים תקופתיים למחלקה והנהלה.
ניהול וייזום של תהליכי שיפור ביצועים למתקנים.
תמיכה בניתוחי כדאיות כלכלית וטכנית למול חלופות שונות לשיפור ביצועי המתקנים.
בקרה אחר דוחות תקופתיים המתקבלים מקבלנים.
דרישות:
תואר ראשון בהנדסה (חשמל/אנרגיה/תעשייה וניהול/מהנדס/ת נתונים) או תחום רלוונטי אחר
ניסיון קודם בניתוח נתונים ואנליזה - חובה
ניסיון בעבודה עם מערכות/ SCADA מערכות ניטור - יתרון משמעותי
שליטה גבוהה בכלי ניתוח נתונים, אקסל וכלי BI.
הבנה טכנית של מערכות פוטו-וולטאיות - יתרון משמעותי.
ניסיון בעבודה עם מודלי תחזיות כגון PVsyst - יתרון.
אנגלית ברמה גבוהה.
עבודה היברידית במשרדי החברה בשרון (אפשרות ליומיים בשבוע מהבית) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8613683
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים באיילת אלבז
סוג משרה: משרה מלאה ועבודות ללא קורות חיים
לחברה יזמית בתחום האנרגיה המתחדשת,
דרוש/ה מנהל /ת ביצועים של מערכות אנרגיה סולארית ואגירה.
מיקום - אזור השרון.

תחומי אחריות -
עבודה שוטפת מול מערכות ניטור ומערכות לניהול ביצועים לצורך בקרת ביצועים והפקת דו"חות תקופתיים.
ניתוח נתוני ייצור והשוואתם לתחזיות.
ביצוע חקר נתונים לטובת זיהוי חריגות, פערי ביצועים והצפתם.
זיהוי מגמות ארוכות טווח, מעקב KPI's טכניים למול יעדים ומול התחייבויות קבלנים.
הכנה והצגת דוחות ביצועים תקופתיים למחלקה והנהלה.
ניהול וייזום של תהליכי שיפור ביצועים למתקנים.
תמיכה בניתוחי כדאיות כלכלית וטכנית למול חלופות שונות לשיפור ביצועי המתקנים.
בקרה אחר דוחות תקופתיים המתקבלים מקבלנים.
ממשקי עבודה - מחלקת תפעול, מחלקת ניהול נכסים, מחלקת סחר, מחלקת הנדסה.
דרישות:
תואר ראשון בהנדסה (חשמל/אנרגיה/תעשייה וניהול/מהנדס נתונים) או תחום רלוונטי אחר.
ניסיון קודם בניתוח נתונים ואנליזה - חובה.
ניסיון בעבודה עם מערכות/ SCADA מערכות ניטור - יתרון משמעותי.
שליטה גבוהה בכלי ניתוח נתונים, אקסל וכלי BI.
הבנה טכנית של מערכות פוטו-וולטאיות - יתרון משמעותי.
ניסיון בעבודה עם מודלי תחזיות כגון PVsyst - יתרון.
אנגלית ברמה גבוהה. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8612044
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 3 שעות
דרושים בריקרוטיקס בע"מ
Location: More than one
Job Type: Full Time and Hybrid work
We are a pioneer company that integrates statistics modules and algorithms with a passion to sports, mainly soccer.
We are looking for a data analyst to join our research department. The data analyst function will support several stakeholders in our company.
As a part of your job you'll be:
Working with the research team and be the one to look and understand the bigger picture.
Learning the data gathering mechanism.
Face and solve business problems by analyzing data and provide insights to the business.
Develop complex logic flows to identify predefined events and generate desired insights.
Support the researchers on their projects.
Responsible for conducting both recurring and ad hoc analysis for business stake holders.
Research and integrate new tools and methods to enrich datasets.
Requirements:
A least 2 years of experience as a data Analyst - a must
High hands-on SQL skills ( SQL server ) - a must
R or Python programming skills- a must
Knowledge in statistics - a must
Interest in FinTech, Algo Trading - an advantage
Interest in sports (soccer in particular) - an advantage
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8607430
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 21 שעות
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data -driven solutions for the business.

Key Responsibilities:
Design, develop, and optimize ETL /ELT pipelines for large-scale data processing.
Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
Troubleshoot and optimize queries and jobs for performance improvements.
Implement best practices for data governance, security, and monitoring.
Stay updated with industry trends and emerging technologies
Requirements:
4 years of experience in data engineering or related fields.
Proficiency in Python for data processing and automation (mandatory).
Deep understanding of Apache Spark and Databricks for Big Data processing (mandatory).
Experience with Git (mandatory).
Expertise in Apache Airflow for workflow orchestration.
Familiarity with cloud-based environments, particularly Azure.
Advanced proficiency in SQL and query optimization.
Familiarity with data modeling, ETL /ELT principles, and performance tuning.
Knowledge of CI/CD and containerization (Docker).
An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8593710
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 20 שעות
דרושים ביערה פיינר-אבחון והשמה
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
לחברה יזמית גלובלית באנרגיה מתחדשת דרוש/ה
מנהל /ת תחום מימון פרויקטים ואנליזה עסקית

מיקום:אזור השרון
כפיפות סמנכל כספים
התפקיד כולל טיסות לחו"ל, השתתפות בפגישות עסקיות ופיננסיות עם שותפים, משקיעים, בשיתוף עם מנהלי הפיתוח העסקי

תפקיד מרכזי הכולל עיסוק במידול פיננסי, בחינת השקעות, מימון פרויקטים, מסחר בחשמל ופיתוח פרויקטי אנרגיה. התפקיד כולל עבודה שוטפת עם מחלקת הפיתוח וממשק ישיר עם הנהלת החברה, תוך ליווי תהליכים עסקיים ופיננסיים משלב הפיתוח הראשוני ועד לסגירה הפיננסית.

תחומי אחריות
בנייה ותחזוקה של מודלים פיננסיים לפרויקטי אנרגיה
ביצוע הערכות פרויקט וניתוחי השקעה לצורך קבלת החלטות
הובלת תהליכי מימון פרויקטים, כולל תיאום מול מלווים ומשקיעים עד לסגירה פיננסית
ליווי פעילות החברה בתחום הסחר בחשמל, כולל עבודה מול סוחרים
השתלבות בתהליכי השקעה של החברה, לרבות אג"ח והנפקות
תחזוקה ועדכון של המודל הכלכלי של החברה
בקרה על תקציב החברה
תמיכה בפיתוח פרויקטים משלב מוקדם ועד Financial Close
דרישות:
רואה חשבון או כלכלן/ית - חובה. תואר שני -יתרון
אנגלית ברמה גבוהה מאוד, בכתב ובעל פה - חובה
ניסיון של לפחות 3 שנים בתפקיד דומה באנרגיה מתחדשת-חובה
ניסיון קודם בפעילות גלובלית בתחום - יתרון רב
הבנה פיננסית גבוהה, חשיבה אנליטית ויכולת עבודה עצמאית
נכונות לנסיעות לחו"ל המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8615224
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
05/04/2026
חברה חסויה
Location: Netanya
Job Type: Full Time
We are seeking a Data Engineer to join our growing data team to design, build, and maintain data pipelines and infrastructure. You will work on distributed systems, orchestration frameworks, cloud environments, and modern data technologies to ensure that data flows reliably and efficiently across the organization.
Key Responsibilities:
Optimize processes for scalability and efficiency in distributed environments.
Ensure data quality, integrity, and performance across workflows.
Work with cloud-native solutions and containerized environments (Docker/Kubernetes).
Implement and manage orchestration frameworks (Airflow/Dagster/etc.).
Collaborate with cross-functional teams to support business and research needs.
Develop and enforce CI/CD processes and data testing frameworks (pytest, GE, or similar).
Monitor, troubleshoot, and continuously improve pipeline reliability and performance.
Requirements:
Youll be a great fit if you have
4+ years of professional experience with Python and SQL.
Proven experience building and maintaining ETL/ELT pipelines (batch/streaming) with orchestration frameworks (Airflow, Dagster, or similar).
Hands-on experience with distributed computing frameworks (Spark, Dask, Beam) and large-scale data processing.
Experience with major cloud platforms (AWS, GCP, or Azure); GCP/BigQuery is an advantage.
Proficiency with Docker/Kubernetes and CI/CD pipelines (GitLab CI, GitHub Actions, or similar).
Solid understanding of software engineering practices (data structures, algorithms, TDD, code quality).
Familiarity with data testing and monitoring frameworks (pytest, Great Expectations, observability tools).
Nice to Have:
Experience with dbt, ClickHouse, or Ray.
Familiarity with Python data libraries (pandas, NumPy, Apache Arrow, Jinja).
Background in functional programming.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8600774
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
חברה חסויה
Location: Netanya
Job Type: Full Time
DRS RADA is a leading defense high-tech company specializing in radar systems development. We are seeking an experienced Data Engineer to join our data engineering team. In this role, you will play a crucial part in designing, developing, and maintaining scalable data pipelines and infrastructure to support our AI department. This is an opportunity to work with cutting-edge technologies in a fast-paced production environment, driving impactful, data-driven solutions for the business. Key Responsibilities:
* Design, develop, and optimize ETL/ELT pipelines for large-scale data processing.
* Work with a modern data stack, including Databricks (Spark, SQL), Apache Airflow, and Azure services.
* Troubleshoot and optimize queries and jobs for performance improvements.
* Implement best practices for data governance, security, and monitoring.
* Stay updated with industry trends and emerging technologies in data engineering. If you're passionate about building scalable data solutions and thrive in a fast-paced environment, we’d love to hear from you!
Requirements:
* 4 years of experience in data engineering or related fields.
* Proficiency in Python for data processing and automation (mandatory).
* Deep understanding of Apache Spark and Databricks for big data processing (mandatory).
* Experience with Git (mandatory).
* Expertise in Apache Airflow for workflow orchestration.
* Familiarity with cloud-based environments, particularly Azure.
* Advanced proficiency in SQL and query optimization.
* Familiarity with data modeling, ETL/ELT principles, and performance tuning.
* Knowledge of CI/CD and containerization (Docker).
* An enthusiastic, fast-learning, team-oriented, and motivated individual who loves working with data.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8500308
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Netanya
Job Type: Full Time and Hybrid work
Required Senior Data Engineer - Core Data Platform Team
Our Core Data Platform team
We're a leading force in the ad tech industry, revolutionizing how brands connect with their audiences. Our platform processes billions of ad impressions daily, generating massive datasets that drive our core business. We thrive on innovation and seek a Senior Data Engineer to help us build and scale the data infrastructure that powers our insights and analytics. This is a unique opportunity to work with cutting-edge technologies and make a direct impact on our products.
What will you do?
As a Senior Data Engineer, you'll be a key part of our data platform team, responsible for designing, building, and maintaining robust and scalable data pipelines. You'll work closely with data scientists, analysts, and server side engineers to ensure our data is reliable, accessible, and ready for analysis. Your expertise will be crucial in expanding our data warehouse and data lake capabilities, enabling us to deliver next-generation ad tech solutions.
Your mission will be to:
Develop and Optimize Data Pipelines: Design, build, and maintain ETL/ELT pipelines using Apache Spark to ingest, process, and transform large-scale datasets from various sources.
Manage Cloud Infrastructure: Architect and manage our data infrastructure primarily on Google Cloud Platform (GCP) or Amazon Web Services (AWS). This includes services like BigQuery, S3, GCS, EMR, and AirFlow.
Enhance Data Storage: Improve and manage our data warehouse and data lake solutions, ensuring data quality, consistency, and accessibility for business intelligence and machine learning applications.
Collaborate and Innovate: Partner with cross-functional teams to understand data needs and implement solutions that support new product features and business initiatives.
Ensure Data Integrity: Implement monitoring, alerting, and logging systems to maintain data pipeline health and ensure data accuracy.
Requirements:
7+ years of professional experience in a data engineering or similar role.
Good programming abilities. Testing your code is second nature to you. You are mindful of your applications architecture, performance, maintainability, and overall quality.
Technical skills
Strong proficiency in SQL / Java or Scala / Python.
Extensive experience with distributed data processing frameworks like Apache Spark / Flink / Hive / Trino.
Proven experience working with cloud-based data services on GCP or AWS (e.g.BigQuery, S3, GCS, EMR, DataProc).
Experience with real-time data streaming technologies like Kafka or Flink.
Deep understanding of data warehouse and data lake concepts and best practices
Knowledge of Apache Iceberg or Delta Lake
Solid understanding of IaC using Terraform
Familiarity with SQL and NoSQL databases.
Good communication skills and ability to work collaboratively within a team. You are an active listener and a dialogue facilitator, you know how to explain your decision and like sharing your knowledge.
Multiple shipped projects in Software Engineering.
Production knowledge and practices (Release, Observability, Troubleshooting, ), thanks to multiple shipped projects / applications. Strong problem-solving skills.
Nice to Have
Familiarity with containerization (Docker/OrbStack, Kubernetes).
Knowledge of the ad tech ecosystem (e.g., DSPs, SSPs, Ad Exchanges).
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8601666
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Netanya
Job Type: Full Time
Required Data Engineer - Finance Solutions
The Finance Solutions team is a growing team that builds and owns products supporting the company's financial processes for internal users, customers (advertisers), and partners (publishers). Our core mission is to make finance operations simpler, more efficient, accurate, and trustworthy by continuously identifying and resolving pain points through automation, system integrations, and the use of AI. Our team operates in a truly international and heterogeneous environment, with members and partners split between Israel, France, UK and NY.
What will you do?
As a Data Engineer, you will be the backbone of our data-driven financial operations. You will focus on building and maintaining the infrastructure that turns raw financial data into actionable insights. You will serve as a technical liaison between engineering and business stakeholders to translate analytics requirements into scalable data solutions.
Collaborate with colleagues (engineering, product managers and finance) to understand data requirements and deliver data solutions.
Design, build, and maintain data models that are scalable, extendable and easy to use by other teams.
Design, build, and maintain scalable and reliable data pipelines to collect, process, and store data from various data sources.
Implement data quality checks and monitoring to ensure data accuracy and integrity.
Create and maintain dashboards and reports that provide visibility into key financial metrics like revenue, usage, and cost.
Requirements:
What will you bring to the team?
We are looking for a seasoned professional with a "growth mindset" who is eager to learn and share knowledge. The ideal candidate should have the following qualifications:
Proven experience (4+ years) in data engineering, BI, or analytics engineering, ideally within finance or customer management domains.
Strong expertise in SQL.
Strong experience using Google data stack including Google BigQuery and Looker
Experience using tools like dbt and orchestration platforms like Apache Airflow.
Good knowledge of Python for carrying out data related tasks
Proficiency in building dashboards and reports.
Experience managing client-facing projects and troubleshooting technical issues.
Bonus Points
Experience in the Ad-Tech industry.
Experience in Finance/Accounting operations.
Experience in writing software in Java and/or Scala.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8601560
סגור
שירות זה פתוח ללקוחות VIP בלבד