דרושים » דאטה » data Engineer לחברה גדולה בצפון!

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
אנחנו מחפשים data Engineer מנוסה שיצטרף לתחום פלטפורמות דאטה לעבודה עם טכנולוגיות מתקדמות.
התפקיד כולל אחריות על תהליכי קליטה, עיבוד וניתוח נתונים, וכן פיתוח יישומים מבוססי דאטה על גבי פלטפורמת Splunk (כמו דשבורדים, אנליזות והתראות).
דרישות:
-ניסיון מוכח כ- data Engineer תהליכי ETL, עולמות data Pipelines ואינטגרציה בין מקורות מגוונים.
-ידע וניסיון בעבודה עם מערכות לינוקס.
-שליטה בשפות scripting כגון Python וShell.
-הכרות עם מימוש יישומים מבוססי דאטה דשבורדים, דוחות, אנליזות או מערכות ניטור.
-ניסיון בעבודה עם Splunk  יתרון משמעותי.
-ניסיון עם טכנולוגיות נוספות בתחום data analytics (למשל ELK, Grafana, Power BI וכד) יתרון.
-תואר ראשון במערכות מידע, מדעי המחשב או תחום רלוונטי יתרון. המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8411908
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים בOne data
סוג משרה: מספר סוגים
הובלת הקמה של פלטפורמת דאטה חדשה (Greenfield), Cloud-Native וServerless-first
תכנון ופיתוח תשתיות דאטה על גבי Azure או AWS
בניית תהליכי Ingestion, ETL, Feature Engineering וEmbeddings
הובלת איכות נתונים, Lineage, Observability וSLA
עבודה עם Lakehouse: Delta / Iceberg / Hudi
הקמה ותחזוקה של CI/CD וInfrastructure as Code (Terraform / Bicep / CloudFormation)
יישום Best Practices של אבטחה, FinOps ואופטימיזציית עלויות
עבודה צמודה עם צוותי פיתוח וData Science
דרישות:
5+ שנות ניסיון בפלטפורמות דאטה בענן (Azure / AWS)
מומחיות בארכיטקטורות Serverless
שליטה גבוהה בPython וSQL
ניסיון בכלי data Quality (Great Expectations / Deequ)
ידע בCI/CD, IaC, אבטחה ורשתות
אנגלית ועברית ברמה גבוהה
ניסיון בדאטה גרפי יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8457338
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 14 שעות
דרושים בגב מערכות
מיקום המשרה: חיפה
סוג משרה: משרה מלאה
ארגון גדול ומוביל מחפש איש IAM מנוסה עם התמחות במערכות לניהול זהויות והרשאות, לתפקיד משמעותי בלב העשייה הטכנולוגית.

מה אנחנו מחפשים?
מועמד/ת עם ניסיון מוכח בעבודה בסביבות מורכבות, ראייה מערכתית רחבה, יכולת הובלת משימות ופרויקטים, ורצון להיות גורם מקצועי משמעותי בארגון.
דרישות:
ניסיון של 5 שנים ומעלה בתחום ניהול זהויות והרשאות (IAM)

ניסיון מעשי בעבודה עם מערכות IAM מתקדמות (בדגש על SailPoint)

ניסיון בתפעול מערכות, טיפול בתקלות, שדרוגים ושיפור ביצועים

עבודה עם מערכות מידע ארגוניות, בסיסי נתונים וכלי אינטגרציה

ידע בשפות פיתוח וסקריפטים (כגון JAVA / Python / SQL)

ניסיון בעבודה בסביבות Linux ו-Windows

ניסיון בליווי פרויקטים טכנולוגיים, עבודה מול ממשקים מרובים וכתיבת תיעוד

יתרון משמעותי
ניסיון בארגונים גדולים

היכרות עם כלי BI ודוחות ניהוליים

רקע באבטחת מידע המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8460888
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 19 שעות
דרושים בQpoint Technologies
סוג משרה: משרה מלאה
לחברה גדולה ומובילה דרוש/ה מומחה/ית הנדסת נתונים, תשתיות ואינטגרציה לעבודה בסביבות מורכבות ורבמערכתיות.
מה בתפקיד?
- תכנון, הקמה, תפעול ותחזוקה של מערכות אינטגרציה ותשתיות נתונים
- עבודה עם מערכות אינטגרציה וETL (APIM, MQ, DataPower, DataStage, ADF, NiFi, Talend ועוד)
- עבודה עם Big Data (Cloudera)
- ניהול זהויות והרשאות (SailPoint)
- ליווי פרויקטים טכנולוגיים, טיפול בתקלות מורכבות ושיפור ביצועים
דרישות:
מה חשוב לנו?
- ניסיון של 5+ שנים בתחום
- ניסיון משמעותי בSailPoint וניהול זהויות
- ידע בעבודה עם בסיסי נתונים, כלי אינטגרציה וETL
- ניסיון עם Linux / Windows וכתיבת סקריפטים
- שליטה בשפות: JAVA / SQL / Python
- אנגלית ברמה גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8462801
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
14/12/2025
חברה חסויה
Location: Haifa
Job Type: Full Time
We seek a highly skilled and experienced Solution Architect with a deep understanding of Data and operations to join our team. In this role, you will be responsible for designing and implementing data-centric solutions that enable our customers to achieve their business objectives, with a strong focus on building efficient and reliable ETL pipelines. You will work closely with clients to understand their needs, translate them into technical requirements, and architect scalable, reliable, and secure data pipelines.
Key Responsibilities:
Collaborate with clients to gather requirements and understand their data
challenges.
Design and implement end-to-end DataOps solutions, including data
ingestion, processing, storage, and analysis.
Leverage cloud technologies and best practices to architect scalable and
cost-effective data architectures.
Ensure data quality, integrity, and security throughout the data lifecycle.
Automate data pipelines and workflows to improve efficiency and reduce
manual effort.
Stay up-to-date with the latest DataOps trends and technologies.
Provide technical guidance and mentorship to other team members.
Requirements:
Proven experience as a Solution Architect or in a similar role, with a strong focus on DataOps.
Deep understanding of data management principles, data modeling, and ETL processes.
Expertise in cloud technologies (AWS, Azure, GCP) and data platforms (Hadoop, Spark, Snowflake, Looker).
Strong knowledge of programming languages (Python, Java, Scala) and scripting languages (Bash, PowerShell).
Experience with DevOps tools and practices (CI/CD, containerization, orchestration).
Excellent communication and collaboration skills, with the ability to work effectively with both technical and non-technical stakeholders.
Strong problem-solving and analytical skills
Bachelors degree in Computer Science, Engineering, or a related field.
Additional Info:
Send us your CV in English and become part of our team!
Only short-listed candidates will be contacted.
Confidentiality of all applications is assured!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8456701
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
חברה חסויה
Location: Yokne`am
Job Type: Full Time
Are you a person who likes to work in a fast paced organization? For two decades, our company has pioneered visual computing, the art and science of computer graphics. With our invention of the GPU - the engine of modern visual computing - the field has expanded to encompass personal computer games, movie production, product design, medical diagnosis and scientific research. Today, visual computing is becoming increasingly central to how people harmonize with technology, and there has never been a more exciting time to join our excellent team. we are now passionate about innovation at the intersection of visual processing, high performance computing, and artificial intelligence.
Our data centers, and the thousands of servers installed in them, are the foundation upon which our creative products and services are delivered. Our customer base consists of hundreds of deeply intelligent engineers who continually provide us with complex problems to be solved. We are looking for a highly motivated Data Center Engineer to join our team. Having depth and breadth knowledge of working in data center facilities in a large-scale distributed environment is a strength you'll need. You should have deep knowledge and experience in at least one of the following core areas: Project Management, Hardware Operations, Network Operations or Data Center Operations.
What you'll be doing:
Act as technical liaison for our technical teams.
Project manage highly impactful large and small scale data center and lab projects.
Participate in the installation, monitoring, maintenance, support, and optimization of all production server hardware.
Contribute to the development of the global DC knowledge base
Lead teams to deploy new data center infrastructure, deliver server upgrades, integration, rebuild and other projects as required
Build plans to optimize power, cooling and network resources
Inventing the forecast to efficiently match supply to demand. Predict data center growth and scaling issues before they occur and implement solutions. You will acquire new facilities and optimize existing ones to support the business growth.
You will hunt for and resolve issues as well as analyze data looking for trends and systemic issues. Implement process improvements and develop a cutting edge operational environment.
Requirements:
8+ years of experience in large-scale data center hardware deployments, building data centers and directly leading data center relocation projects.
Technical certification and/or relevant work experience.
Ability to understand internal customer problem and provide technical solution in timely manner
Demonstrable ability to prioritize effectively, and experience with technical project management.
Understanding of Data Center infrastructure including power , cooling , structured cabling (copper , fiber ).
Experience in developing and reviewing MOP and SOPs, to minimize our operating risks.
Strong interpersonal skills and ability to communicate effectively with a diverse group of customers and staff.
Relevant diploma or equivalent experience
Ways to stand out of the crowd:
Deep understanding of data center power and cooling ( liquid ,air etc..) infrastructure, network and cabling infrastructure and root cause analysis skills.
knowledge of programming languages ( Python , SQL, Bash etc..)
Experience with Nautobot/Netbox , monitoring tools , Service Now and Inventory Management tools.
You're a self-starter with an attitude for growth, continuous learning, and constantly looking to improve the team and build strong business relationships
Attention to detail with superb interpersonal skills and the ability to effectively manage multiple priorities.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8467738
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
7 ימים
Location: More than one
Job Type: Full Time
We are looking for an expert Data Engineer to build and evolve the data backbone for our R&D telemetry and performance analytics ecosystem. Responsibilities include processing raw, large quantities of data from live systems at the cluster level: hardware, communication units, software, and efficiency indicators. Youll be part of a fast paced R&D organization, where system behavior, schemas, and requirements evolve constantly. Your mission is to develop flexible, reliable, and scalable data handling pipelines that can adapt to rapid change and deliver clean, trusted data for engineers and researchers.
What youll be doing:
Build flexible data ingestion and transformation frameworks that can easily handle evolving schemas and changing data contracts
Develop and maintain ETL/ELT workflows for refining, enriching, and classifying raw data into analytics-ready form
Collaborate with R&D, hardware, DevOps, ML engineers, data scientists and performance analysts to ensure accurate data collection from embedded systems, firmware, and performance tools
Automate schema detection, versioning, and validation to ensure smooth evolution of data structures over time
Maintain data quality and reliability standards, including tagging, metadata management, and lineage tracking
Enable self-service analytics by providing curated datasets, APIs, and Databricks notebooks.
Requirements:
B.Sc. or M.Sc. in Computer Science, Computer Engineering, or a related field
5+ years of experience in data engineering, ideally in telemetry, streaming, or performance analytics domains
Confirmed experience with Databricks and Apache Spark (PySpark or Scala)
Understanding of streaming processes and their applications (e.g., Apache Kafka for ingestion, schema registry, event processing)
Proficiency in Python and SQL for data transformation and automation
Shown knowledge in schema evolution, data versioning, and data validation frameworks (e.g., Delta Lake, Great Expectations, Iceberg, or similar)
Experience working with cloud platforms (AWS, GCP, or Azure) AWS preferred
Familiarity with data orchestration tools (Airflow, Prefect, or Dagster)
Experience handling time-series, telemetry, or real-time data from distributed systems
Ways to stand out from the crowd:
Exposure to hardware, firmware, or embedded telemetry environments
Knowledge of real-time analytics frameworks (Spark Structured Streaming, Flink, Kafka Streams)
Understanding of system performance metrics (latency, throughput, resource utilization)
Experience with data cataloging or governance tools (DataHub, Collibra, Alation)
Familiarity with CI/CD for data pipelines and infrastructure-as-code practices.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8465345
סגור
שירות זה פתוח ללקוחות VIP בלבד