דרושים » תוכנה » data Engineer עבור חברה גדולה ויציבה באזור הצפון

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 10 שעות
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה גדולה ויציבה באזור הצפון מגייסת data Engineer
התפקיד כולל: פיתוח והטמעה של תהליכי data Pipeline והזרמת מידע בין מערכות שונות, יישום לוגיקות עסקיות בפלטפורמת Splunk, התממשקות למערכות נוספות ועוד.
דרישות:
- שנתיים ניסיון כ- data engineer
- ידע וניסיון בעבודה עם מערכות Linux
- שליטה בשפות Scripting כגון: Python וShell
- הכרות עם מימוש יישומים מבוססי דאטה
- ניסיון בעבודה עם Splunk יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8399038
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
סוג משרה: משרה מלאה
לארגון מוביל באזור הקריות דרוש.ה מפתח.ת Splunk מנוסה להשתלבות בפרויקט אסטרטגי וחדשני הקמת data Lake מתקדם מבוסס Splunk.
זו הזדמנות להשתלב בצוות מקצועי ודינאמי, ולהוביל פיתוחים מורכבים שיאפשרו ניתוחים, ויזואליזציות והתראות בזמן אמת על בסיס מגוון רחב של מקורות מידע.
הזדמנות אמיתית להיות חלק מהקמה של מערכת קריטית לארגון, לעבוד בטכנולוגיות מתקדמות ולהשפיע על עולמות הניתוח והבינה הארגונית בצוות צעיר, מקצועי ודינאמי.
התפקיד כולל התקנה, קונפיגורציה ותחזוקה של סביבות Splunk, כולל אופטימיזציה לביצועים ו-scalability, פיתוח תהליכי ETL והזרמת מידע אל תוך Splunk תוך הקפדה על איכות ודיוק הנתונים, ניהול הרשאות משתמשים, Roles וגישה למידע לפי מדיניות הארגון ו-best practices, פיתוח דשבורדים, ויזואליזציות, שאילתות חיפוש, דוחות, אנליזות מורכבות והתראות, התממשקות למערכות חיצוניות באמצעות API וכלי Splunk.
דרישות:
ניסיון מוכח בפיתוח ויישום פתרונות על גבי Splunk
ידע בתהליכי ETL והזרמת מידע למערכת
ניסיון בניהול הרשאות, משתמשים וגישות
שליטה ב- Python / Shell scripting
תעודות הסמכה של Splunk יתרון משמעותי
היכרות עם JavaScript, ELK וכלים נוספים מעולמות data Analytics יתרון
תואר ראשון רלוונטי יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8297347
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
לחברת הייטק גלובלית בהרצליה בתחום המדיקל דרוש/ה data Engineer להצטרפות לצוות פיתוח מערכות AI/ML פורצות דרך בתחום הרפואי.
אם יש לך תשוקה לדאטה, טכנולוגיה ורפואה זו ההזדמנות שלך להשפיע באמת על עולם הבריאות.

מה בתפקיד:
תכנון, בנייה ותחזוקה של תהליכי דאטה וארכיטקטורות תומכות AI/ML
איסוף, עיבוד וארגון דאטה רפואי ממקורות שונים (CT, וידאו, נתונים קליניים)
הבטחת איכות, עקיבות וציות לתקנים רגולטוריים (FDA, GDPR, HIPAA)
שיתוף פעולה עם צוותי אלגוריתמים, קליניקה ומוצר
תמיכה באימוני מודלים וולידציה של נתונים
דרישות:
דרישות:
ניסיון של לפחות שנתיים כ- data Engineer (יתרון ב-AI/ML) - חובה
תואר ראשון במדעי המחשב / הנדסה ביו-רפואית / דאטה - חובה
שליטה ב- Python וכלים לעיבוד דאטה
הבנה בפרטיות ואבטחת מידע (HIPAA/GDPR)
יכולת עבודה בצוות רב-תחומי
יתרון משמעותי: ניסיון עם דאטה רפואי או מוצרים רפואיים מבוססי AI/ML. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8378808
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בגב מערכות
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברת הייטק בתחום המדיקל בחיפה מגייסת data Engineer
להצטרף לצוות Point of Care ו-Handheld Ultrasound Algorithm באתר החברה בחיפה.
התפקיד כולל פיתוח, עיצוב ותחזוקה של פתרונות ניהול נתונים חדשניים, המותאמים לעולמות ה-AI המתפתחים בתחום האולטרסאונד הרפואי.

תחומי אחריות:
תמיכה ואופטימיזציה של תהליכי דאטה ואוטומציה
הובלת יוזמות דאטה חוצות ארגון, בשיתוף פעולה עם צוותי אלגוריתמים, קליניקה, ולידציה ומוצר
תרגום צרכים קליניים ומוצרים לארכיטקטורת דאטה
הכנת וניתוח נתונים לפיתוח AI ולהגשות רגולטוריות
הגדרה, פיתוח ותחזוקה של פתרונות מסדי נתונים
דרישות:
דרישות:
ניסיון בתחום של 1-2 שנים לפחות - חובה
תואר ראשון בהנדסה ביו-רפואית / מדעי המחשב / הנדסת חשמל / data Science או תחום דומה - חובה
ניסיון מעשי בפיתוח דאטה בשפת Python וניהול ועיבוד נתונים - חובה
ניסיון עם פורמטים כמו JSON, CSV, Parquet, DICOM - חובה

יתרון:
ניסיון בכתיבת בדיקות unit, component, integration ו-end-to-end
היכרות עם SQL, MongoDB ואופטימיזציה של שאילתות - יתרון
ידע ב-Docker, תהליכי CI/CD וכלים לתשתיות כקוד (AWS CloudFormation, terraform, CDK)
ניסיון עם ספריות מבוססות Dataframe (Pandas, Polars, PySpark) המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8365488
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
13/10/2025
חברה חסויה
Location: Yokne`am
Job Type: Full Time
We are looking for a Senior Data Engineer to join the manufacturing data Engineering team and help us craft data collection solutions, quality control methodologies and monitors, support data enlargement scale. As a Data Engineer, you will play a significant role in bridging the gap between machine learning and software engineering. Your primary responsibility will be to develop, deploy, and maintain the infrastructure, data pipelines and workflows required for the end-to-end solution collecting the data till loading to data warehouse. If you are genuinely passionate about data engineering platforms, methodologies and possesses excellent problem-solving, we'd love to hear from you!

What youll be doing:
Collaborate with multi-functional teams, including full stack engineers, data scientists, data engineers, and DevOps, to craft, implement robust reliable data pipelines, infrastructure and workflows.
develop and support data models, schemas, and database structures that provide blazing-fast analytics performance. Constantly optimize data workflows to ensure flawless real-time and batch data processing.
Implement data quality checks and monitoring mechanisms to ensure data integrity and accuracy at every stage. detect and resolve bottlenecks swiftly to maintain a highly available and reliable data ecosystem.
Control, monitor and optimize worldwide production servers.
Build and maintain scalable data pipelines, ensuring efficient data storage, retrieval, and transformation.
Stay ahead of the curve in data engineering technologies and trends. Introduce new tools, techniques, and standard methodologies to improve our data infrastructure, empowering data scientists and analysts alike.
Feed a culture of learning and knowledge-sharing within the team. Guide and mentor junior data engineers, applying your expertise to uplift the entire department.
Requirements:
What we need to see:
Bachelors or masters degree in computer science, Engineering, or a related field.
5+ years of relevant experience.
Demonstrated track record as a hands-on Data Engineer, driving the successful delivery of sophisticated data projects. Your experience speaks volumes.
Experience with cloud-based data platforms like AWS, Azure, or GCP. You harness the power of the cloud to unlock data's full potential.
Strong programming skills in languages such as Python or Scala, with experience in building scalable and efficient systems.
Experience with containerization technologies like Docker and orchestration tools like Kubernetes.
Solid knowledge in Linux environment.

Ways to stand out from the crowd:
Attention to detail is unwavering. You take pride in delivering data of the highest quality, turning it into insights that power critical business decisions.
Experience working and data engineering frameworks such as Kafka, Cloudera, Spark, Airflow or Hadoop.
Growing in a multifaceted environment, able to balance multiple priorities admirably without compromising on quality or precision.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8369936
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
6 ימים
חברה חסויה
Location: Yokne`am
Job Type: Full Time
We are looking for a Senior Data Engineer to join the manufacturing data Engineering team and help us craft data collection solutions, quality control methodologies and monitors, support data enlargement scale. As a Data Engineer, you will play a significant role in bridging the gap between machine learning and software engineering. Your primary responsibility will be to develop, deploy, and maintain the infrastructure, data pipelines and workflows required for the end-to-end solution collecting the data till loading to data warehouse. If you are genuinely passionate about data engineering platforms, methodologies and possesses excellent problem-solving, we'd love to hear from you!

What youll be doing:

Collaborate with multi-functional teams, including full stack engineers, data scientists, data engineers, and DevOps, to craft, implement robust reliable data pipelines, infrastructure and workflows.
develop and support data models, schemas, and database structures that provide blazing-fast analytics performance. Constantly optimize data workflows to ensure flawless real-time and batch data processing.
Implement data quality checks and monitoring mechanisms to ensure data integrity and accuracy at every stage. detect and resolve bottlenecks swiftly to maintain a highly available and reliable data ecosystem.
Control, monitor and optimize worldwide production servers.
Build and maintain scalable data pipelines, ensuring efficient data storage, retrieval, and transformation.
Stay ahead of the curve in data engineering technologies and trends. Introduce new tools, techniques, and standard methodologies to improve our data infrastructure, empowering data scientists and analysts alike.
Feed a culture of learning and knowledge-sharing within the team. Guide and mentor junior data engineers, applying your expertise to uplift the entire department.
Requirements:
What we need to see:
Bachelors or masters degree in computer science, Engineering, or a related field.
5+ years of relevant experience.
Demonstrated track record as a hands-on Data Engineer, driving the successful delivery of sophisticated data projects. Your experience speaks volumes.
Experience with cloud-based data platforms like AWS, Azure, or GCP. You harness the power of the cloud to unlock data's full potential.
Strong programming skills in languages such as Python or Scala, with experience in building scalable and efficient systems.
Experience with containerization technologies like Docker and orchestration tools like Kubernetes.
Solid knowledge in Linux environment.

Ways to stand out from the crowd:
Attention to detail is unwavering. You take pride in delivering data of the highest quality, turning it into insights that power critical business decisions.
Experience working and data engineering frameworks such as Kafka, Cloudera, Spark, Airflow or Hadoop.
Growing in a multifaceted environment, able to balance multiple priorities admirably without compromising on quality or precision.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8391932
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
26/10/2025
חברה חסויה
Location: Haifa
Job Type: Full Time and Hybrid work
We are looking for a Data Team Lead.
Requirements:
1. Technical Expertise
Cloud Data Platforms: Expertise in Google Cloud Platform (GCP)
services, especially in data-related services like BigQuery, Cloud SQL,
Dataproc, Pub/Sub, and Dataflow.
Data Engineering: Strong knowledge of data pipelines, ETL/ELT
processes, and data integration using GCP tools.
Database Management: Experience with both relational and
non-relational databases, including MySQL, PostgreSQL, and NoSQL
solutions like Firestore or Bigtable.
Programming Skills: Proficiency in Python, SQL, and possibly other
languages like Java or Scala, with a focus on data manipulation and
processing.
APIs and Integrations: Experience working with Google APIs and
third-party APIs for data extraction and integration.
Machine Learning: Familiarity with Google Cloud AI tools, such as
Vertex AI, and how to integrate machine learning workflows into the data
architecture.
Data Governance: Knowledge of data security, privacy, governance, and
regulatory requirements (GDPR, HIPAA, etc.).
2. Leadership and Management
Team Management: Ability to lead a team of data engineers, analysts,
and architects, providing guidance, mentorship, and performance
management.
Project Management: Strong skills in managing data projects, ensuring
timely delivery while meeting client requirements.
Collaboration: Experience working cross-functionally with stakeholders
such as solution architects, developers, and business teams to translate
business needs into data solutions.
Resource Allocation: Efficiently managing cloud resources to optimize
cost and performance.
3. Client-Facing Skills
Consulting: Experience in providing consulting services to clients,
including understanding their data needs, providing solutions, and
guiding them through the data modernization process.
Pre-sales Support: Supporting sales teams in scoping out client
projects, preparing presentations, and explaining technical aspects of
data solutions during pre-sales.
Client Relationship Management: Building and maintaining strong
relationships with clients to ensure satisfaction and long-term
partnership.
4. Certifications and Education
● Google Cloud Certifications:
● Professional Data Engineer (preferred)
● Professional Cloud Architect (preferred)
● Other Certifications: Optional certifications in data engineering or
machine learning from organizations like Cloudera, AWS, or Microsoft
Azure can be advantageous.
● Educational Background: Bachelors or Masters degree in Computer
Science, Data Science, Engineering, or a related field.
5. Soft Skills
● Problem-Solving: Ability to troubleshoot data-related issues and
implement scalable solutions.
● Adaptability: Ability to keep up with the rapidly changing cloud and data
landscape.
● Communication: Excellent verbal and written communication skills to
explain complex data systems to non-technical stakeholders.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8386297
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
26/10/2025
חברה חסויה
Location: Haifa
Job Type: Full Time and English Speakers
We seek a highly skilled and experienced Solution Architect with a deep understanding of Data and operations to join our team. In this role, you will be responsible for designing and implementing data-centric solutions that enable our customers to achieve their business objectives, with a strong focus on building efficient and reliable ETL pipelines.
You will work closely with clients to understand their needs, translate them into technical requirements, and architect scalable, reliable, and secure data pipelines.
Key Responsibilities:
Collaborate with clients to gather requirements and understand their data
challenges.
Design and implement end-to-end DataOps solutions, including data
ingestion, processing, storage, and analysis.
Leverage cloud technologies and best practices to architect scalable and
cost-effective data architectures.
Ensure data quality, integrity, and security throughout the data lifecycle.
Automate data pipelines and workflows to improve efficiency and reduce
manual effort.
Stay up-to-date with the latest DataOps trends and technologies.
Provide technical guidance and mentorship to other team members.
Requirements:
Proven experience as a Solution Architect or in a similar role, with a strong focus on DataOps.
Deep understanding of data management principles, data modeling, and ETL processes.
Expertise in cloud technologies (AWS, Azure, GCP) and data platforms (Hadoop, Spark, Snowflake, Looker).
Strong knowledge of programming languages (Python, Java, Scala) and scripting languages (Bash, PowerShell).
Experience with DevOps tools and practices (CI/CD, containerization, orchestration).
Excellent communication and collaboration skills, with the ability to work effectively with both technical and non-technical stakeholders.
Strong problem-solving and analytical skills
Bachelors degree in Computer Science, Engineering, or a related field.
Additional Info:
Send us your CV in English and become part of WideOps team!
Only short-listed candidates will be contacted.
Confidentiality of all applications is assured!
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8386302
סגור
שירות זה פתוח ללקוחות VIP בלבד