דרושים » דאטה » SRE בחברת סטארט-אפ בתחום הבינה המלאכותית

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 7 שעות
דרושים בGotFriends
סוג משרה: משרה מלאה
החברה פיתחה פלטפורמה שמבצעת אוטומציה לתהליכי בנייה, הטמעה וניהול של AI בארגונים.
החברה ממוקמת באזור השרון, משלבת מודל עבודה היברידי ומונה עשרות עובדים.
מהות התפקיד: תפקיד DevOps כחלק מצוות ה-Support. סביבת Linux, Kubernetes, Docker, Linux, AWS, GCP, Python. מוצר בתחום ה-MLOps, AI. עבודה צמודה ל-R D, כוללת Customer facing. טיפול בתקלות E2E, טיקטים, סלאק וכדומה. טיפול בתקלות מורכבות של לקוחות. מדובר במוצר תשתיתי On Prem, יש כאן גם עבודה על Cloud. אחריות על הפריסה, ניהול Kubernetes בסביבה של הלקוח. שילוב סקריפטים ב- Python.
דרישות:
- 3 שנות ניסיון כ-SRE
- ניסיון בפיתוח מעל Linux
- ניסיון בעבודה עם Kubernetes
- אנגלית ברמה גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8475085
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה עוסקת בפיתוח פלטפורמה שמעניקה לארגוני פיתוח תוכנה את היכולת להבין ולמקסם את ההשפעה של בינה מלאכותית (AI) על תהליכי הפיתוח.
החברה ממוקמת בתל אביב- קו רכבת, משלבת מודל היברידי ומונה עשרות עובדים.
מהות התפקיד: הצטרפות לצוות הפיתוח בדיווח ל-VP R D, פיתוח תשתיות, עבודה רבה עם SQL, ניהול ה- data, פיתוח ב- Python. עבודה עם AWS ו-GCP.
דרישות:
- 5 שנות ניסיון בתפקידי data Engineer
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח SQL
- ניסיון בפיתוח עם Cloud המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8471000
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
3 ימים
דרושים בGotFriends
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
החברה מפתחת מוצר המותקן על מנוף באתרי בנייה אשר משתמש בטכנולוגית AI ו-IoT כדי ללכוד, לנתח data ולספק תובנות בזמן אמת על מנת לייעל קבלת החלטות ולנתח ביצועים.

החברה ממוקמת בתל אביב- קו רכבת, משלבת מודל עבודה היברידי ומונה עשרות עובדים.

מהות התפקיד: Senior בצוות, דיווח ל-Director of data and Research. התפקיד כולל data Modeling, פיתוח data Pipelines, תמיכה באנגליסטים וחוקרים, אחריות על כל הקשור ב- data Quality Integrity. סטאק טכנולוגי: Databricks, Spark (PySpark, SQL), Kafka, AWS, Terraform.
דרישות:
- 5 שנות ניסיון כ- data Engineer
- ניסיון בפיתוח עם AWS
- ניסיון בפיתוח ב-Spark
- ניסיון בפיתוח עם Databricks המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8473067
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
דרושים בSQLink
סוג משרה: משרה מלאה ועבודות ללא קורות חיים
חברה פיננסית באזור המרכז מגייסת מנהל /ת מערכת למערכות data ו-GenAI
התפקיד כולל: אחריות שוטפת על תפעול, תחזוקה ויציבות של מערכות data ו-GenAI בסביבות פיתוח וייצור, היכרות מעמיקה עם ארכיטקטורת המערכות מקצה לקצה, ניהול זמינות וביצועים, ניטור רציף, טיפול בתקלות מורכבות, שדרוגי תשתיות והובלת תהליכי Deployment וגרסאות, תוך עבודה צמודה עם צוותי data, פיתוח, DevOps, תשתיות ועוד.
דרישות:
- 3 שנות ניסיון בניהול ותפעול מערכות מורכבות ואינטגרטיביות
- ניסיון בעבודה עם data Pipelines ומאגרי נתונים SQL/NoSQL
- היכרות עם מערכות AI, מודלי שפה וארכיטקטורות Cloud Native
- ניסיון בתשתיות ענן AWS / GCP / Azure, עבודה עם Docker ו-Kubernetes ו-APIs המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8455406
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בפרוסיד
סוג משרה: מספר סוגים
פרוסיד מגייסת data Engineer (Modern data Stack) להובלת פרויקטי דאטה ו-AI חדשניים!

תיאור התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בענן (AWS / GCP / Azure)
בנייה וניהול End-to-End של data Pipelines איסוף, עיבוד, טרנספורמציה ואחסון נתונים
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים (dbt)
עבודה Hands-on עם DWH מודרניים בענן (Snowflake / BigQuery / Redshift)
פיתוח והטמעת פתרונות AI / GenAI / ML בסביבות ענן (Vertex AI / SageMaker), כולל Prompt Engineering
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins, GitLab CI
עבודה צמודה עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום פתרונות מקצה לקצה
הובלת PoC, בחינת טכנולוגיות חדשות ושילוב חדשנות בתהליכי דאטה
אופטימיזציה של תהליכי דאטה קיימים ושיפור ביצועים, אמינות ואיכות נתונים
דרישות:
דרישות חובה:
לפחות שנה ניסיון כ- data Engineer
ניסיון בעבודה עם פלטפורמות ענן (AWS / GCP / Azure)
ניסיון Hands-on עם מחסני נתונים מודרניים בענן (Snowflake / BigQuery / Redshift)
שליטה מלאה ב-SQL וב- Python
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt)
ניסיון בעבודה עם כלי BI (Looker / Power BI / Tableau / QuickSight) ו/או ניסיון כ- BI Developer
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI)
ניסיון Hands-on בפיתוח פתרונות AI / GenAI / ML בענן (Vertex AI / SageMaker) + ניסיון ב-Prompt Engineering
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות
אנגלית טכנית ברמה גבוהה (קריאה, כתיבה ודיבור)

יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות ( data Mesh / data Fabric)
ניסיון בכתיבת אפיונים טכניים ופונקציונליים
ניסיון עם כלי data Governance, data Catalog, data Quality Observability המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405965
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת מוצר בתל אביב המפתחת מוצר AI דרוש/ה backend data engineer.
במסגרת התפקיד: פיתוח backend בשילוב data ברמה גבוהה במיוחד,
פיתוח Python בשילוב טכנולוגיות data כולל Kafka Hive Airflow,
עבודה שכוללת שילוב של מספר טכנולוגיות כולל JAVA Scala ועבודה מרובה
מול בסיסי נתונים.
דרישות:
תואר ראשון טכנולוגי - חובה
6 שנות ניסיון בעולמות backend - חובה
רקע של שנתיים בפיתוח data - חובה
ניסיון מעמיק מאוד ב- Python - חובה
רקע ב-Scala או JAVA
ניסיון בטכנולוגיות data מתקדמות - חובה
רמה אישית מעולה
אנגלית ברמה גבוהה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8450791
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 4 שעות
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
סוג משרה: משרה מלאה ועבודה היברידית
לחברת סקיוריטי בעולם הרכב דרוש/ה Senior data Scientist
תיאור המשרה:
ביצוע מחקר מעמיק על מערכי נתונים טבלאיים חיים, גדולים ומגוונים מעולם הרכב, כולל קדם-עיבוד, הפקת תובנות מרכזיות והצגתן
חיפוש ויצירת פיצרים אינדיקטיביים שיחזקו את ביצועי מודלי ה-ML
חקירה, תכנון ופריסה של מודלים ואלגוריתמים מתקדמים לצרכי חיזוי וזיהוי אנומליות
עבודה צמודה עם מומחי תחום ועמיתים למחקר ויישום מודלים וזרימות אלגוריתמיות המתאימות לדרישות
שיתוף פעולה עם צוותי הדאטה אינג'ינירינג והפיתוח לפיתוח פתרונות חדשניים ליישום במוצר
עידוד שיתוף פעולה והעברת ידע בתוך צוות הדאטה סיינס
דרישות:
ניסיון של 6+ שנים בתעשייה בתחומי data Science או Machine Learning
השכלה: תואר שני במתמטיקה / הנדסת חשמל / מדעי המחשב / סטטיסטיקה או תואר ראשון באחד מתחומים אלו + ניסיון משמעותי של 10+ שנים בתחום ה- data Science או תחום קרוב, המוכיח מומחיות המקבילה לתואר מתקדם
הבנה מעמיקה וניסיון מעשי במתמטיקה, סטטיסטיקה, למידת מכונה/עמוקה ו- data Mining
ידע וניסיון חיוני ב- data Science Pipeline, כולל ניקוי נתונים, הנדסת פיצרים וכוונון מודלים
כישורי קודינג והנדסת תוכנה ברמה גבוהה, עם שליטה מעמיקה ב Python ובספריות data Science כגון Pandas, Polars, NumPy, SciPy, Scikit-learn ואחרות
ניסיון מקצה לקצה בפיתוח פיצרים או מוצרים מבוססי AI/DS/ML, כולל הובלתם לייצור דרך אינטגרציה ישירה או שימוש ב-APIs קיימים
ניסיון מוכח בעבודה עם נתוני סטרימינג (כולל סדרות זמן) ויישום אלגוריתמים/מודלים מתאימים בסביבת ייצור, בעיבוד batch או בזמן אמת
ניסיון מוצק ב-Deep Learning על גבי TensorFlow, Keras, PyTorch וכו המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8468757
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 2 שעות
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: הרצליה
סוג משרה: משרה מלאה ועבודה היברידית
לחברת סקיוריטי בעולם הרכב דרוש/ה Senior data Engineer
תיאור המשרה:
תכנון, בנייה ותחזוקה של פייפלייני נתונים סקיילביליים לטעינה ועיבוד של דאטה בBatch בData Lake, כולל תמיכה באנליטיקה ו-ML, תוך שמירה על איכות נתונים, ממשל (governance), תצפיות (observability) וCI/CD.
בנייה והרחבה של תשתית הנתונים הבסיסית data Lake, מנוע אנליטיקה, ומערכי Batch Processing.
יצירת תשתיות חזקות שיאפשרו פייפליינים אוטומטיים לטעינה ועיבוד נתונים לפלטפורמות האנליטיות, תוך שימוש בכלים וטכנולוגיות קוד פתוח, Cloud-agnostic.
פיתוח ותחזוקת ארכיטקטורות ופריסות הData Lake לגישה יעילה לנתונים ולניתוחים מתקדמים.
בניית פלטפורמת הML ואוטומציה של מחזור חיי הML.
הובלת פרויקטי ML חוצי-ארגון מהיבט הנדסי.
פיתוח וניהול כלי אקטרציה, כלים לממשל נתונים, כלים לגילוי נתונים ועוד.
עבודה בשיתוף פעולה עם אדריכלי נתונים, אנליסטים ומדעני נתונים, לצורך בניית פתרונות מבוססי Use Cases המגדירים זרימות נתונים טכניות.
דרישות:
תואר ראשון במדעי המחשב, הנדסה או תחום רלוונטי
לפחות 5 שנות ניסיון בתכנון ובנייה של פייפלייני נתונים, כלים אנליטיים וData Lakes
לפחות 7 שנות ניסיון בפיתוח בשפת תכנות כללית ( JAVA, Scala, Kotlin, Go וכו)
ניסיון בטכנולוגיות data Engineering: כלים לETL ואורקסטרציה (כמו Airflow, Argo, Prefect) וכלי עיבוד נתונים מבוזרים (כמו Spark, Kafka, Presto)
ניסיון בעבודה עם Python חובה
ניסיון בעבודה עם מוצרים מבוססי קוד פתוח יתרון גדול
ניסיון בעבודה בסביבה מבוססת קונטיינרים (כמו Kubernetes) יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8439164
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת Start up איכותית במרכז דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודת data engineering ברמה גבוהה, עבודה בעיקר ב- Python
ומעט Scala, שימוש בכלי data מתקדמים, שימוש לעיתים בכלי Big Data וכן עבודה
בצוות נהדר ואיכותי
דרישות:
תואר ראשון טכנולוגי - חובה
צמיחה מפיתוח backend - חובה
ניסיון של 4 שנים לפחות בתור data engineer - חובה
רקע רב ומבוסס ב- Python
ניסיון כלשהו ב-Scala - יתרון גדול
ניסיון מעשי בעבודה בכלי data מתקדמים
אנגלית ברמת שיחה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8475031
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
We're seeking an outstanding and passionate Data Platform Engineer to join our growing R&D team.
You will work in an energetic startup environment following Agile concepts and methodologies. Joining the company at this unique and exciting stage in our growth journey creates an exceptional opportunity to take part in shaping our data infrastructure at the forefront of Fintech and AI.
What you'll do:
Design, build, and maintain scalable data pipelines and ETL processes for our financial data platform
Develop and optimize data infrastructure to support real-time analytics and reporting
Implement data governance, security, and privacy controls to ensure data quality and compliance
Create and maintain documentation for data platforms and processes
Collaborate with data scientists and analysts to deliver actionable insights to our customers
Troubleshoot and resolve data infrastructure issues efficiently
Monitor system performance and implement optimizations
Stay current with emerging technologies and implement innovative solutions
Tech stack: AWS Serverless, Python, Airflow, Airbyte, Temporal, PostgreSQL, Snowflake, Kubernetes, Terraform, Docker.
Requirements:
3+ years experience in data engineering or platform engineering roles
Strong programming skills in Python and SQL
Experience with orchestration platforms like Airflow/Dagster/Temporal
Experience with MPPs like Snowflake/Redshift/Databricks
Hands-on experience with cloud platforms (AWS) and their data services
Understanding of data modeling, data warehousing, and data lake concepts
Ability to optimize data infrastructure for performance and reliability
Experience working with containerization (Docker) in Kubernetes environments
Familiarity with CI/CD concepts
Fluent in English, both written and verbal
And it would be great if you have (optional):
Experience with big data processing frameworks (Apache Spark, Hadoop)
Experience with stream processing technologies (Flink, Kafka, Kinesis)
Knowledge of infrastructure as code (Terraform)
Experience building analytics platforms
Experience building clickstream pipelines
Familiarity with machine learning workflows and MLOps
Experience working in a startup environment or fintech industry.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8445576
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
17/12/2025
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
Design, implement, and maintain robust data pipelines and ETL/ELT processes on GCP (BigQuery, Dataflow, Pub/Sub, etc.).
Build, orchestrate, and monitor workflows using Apache Airflow / Cloud Composer.
Develop scalable data models to support analytics, reporting, and operational workloads.
Apply software engineering best practices to data engineering: modular design, code reuse, testing, and version control.
Manage GCP resources (BigQuery reservations, Cloud Composer/Airflow DAGs, Cloud Storage, Dataplex, IAM).
Optimize data storage, query performance, and cost through partitioning, clustering, caching, and monitoring.
Collaborate with DevOps/DataOps to ensure data infrastructure is secure, reliable, and compliant.
Partner with analysts and data scientists to understand requirements and translate them into efficient data solutions.
Mentor junior engineers, provide code reviews, and promote engineering best practices.
Act as a subject matter expert for GCP data engineering tools and services.
Define and enforce standards for metadata, cataloging, and data documentation.
Implement monitoring and alerting for pipeline health, data freshness, and data quality.
Requirements:
Bachelors or Masters degree in Computer Science, Engineering, or related field.
6+ years of professional experience in data engineering or similar roles, with 3+ years of hands-on work in a cloud env, preferably on GCP.
Strong proficiency with BigQuery, Dataflow (Apache Beam), Pub/Sub, and Cloud Composer (Airflow).
Expert-level Python development skills, including object-oriented programming (OOP), testing, and code optimization.
Strong data modeling skills (dimensional modeling, star/snowflake schemas, normalized/denormalized designs).
Solid SQL expertise and experience with data warehousing concepts.
Familiarity with CI/CD, Terraform/Infrastructure as Code, and modern data observability tools.
Exposure to AI tools and methodologies (i.e, Vertex AI).
Strong problem-solving and analytical skills.
Ability to communicate complex technical concepts to non-technical stakeholders.
Experience working in agile, cross-functional teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8462182
סגור
שירות זה פתוח ללקוחות VIP בלבד