רובוט
היי א אי
stars

תגידו שלום לתפקיד הבא שלכם

לראשונה בישראל:
המלצות מבוססות AI שישפרו
את הסיכוי שלך למצוא עבודה

Senior BigData Developer

מסמך
מילות מפתח בקורות חיים
סימן שאלה
שאלות הכנה לראיון עבודה
עדכון משתמש
מבחני קבלה לתפקיד
שרת
שכר
משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP

חברות מובילות
כל החברות
כל המידע למציאת עבודה
להשיב נכון: "ספר לי על עצמך"
שימו בכיס וצאו לראיון: התשובה המושלמת לשאלה שמצ...
קרא עוד >
לימודים
עומדים לרשותכם
חברות מגייסות
מיין לפי: מיין לפי:
הכי חדש
הכי מתאים
הכי קרוב
טוען
סגור
לפי איזה ישוב תרצה שנמיין את התוצאות?
Geo Location Icon

משרות בלוח החם
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
Mertens – Malam Team
דרושים בMertens – Malam Team
מיקום המשרה: ירושלים
חברת Mertens - MalamTeam  מגייסת מפתח/ת BI החלפה לחל"ד  לארגון ממשלתי בירושלים
דרישות:
ניסיון של ארבע שנים לפחות בתחום.
ידע וניסיון בכתיבת SSIS.
ידע וניסיון בכתיבת שאילתות מורכבות בSql Server.
ניסיון בפיתוח דשבורדים באחד לפחות מכלי הוויזואליזציה המובילים: QLIK SENSE, TABLEAU, POWER BI - יתרון משמעותי. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8226374
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
GotFriends
דרושים בGotFriends
מיקום המשרה: מספר מקומות
החברה פיתחה מנוע סמנטי מבוסס AI לניתוח תוכן דיגיטלי, שמספק הבנה עמוקה של ההקשר שבו מוצגות פרסומות. המוצר מאפשר למותגים, סוכנויות פרסום ומפרסמים לקבל החלטות מדויקות, בטוחות ואפקטיביות יותר על בסיס ניתוח של מיליארדי נקודות data בכל יום. עם טכנולוגיות מבוססות AI ו- NLP להבטחת פרטיות המשתמשים.
החברה ממוקמת באזור השרון, משלבת מודל עבודה היברידי ומונה 80 עובדים גלובלית, 30 מתוכם בארץ.
מהות התפקיד: חלק מצוות הנדסה, עם אחריות ניכרת על ה-Core data Infrastructure של החברה. דיווח ל-Head of RD. פיתוח ותחזוקה של פלטפורמות נתונים מתקדמות בסביבת Lakehouse המשלבות Batch ו-Streaming. תכנון והטמעה של data Pipelines מבוססי Spark, Trino ו-DBT, אופטימיזציית ביצועים של שאילתות על AWS, ניהול data Modeling וסכמות משתנות, והתמודדות עם אתגרים של זמינות, ביצועים ואמינות ב-Scale גבוה. העבודה נעשית בסביבה מבוססת CI/CD תוך שימוש בכלים כמו Git, Airflow, Docker ועוד.
דרישות:
- 5 שנות ניסיון בתור data Engineer/ Big Data
- ניסיון בפיתוח ב- Python
- ניסיון בפיתוח SQL
- ניסיון בפיתוח עם Spark המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8303839
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
קבוצת Aman
דרושים בקבוצת Aman
מיקום המשרה: הרצליה
סוג משרה: משרה מלאה
קבוצת Aman מגייסת data Engineer לעבודה בחברה ביטחונית מובילה באזור השרון בתפקיד מאתגר, עם טכנולוגיות מתקדמות, סקיילים גבוהים ועשייה משמעותית

מה מחכה לך בתפקיד?
פיתוח והובלה של פתרונות data מתקדמים
עבודה בסביבות עתירות נתונים עם סטנדרטים גבוהים וטכנולוגיות חדשניות
דרישות:
ניסיון בפיתוח ב- Python או JAVA
ניסיון מוכח בעולמות Big Data וסקיילים גבוהים כמו Spark, Hadoop
ניסיון של שנה לפחות עם כלי CI/CD ועבודה בסביבת פרודקשן
לפחות 3 שנות ניסיון בעבודה עם תורים Kafka, RabbitMQ
יתרון לניסיון קודם בארגון ביטחוני או לסיווג ביטחוני בתוקף

*תנאים מעולים למתאימים/ות כולל בונוסים שווים, יציבות תעסוקתית ואפשרויות קידום המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8217436
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
פיקארו- גיוס והשמה להייטק
דרושים בפיקארו- גיוס והשמה להייטק
מיקום המשרה: תל אביב יפו
לסטארטאפ פורץ דרך מתחום ה Agrotech דרוש/ה ML Engineer
תיאור המשרה:
אימון, ולידציה ואופטימיזציה של מודלים קלאסיים ומודלי Deep Learning לראייה ממוחשבת וניתוח נתונים.
פיתוח ותחזוקה של קוד Python ברמה תעשייתית עבור פייפלייני ML.
ביצוע Feature Engineering, ולידציה מוצלבת ואופטימיזציה של היפר-פרמטרים לשיפור ביצועי המודל.
יישום רעיונות מחקריים בקוד סקיילבילי ומוכן לייצור.
פריסת מודלים בסביבת Production באמצעות כלים כמו ONNX ו-TensorRT.
עבודה עם מאגרי נתונים רחבי היקף ממערכות הדמיה היפרספקטרלית.
שיתוף פעולה עם צוותים רב-תחומיים (מחקר, הנדסה, מוצר) לשילוב פתרונות ML.
תחזוקת תשתיות MLOps, כולל ניטור מודלים וצנרת CI/CD.
תקשור מושגים טכניים מורכבים (למשל, MSE, gRPC) גם לקהלים טכניים וגם ללא-טכניים.
דרישות:
לפחות 5 שנות ניסיון בפיתוח תוכנה ב-Production ב- Python ובמודלים של ML (3 שנים אם יש התמחות ב-Computer Vision).
ניסיון מוכח ביישום ואופטימיזציה של אלגוריתמי ML קלאסיים באמצעות scikit-learn (לדוגמה: Ridge, Lasso, Random Forest, SVM, k-NN).
הבנה מעמיקה של מושגים בתחום ML/ DL, כולל CNNs, Transformers וטכניקות ראייה ממוחשבת.
שליטה באימון מודלים באמצעות PyTorch, TensorFlow או PyTorch Lightning.
ניסיון בפריסת מודלים עם ONNX או TensorRT.
יכולת קריאה, הבנה ויישום של פתרונות מבוססי מחקר.
שליטה ב- Linux, Docker, Git ובסביבות CI/CD.
ניסיון בעבודה עם פלטפורמות ענן (עדיפות ל-GCP) וטכנולוגיות מסדי נתונים (SQL, NoSQL).
כישורי תקשורת ועבודת צוות מצוינים.
יתרון:
ניסיון בעיבוד אותות והדמיה היפרספקטרלית.
היכרות עם תחום ה-MLOps. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8273708
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
4 ימים
ריקרוטיקס בע"מ
דרושים בריקרוטיקס בע"מ
Job Type: Full Time and Hybrid work
A leading software company specialized in developing online gaming platforms, is looking for a talented Oracle DBA to join our enthusiastic architecture team.

This position is your opportunity to bring innovation, implement new technologies, and shape the company's technological roadmap.

As an Applicative DBA, you will be responsible for the following:
Improving performance and query efficiency and implementing best practices for writing complex procedures
Writing complex query reports
Guide and support data analysts
Assisting with DB architect
Requirements:
At least 3 years of experience in writing complex SQL queries - a must
Experience with Oracle performance and tunning - a must
Experience with Elastic Search an advantage
Self-learning with the ability to learn the DB module - a must
This position is open to all candidates.
 
Show more...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8300643
סגור
שירות זה פתוח ללקוחות VIP בלבד
לוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructuresomeone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacksits about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakesdesigned for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Operate and debug object storebacked data lake infrastructure, enabling schema-on-read access, high-throughput ingestion, advanced searching strategies, and performance tuning for large-scale workloads.
Requirements:
24 years in software / solution or infrastructure engineering, with 24 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skillsyoull be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8257917
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות שנמחקו