דרושים » הנדסה » דרוש /ה מפתח /ת תוכנה - TABLEAU ( BI )

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 5 שעות
דרושים בגב מערכות
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
לחברה גדולה ויציבה בתל אביב דרוש/ה מפתח/ת תוכנה עם התמחות ב-TABLEAU לעבודה מאתגרת ומשמעותית בסביבת פיתוח מתקדמת.

תיאור התפקיד:
פיתוח מערכות מידע ואפליקציות Web
פיתוח ובניית דשבורדים ותצוגות גרפיות ב-TABLEAU
כתיבת קוד Hands on
עבודה בצד לקוח ו/או צד שרת
ליווי מקצועי ועבודה כחלק מצוות פיתוח
העלאת פיתוחים לסביבות בדיקות וייצור (Deployment)
דרישות:
דרישות חובה:

לפחות שנה ניסיון בפיתוח תוכנה

ניסיון של שנה בפיתוח תצוגות גרפיות ב-TABLEAU
קורס TABLEAU
היכרות עם תהליכי Deployment
ניסיון בטכנולוגיות Web (יתרון ל-.NET)

יתרון:
ניסיון בכתיבת דוחות במערכת Business Objects המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8505826
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 6 שעות
דרושים בG-NESS
מיקום המשרה: תל אביב יפו
סוג משרה: משרה מלאה
לארגון בטחוני גדול ומוביל בתל אביב דרוש.ה מפתח Tableau לליווי ואפיון טכני לתצוגות גרפיות והקמת תצוגות בתוכנת Tableau
עבודה במשרה מלאה לטווך ארוך
דרישות:
ניסיון של שנה בפיתוח תצוגות גרפיות בתוכנת TABLEAU.
קורס ב TABLEAU
יתרון:
ידע בכתיבת דוחות במערכת business objects המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8505785
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
דרושים בTechTalent
סוג משרה: משרה מלאה
לחברת הייטק נהדרת וצומחת בתל אביב דרוש/ה Senior data engineer.
במסגרת התפקיד: עבודה בתור data engineer ובהמשך Tech lead, שימוש
רב ב- Python וכן נכונות לעבודה בשפות נוספות, שימוש בטכנולוגיות מתקדמות נוספות
עבודה מול צוותי פיתוח מקבילים וכן שימוש ב-DB מורכבים כולל טכנולוגיות Big Data
דרישות:
תואר ראשון טכנולוגי - חובה
רקע בפיתוח backend עם עדיפות ל- Python - חובה
ניסיון כלשהו ב-Scala או JAVA - יתרון
ניסיון מעשי של 3 שנים ומעלה בתור data engineer - חובה
נכונות לעבוד בתור Tech lead בהמשך
רקע בכלי data מהמתקדמים כיום בשוק המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8480422
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 7 שעות
דרושים בגב מערכות
סוג משרה: משרה מלאה
חברה גלובלית בחולון מגייסת מפתח/ת ++ C למערכות מתקדמות!

דרוש/ה מפתח/ת ++ C לפיתוח מערכות מולטי-דספלינריות מתקדמות!
התפקיד כולל אפיון, פיתוח ותחזוקת קוד (חדש וקיים), חקר תקלות ופתרונן, ועבודה בסביבת Linux, Git, TFS ו-Eclipse.

מה עושים בתפקיד?
פיתוח בצד השרת ב-++ C
עבודה צמודה עם מהנדסי מערכת והשתלבות בצוות המפתח אלגוריתמים ואינטרפייסים
תרומה להרכבת "תמונת שמיים מאוחדת" וליכולות הליבה של המוצר
השתלבות בארגון גדול עם עשרות מפתחים ב- C ++ ו- Python, יחד עם צוותי UI, DevOps ותשתיות תוכנה

משרה מלאה במשרדי החברה בחולון (ללא היברידית)
דרישות:
תואר ראשון במדעי המחשב/ תוכנה - חובה
לפחות שנה ניסיון בפיתוח ++ C - חובה
לפחות 5 שנות ניסיון מעשי בפיתוח תוכנה - חובה
ניסיון בפיתוח אפליקטיבי בצד השרת - חובה
שליטה באנגלית ברמה גבוהה - חובה
ניסיון בסביבת Linux - יתרון משמעותי
Git, TFS ו-Eclipse - יתרון משמעותי
מעורבות כתיבת אפיונים - יתרון משמעותי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8436681
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בפרוסיד
סוג משרה: מספר סוגים
פרוסיד מגייסת data Engineer (Modern data Stack) להובלת פרויקטי דאטה ו-AI חדשניים!

תיאור התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בענן (AWS / GCP / Azure)
בנייה וניהול End-to-End של data Pipelines איסוף, עיבוד, טרנספורמציה ואחסון נתונים
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים (dbt)
עבודה Hands-on עם DWH מודרניים בענן (Snowflake / BigQuery / Redshift)
פיתוח והטמעת פתרונות AI / GenAI / ML בסביבות ענן (Vertex AI / SageMaker), כולל Prompt Engineering
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins, GitLab CI
עבודה צמודה עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום פתרונות מקצה לקצה
הובלת PoC, בחינת טכנולוגיות חדשות ושילוב חדשנות בתהליכי דאטה
אופטימיזציה של תהליכי דאטה קיימים ושיפור ביצועים, אמינות ואיכות נתונים
דרישות:
דרישות חובה:
לפחות שנה ניסיון כ- data Engineer
ניסיון בעבודה עם פלטפורמות ענן (AWS / GCP / Azure)
ניסיון Hands-on עם מחסני נתונים מודרניים בענן (Snowflake / BigQuery / Redshift)
שליטה מלאה ב-SQL וב- Python
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt)
ניסיון בעבודה עם כלי BI (Looker / Power BI / Tableau / QuickSight) ו/או ניסיון כ- BI Developer
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI)
ניסיון Hands-on בפיתוח פתרונות AI / GenAI / ML בענן (Vertex AI / SageMaker) + ניסיון ב-Prompt Engineering
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות
אנגלית טכנית ברמה גבוהה (קריאה, כתיבה ודיבור)

יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות ( data Mesh / data Fabric)
ניסיון בכתיבת אפיונים טכניים ופונקציונליים
ניסיון עם כלי data Governance, data Catalog, data Quality Observability המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8405965
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
4 ימים
דרושים בארן מחקר פיתוח ודגמים - ARAN Research & Developmen
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
דרוש/ ה מהנדס/ ת תוכנה לפיתוח תוכנה משוטטים
התפקיד כולל:
תמיכה וביצוע שינויי קוד על פי הגדרת ראש הצוות
ניתוח דרישות, לימוד המערכת, הרצת מערכת, ממשקי הודעות בין יחידות
פיתוח תוכנה לתחנת שו"ב, תמיכה בשילובים, באגים
שילובים מול יחידות חיצוניות
הרצת בדיקות ותמיכה בשילובי מערכת
תמיכה בהכנות לניסוי
הרצת בדיקות שפיות
הרצת בדיקות תכולות חדשות
תיקוני באגים
עבודה עם אנשי פיתוח ואנשי הנדסת מערכת בפרויקט.
מיקום- אזור המרכז
דרישות:
מהנדס תוכנה בעל ניסיון בפיתוח ב- C #, בסביבת Windows
ניסיון בפיתוח תוכנה בחלק מצוות עם עבודה ב-GIT וב-AZURE - חובה
ניסיון בעבודה בסביבת MULTI THREADING/ MULTI TASKING
ניסיון בפיתוח, תקשורת TCP/UDP
נסיון ב WPF - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8501825
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 6 שעות
דרושים באלעד מערכות
מיקום המשרה: תל אביב יפו ופתח תקווה
סוג משרה: משרה מלאה ועבודה היברידית
אלעד מערכות מגייסת מיישמ/ת CRM לחברה מובילה בתל אביב!

מיקום: רמת החייל, תל אביב
היברידי: יום אחד בשבוע מהבית

אנחנו מחפשים מפתח/ת CRM מקצועי/ת ומנוסה שיצטרף/תצטרף לצוות שלנו עם שילוב של יכולות טכניות גבוהות לצד תקשורת בינאישית מצוינת.

מה עושים אצלנו?
- איסוף וניתוח דרישות מול הלקוחות והבנת הצרכים העסקיים.
- פיתוח, תחזוקה ושדרוג מערכות CRM.
- עבודה עם ממשקים, אינטגרציות ובסיסי נתונים.
- כתיבה והשלמה של אפיונים טכניים ופונקציונליים.
- שיתוף פעולה עם גורמים פנימיים וחיצוניים להבטחת פתרונות מקצועיים.
דרישות:
מה אנחנו מחפשים?
- 3+ שנות ניסיון בפיתוח/יישום CRM כולל עבודה עם ממשקים ובסיסי נתונים.
- ניסיון באיסוף דרישות וניתוח מערכות.
- הבנה טכנולוגית טובה ויכולת לפתור בעיות מורכבות.
- תקשורת מצוינת ויכולת לסגור אפיונים מול לקוחות.
- יתרון משמעותי: ניסיון עם Dynamics CRM / salesforce / Zoho או מערכות CRM מקבילות. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8331711
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
In this role, youll own the engineering backbone that enables our data engineers & data scientists to experiment, innovate, and deploy production-ready models, ensuring our systems are robust, scalable, and future-proof.

What You'll Actually Do:

Lead and mentor a team of Data Engineers, fostering a culture of technical excellence, accountability, and collaboration.
Define and drive the teams technical roadmap, standards, and best practices for data modeling, performance, and reliability.
Design, build, and evolve scalable embedding pipelines and recommendation infrastructure, from algorithm tuning and training workflows to production deployment.
Manage and optimize vector db, ensuring efficient indexing strategies, search performance, and low-latency retrieval.
Lead the development of retrieval services leveraging Approximate Nearest Neighbor (ANN/KNN) techniques such as HNSW, IVF, and Product Quantization (PQ).
Ensure reliability, observability, and scalability across all real-time data systems powering our recommendation engine.
Collaborate with Data Science, Product, and Analytics to operationalize models, validate KPIs, and translate technical insights into actionable product improvements.
Requirements:
3+ years of experience leading data engineering teams.
5+ years of hands-on experience developing large-scale data and ML systems, with strong foundations in distributed computing, data pipelines, and algorithm development.
Strong programming skills in Python, with practical experience using modern data and ML frameworks such as Spark, Airflow, MLflow, or equivalent technologies.
Proven experience designing and maintaining embedding pipelines, feature stores, and model-serving infrastructure.
Excellent leadership and communication skills, with a passion for mentoring engineers and driving technical excellence.
Ability to translate complex technical challenges into scalable, reliable engineering solutions.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8481846
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
17/12/2025
חברה חסויה
Location: Tel Aviv-Yafo
Job Type: Full Time
Design, implement, and maintain robust data pipelines and ETL/ELT processes on GCP (BigQuery, Dataflow, Pub/Sub, etc.).
Build, orchestrate, and monitor workflows using Apache Airflow / Cloud Composer.
Develop scalable data models to support analytics, reporting, and operational workloads.
Apply software engineering best practices to data engineering: modular design, code reuse, testing, and version control.
Manage GCP resources (BigQuery reservations, Cloud Composer/Airflow DAGs, Cloud Storage, Dataplex, IAM).
Optimize data storage, query performance, and cost through partitioning, clustering, caching, and monitoring.
Collaborate with DevOps/DataOps to ensure data infrastructure is secure, reliable, and compliant.
Partner with analysts and data scientists to understand requirements and translate them into efficient data solutions.
Mentor junior engineers, provide code reviews, and promote engineering best practices.
Act as a subject matter expert for GCP data engineering tools and services.
Define and enforce standards for metadata, cataloging, and data documentation.
Implement monitoring and alerting for pipeline health, data freshness, and data quality.
Requirements:
Bachelors or Masters degree in Computer Science, Engineering, or related field.
6+ years of professional experience in data engineering or similar roles, with 3+ years of hands-on work in a cloud env, preferably on GCP.
Strong proficiency with BigQuery, Dataflow (Apache Beam), Pub/Sub, and Cloud Composer (Airflow).
Expert-level Python development skills, including object-oriented programming (OOP), testing, and code optimization.
Strong data modeling skills (dimensional modeling, star/snowflake schemas, normalized/denormalized designs).
Solid SQL expertise and experience with data warehousing concepts.
Familiarity with CI/CD, Terraform/Infrastructure as Code, and modern data observability tools.
Exposure to AI tools and methodologies (i.e, Vertex AI).
Strong problem-solving and analytical skills.
Ability to communicate complex technical concepts to non-technical stakeholders.
Experience working in agile, cross-functional teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8462182
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time and Hybrid work
we are looking for a Product Owner -Software Engineer.
As a Product Owner / Developer, you will play a dual role - defining business and product requirements while contributing directly to the technical delivery. Youll partner with collaborators across engineering, data, and business teams to translate goals into actionable roadmaps and measurable results.
Key Responsibilities:
Gather and define requirements aligned with strategic business goals and customer value.
Help the team leaders maintain and prioritize the product backlog, ensuring clarity, transparency, and focus on impact.
Collaborate with engineering teams to design and build scalable data and automation solutions (50%+ of the time)
Contribute to development, testing, and deployment of modern data pipelines using Apache Airflow, Apache Spark, and AWS cloud services (ECS, Lambda, Glue, S3).
Balance short-term delivery objectives with long-term technical vision.
Track and communicate key performance metrics that demonstrate business outcomes.
Requirements:
5+ years of professional experience in software engineering, data engineering, or product ownership roles.
Strong development experience with Python or Golang (both - advantage).
Demonstrated ability to translate business requirements into technical roadmaps and deliverables.
Experience working in Agile/Scrum environments and managing product backlogs.
Experience with orchestration and containerization (Kubernetes, Docker).
Familiarity with Linux and cloud infrastructure (especially AWS).
Preferred Qualifications:
Bachelors or masters degree in computer science, Engineering, or related field.
Familiarity with data warehousing and modern data stack technologies.
Proven hands-on experience with Apache Airflow, and Apache Spark.
Knowledge of message queues and real-time systems (RabbitMQ, Redis, Kinesis).
Knowledge of DevOps and CI/CD tools.
Strong stakeholder management and communication skills.
Ability to balance technical depth with strategic vision.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8479924
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
3 ימים
Location: Tel Aviv-Yafo
Job Type: Full Time
It starts with you - an engineer driven to build modern, real-time data platforms that help teams move faster with trust. You care about great service, performance, and cost. Youll architect and ship a top-of-the-line open streaming data lake/lakehouse and data stack, turning massive threat signals into intuitive, self-serve data and fast retrieval for humans and AI agents - powering a unified foundation for AI-driven mission-critical workflows across cloud and on-prem.
If you want to make a meaningful impact, join mission and build best-in-class data systems that move the world forward - this role is for you.
:Responsibilities
Build self-serve platform surfaces (APIs, specs, CLI/UI) for streaming and batch pipelines with correctness, safe replay/backfills, and CDC.
Run the open data lake/lakehouse across cloud and on-prem; enable schema evolution and time travel; tune partitioning and compaction to balance latency, freshness, and cost.
Provide serving and storage across real-time OLAP, OLTP, document engines, and vector databases.
Own the data layer for AI - trusted datasets for training and inference, feature and embedding storage, RAG-ready collections, and foundational building blocks that accelerate AI development across the organization.
Enable AI-native capabilities - support agentic pipelines, self-tuning processes, and secure sandboxing for model experimentation and deployment.
Make catalog, lineage, observability, and governance first-class - with clear ownership, freshness SLAs, and access controls.
Improve performance and cost by tuning runtimes and I/O, profiling bottlenecks, planning capacity, and keeping spend predictable.
Ship paved-road tooling - shared libraries, templates, CI/CD, IaC, and runbooks - while collaborating across AI, ML, Data Science, Engineering, Product, and DevOps. Own architecture, documentation, and operations end-to-end.
Requirements:
6+ years in software engineering, data engineering, platform engineering, or distributed systems, with hands-on experience building and operating data infrastructure at scale.
Streaming & ingestion - Technologies like Flink, Structured Streaming, Kafka, Debezium, Spark, dbt, Airflow/Dagster
Open data lake/lakehouse - Table formats like Iceberg, Delta, or Hudi; columnar formats; partitioning, compaction, schema evolution, time-travel
Serving & retrieval - OLAP engines like ClickHouse or Trino; vector databases like Milvus, Qdrant, or LanceDB; low-latency stores like Redis, ScyllaDB, or DynamoDB
Databases - OLTP systems like Postgres or MySQL; document/search engines like MongoDB or ElasticSearch; serialization with Avro/Protobuf; warehouse patterns
Platform & infra - Kubernetes, AWS, Terraform or similar IaC, CI/CD, observability, incident response
Performance & cost - JVM tuning, query optimization, capacity planning, compute/storage cost modeling
Engineering craft - Java/Scala/Python, testing, secure coding, AI coding tools like Cursor, Claude Code, or Copilot
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8504233
סגור
שירות זה פתוח ללקוחות VIP בלבד