דרושים » דאטה » data Engineer עבור ארגון פיננסי באזור המרכז

משרות על המפה
 
בדיקת קורות חיים
VIP
הפוך ללקוח VIP
רגע, משהו חסר!
נשאר לך להשלים רק עוד פרט אחד:
 
שירות זה פתוח ללקוחות VIP בלבד
AllJObs VIP
כל החברות >
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
1 ימים
דרושים בSQLink
סוג משרה: משרה מלאה
ארגון פיננסי באזור המרכז מגייס data Engineer
התפקיד כולל: בנייה והובלה של תשתיות דאטה מתקדמות לצורך פיתוח, אימון והסקה של מודלים, פיתוח תהליכי ETL /ELT ועבודה עם Snowflake, יצירת data Pipelines ופאנלים דינמיים, חיבור למקורות מידע ארגוניים וניתוח נתונים, עבודה שוטפת עם data Scientists, אנליסטים וצוותי MLOps, הובלת תהליכי דאטה מקצה לקצה בסביבה טכנולוגית מתקדמת ועוד.
דרישות:
- 3 שנות ניסיון כ- data Engineer
- ניסיון ב-SQL וכתיבה אופטימלית לביצועים
- ניסיון בפיתוח תהליכי ETL /ELT ובניית data Pipelines
- ניסיון בעבודה עם Snowflake
- ניסיון עם DBT או Feature Store - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
הסתר
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8582116
סגור
שירות זה פתוח ללקוחות VIP בלבד
משרות דומות שיכולות לעניין אותך
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
2 ימים
דרושים בQpoint Technologies
סוג משרה: משרה מלאה ועבודה היברידית
ארגון מוביל מגייס data Engineer להשתלבות בצוות דאטה מתקדם, לעבודה על מערכות מורכבות ועשירות נתונים בסביבת Big Data.

תיאור התפקיד:

פיתוח, ניהול ועיבוד נתונים בהיקפים גדולים בסביבת Big Data

פיתוח ותחזוקה של תהליכי ETL מורכבים באמצעות Python ו-SQL

עבודה עם ElasticSearch כולל היבטי DevOps

פיתוח שירותים ותהליכים בסביבת OpenShift

כתיבת קוד ופתרונות data מתקדמים ב- Python

כתיבת שאילתות מורכבות ואופטימיזציה של ביצועים

עבודה שוטפת מול צוותי BI, data Science ופיתוח מערכות מידע
דרישות:
דרישות חובה:

ניסיון של 3+ שנים כ- data Engineer

ניסיון משמעותי בפיתוח Python לעיבוד נתונים ובניית data Flows

ניסיון בעבודה עם ELK / ElasticSearch

שליטה מלאה ב-SQL

הבנה בארכיטקטורת נתונים וסביבות Big Data

יתרונות:

ניסיון עם MongoDB וכתיבת Aggregation Pipelines

ניסיון בעבודה עם Kafka

ניסיון בפיתוח בסביבת Microservices ו-OpenShift

ניסיון עם כלי BI (SSAS, DataStage)

ניסיון בפיתוח מודולי AI / LLM ושילובם בפתרונות דאטה

היכרות עם כלי ניהול תצורה המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8584961
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 2 שעות
דרושים בפרוסיד
סוג משרה: משרה מלאה ואיקון מתאים גם למגזר הדתימתאים גם למגזר הדתי
פרוסיד מגייסת data Engineer (GCP Focus | data AI Platforms) להובלת פרויקטי דאטה ו- AI חדשניים!

במסגרת התפקיד:
עיצוב, פיתוח והטמעה של פלטפורמות דאטה מודרניות בסביבת Google Cloud Platform (GCP).
בנייה וניהול של data Pipelines מקצה לקצה - איסוף, עיבוד, טרנספורמציה ואחסון נתונים על גבי GCP.
פיתוח תהליכי ETL /ELT באמצעות כלים מתקדמים כגון.dbt
עבודה Hands-on עם מחסן נתונים מודרני בענן.BigQuery
ניהול אוטומציה ותהליכי DataOps / CI/CD באמצעות Git, Terraform, Jenkins או GitLab CI בסביבת.GCP
שיתוף פעולה הדוק עם צוותי מוצר, אנליסטים ומדעני נתונים באפיון ויישום ארכיטקטורות דאטה ופתרונות.AI
בחינת טכנולוגיות חדשות ב-GCP הובלת PoC והטמעת חדשנות מתמדת בתהליכי הדאטה וה.AI
דרישות:
דרישות:
ניסיון של שנה לפחות כמהנדס/ת דאטה - חובה.
ניסיון מוכח בעבודה עם Google Cloud Platform (GCP) - חובה.
ניסיון Hands-on עם BigQuery - חובה.
שליטה מלאה בSQL וב- Python - חובה.
ניסיון בפיתוח תהליכי ETL /ELT ובשימוש בכלי טרנספורמציה (dbt) - חובה.
ניסיון בעבודה עם כלי BI (Looker / Looker Studio / Power BI / Tableau) או רקע קודם כ- BI Developer - חובה.
היכרות עם כלי CI/CD ו-IaC (Git, Terraform, Jenkins, GitLab CI) חובה.
היכרות מעשית עם עקרונות הנדסת נתונים וארכיטקטורות דאטה מודרניות בסביבת GCP -חובה.
ידע מעשי בתחום ה,GenAIכולל Prompt Engineering ושימוש בכלי AI - חובה.
יתרונות משמעותיים:
היכרות עם מתודולוגיות מתקדמות כגון data Mesh / data Fabric - יתרון משמעותי
ניסיון בהטמעת פתרונות ML/AI ו MLOps - יתרון משמעותי
רקע בכתיבת אפיונים טכניים ופונקציונליים- יתרון
ניסיון עם כלי data Governance, data Catalog ו- data Quality- יתרון
תואר אקדמי רלוונטי- יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8527293
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 3 שעות
דרושים בלוגיקה IT
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
לארגון ממשלתי גדול ויציב, דרוש מנהל או מנהלת פרויקטים להובלת פרויקט דאטה אסטרטגי של מעבר מתשתיות מקומיות לפלטפורמת דאטה מתקדמת בענן GCP.

מדובר בתפקיד ליבה עם השפעה רחבה על הארגון, המשלב הובלה טכנולוגית, ניהול פרויקט מורכב ועבודה עם צוותי דאטה וארכיטקטורה.

ניתן לעבוד מתל אביב או מירושלים

משרה היברידית עם שילוב עבודה מהבית

תחומי אחריות
הובלת פרויקט מיגרציית דאטה מקצה לקצה משלב התכנון ועד עלייה לייצור
ניהול ישיר של צוות data Engineers והובלת העבודה השוטפת
עבודה צמודה עם ארכיטקטים, צוותי תשתיות, BI ואבטחת מידע
הובלה מקצועית של פיתוח תהליכי דאטה, בניית טבלאות ומידול נתונים
תכנון והטמעת פלטפורמת דאטה בענן GCP כולל BigQuery ו Dataform
ניהול לוחות זמנים, תעדוף משימות, פתרון חסמים והובלת Delivery
אחריות גם על שלב הייצוב והמשך הפיתוח לאחר המיגרציה
דרישות:
ניסיון מוכח בניהול פרויקטים טכנולוגיים מורכבים או ניסיון ניהול צוות - חובה
רקע קודם כ data Engineer עם ניסיון Hands On חובה
ניסיון בעבודה עם DWH, תהליכי ETL או ELT ומידול נתונים
ניסיון בהובלת פרויקטי מיגרציה לענן יתרון משמעותי
ניסיון בענן GCP או ניסיון בענן אחר עם נכונות לעבוד ב GCP
תואר אקדמי בהנדסה / מדעי המחשב או תואר אקדמי אחר עם קורסים טכנולוגיים מתקדמים או בוגר/ת צה"ל יחידה טכנולוגית - חובה
היכרות עם BigQuery, Dataform, Snowflake או Databricks יתרון
יכולת הובלה, ראייה מערכתית ותקשורת בין אישית גבוהה

אופי התפקיד
תפקיד הובלה והכוונה מקצועית ללא פיתוח יומיומי
עבודה מול ממשקים רבים בסביבה ארגונית מורכבת
ניהול ישיר של צוות data Engineers ועבודה עם ארכיטקטים
שילוב בין אחריות על Delivery לבין עומק טכנולוגי המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8583940
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 3 שעות
דרושים בQpoint Technologies
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה ועבודה היברידית
אנו מחפשים data Engineer מוכשר/ת, שרוצה להצטרף למסע טכנולוגי מאתגר ומשמעותי בארגון פיננסי מוביל.
בואו להיות חלק משבט ניהול סיכונים שהוא הגוף האחראי על Delivery של האסטרטגיה, הדרישות הרגולטוריות, ומוביל פיתוח מערכות מתקדמות מבוססות דאטה וטכנולוגיות ענן.

מה מחכה לכם אצלנו:
- פיתוח data Pipeline בסביבת data Lake מקצה לקצה
- פיתוח תהליכי שינוע ועיבוד נתונים במערכות רלציוניות
- כתיבת סקריפטים ב- Python / PySpark ותחקור נתונים ב-SQL
- ביצוע בדיקות Unit / Integration
- עבודה בסביבות CI/CD וחשיפה למוצרים מתקדמים בתחומי ציות, הלבנת הון והלימות הון
דרישות:
- מעל שנתיים ניסיון ב- Python
- מעל שנתיים ניסיון ב- Big Data (SPARK / HIVE)
- ניסיון בכתיבת שאילתות SQL מורכבות
- לפחות 3 שנות ניסיון בעולמות data של מיקרוסופט (SSIS, SQL server )
- הכרות עם DWH, DL ותהליכי ETL / ELT
- ניסיון בעבודה מול CTRLM המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8578816
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
אנחנו מחפשים Data Engineer מנוסה להצטרף לצוות הדאטה שלנו ולהיות שותף מרכזי בהקמה, פיתוח ותפעול של פלטפורמת Data & AI ארגונית מתקדמת בסביבת Azure.

במסגרת התפקיד:
תכנון, פיתוח ותפעול Lakehouse ארגוני על גבי Azure Databricks
בניית Data Pipelines מודרניים מקצה לקצה על בסיס Delta Lake במודל Bronze / Silver / Gold
פיתוח תהליכי Data Ingestion חכמים ממערכות ליבה, APIs וEvent Streams, כולל Incremental Loading וCDC
עבודה עם Unity Catalog לניהול Data Governance, הרשאות, Lineage ושיתוף נתונים מאובטח בין צוותים
שימוש יומיומי ביכולות מתקדמות של Databricks:
Workflows & Jobs
Autoloader
Delta Live Tables
Structured Streaming
עבודה שוטפת וצמודה עם Data Scientists ותמיכה בML Workflows
הטמעה וניהול של MLflow:
ניהול ניסויים
Model Tracking
Versioning וReproducibility
בניית סטנדרטים ארגוניים לData Quality, Monitoring וObservability
אופטימיזציה של ביצועים ועלויות בסביבת Azure (Cluster Sizing, Caching, Partitioning)
תמיכה בהקמת AI / Data Platform ארגונית התומכת בAgents, Machine Learning ומוצרי דאטה
דרישות:
מה אנחנו מחפשים?
ניסיון של 3-5 שנים בתפקיד Data Engineer בסביבת Cloud
ניסיון מעשי משמעותי עם Azure Databricks
שליטה גבוהה ב Python,SQL, Spark / PySpark
ניסיון בעבודה עם: Delta Lake, Unity Catalog, Databricks Workflows / Jobs
ניסיון בבניית Data Pipelines בסביבת Production, ניסיון בעבודה משותפת עם Data Scientists וML Pipelines
היכרות עם MLflow לניהול מודלים וניסויים
הבנה טובה של Data Modeling בסביבת Lakehouse
ניסיון בעבודה עם Git וCI/CD לתהליכי דאטה
יכולת עבודה בצוות רבתחומי, חשיבה מוצרית וראייה מערכתית על דאטה

אנחנו ממוקמים ברמת גן,
מתחם הבורסה, בסמוך לרכבת סבידור מרכז ולרכבת הקלה

* המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8570851
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
1 ימים
דרושים בהראל ביטוח ופיננסים
מיקום המשרה: רמת גן
סוג משרה: משרה מלאה
התפקיד כולל -
אנחנו מחפשים Data Scientist מצטיין/ת להצטרף לצוות שלנו ולפתח פתרונות מתקדמים לעיבוד וניתוח מסמכים, זיהוי מסמכים חריגים ויישומי ML המשפיעים על תהליכי ליבה בארגון.
התפקיד משלב ML קלאסי, NLP  ו LLM ויכולות  Data Engineering בסיסיות, עם אימפקט אמיתי וחשיפה למערכות מתקדמות.
 
מה נעשה אצלנו:
פיתוח ויישום מודלים קלאסיים של ML&DL לטובת תהליכי קבלת החלטות חכמים.
ניתוח מסמכים כולל טקסטים, טפסים, PDF ותמונות.
בניית מודלים לאיתור מסמכים חריגים- שילוב של ראייה ממוחשבת ו LLM
פיתוח Workflows and Pipelines  בסביבות Azure ו Databricks
פיתוח FW להערכת איכות מודלים.
דרישות:
מה תביא/י איתך?
4-5  שנות ניסיון כ-  Data Scientist
שליטה גבוהה ב Python ובספריות ML מובילות.
ניסיון מוכח בעבודה עם Spark
ניסיון בבניית מודלים קלאסיים
ניסיון בעיבוד טקסטים או מסמכים
הבנה טובה של LLM ויישום שלהם בפרויקטים עסקיים
ניסיון משמעותי בכתיבת שאילתות SQL מורכבות, אופטימיזציה והבנה מעמיקה של מבני הנתונים.
עבודה בסביבת Cloud -
יכולת הובלה עצמית של משימות, חשיבה אנליטית חזקה
 
משרה מלאה, ימים א'-ה', 8.5 שעות ביום
רמת גן, מתחם הבורסה, צמוד לרכבת סבידור מרכז ובסמוך לרכבת הקלה
 * המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8415111
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
 
משרה בלעדית
לפני 1 שעות
דרושים בSQLink
מיקום המשרה: מספר מקומות
סוג משרה: משרה מלאה
חברה פיננסית במרכז הארץ מגייסת מפתח/ת Informatica / ETL
התפקיד כולל: עבודה עם תהליכי אינטגרציית נתונים מורכבים בארגונים גדולים, פיתוח מקצה לקצה משלב איסוף הדרישות ועד להעלאה לייצור, פיתוח ותחזוקה של תהליכי ETL מתקדמים ב-Informatica בענן, עבודה עם ממשקים לבסיסי נתונים שונים, קבצי XML ו-CSV, מערכות תורים, תהליכי CDC ועוד.
דרישות:
- 3 שנות ניסיון עם SQL וידע בכתיבת שאילתות וניהול נתונים
- שנתיים ניסיון בפיתוח Informatica Power Center / IICS
- ניסיון בהובלת תהליכי פיתוח מורכבים מקצה לקצה
- ניסיון בעבודה בסביבת ענן AWS - יתרון
- היכרות עם Microservices ו- salesforce - יתרון המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8576852
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
2 ימים
דרושים במלם תים
סוג משרה: משרה מלאה
למוסד פיננסי גדול בלוד, מגייסים: data Analyst, התפקיד משלב ניתוח נתונים והסקת תובנות, בניית פאנלים וחיווים מבוססים חוקה עסקית ב-SQL, דוחות ודשבורדים בטאבלו.
בנוסף, במסגרת התפקיד:  פיתוח וביצוע שאילתות SQL מתקדמות לשליפה וניתוח של נתונים ממאגרי מידע.
אפיון ובניית פאנלים לשילוב במערכת לטובת הקמת הקמפיינים ודשבורדים, מדידה וניתוח אפקטיביות קמפיינים, כולל הפקת דוחות ועוד.
הובלה מקצה לקצה של תוצרים בתחום הדאטה - משלב האפיון ועד למימוש.
דרישות:
- ניסיון של לפחות 3 שנים בעבודה עם SQL - כולל כתיבת שאילתות מורכבות, לרבות ניסיון בכתיבת סקריפטים מתוזמנים לריצה יומית.
-  ניתוח נתונים בהיקפים גדולים, לרבות הצגת ממצאים.
- הבנה עסקית מעמיקה בעולם הפיננסים - לקוחות, מוצרים ותהליכים שיווקיים.
- ניסיון בעבודה עם כלי Tableau.
- ניסיון באנליזה שיווקית בארגון פיננסי. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8542682
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
לפני 1 שעות
דרושים בעידור מחשבים בע"מ
סוג משרה: משרה מלאה ועבודה היברידית
תיאור התפקיד:
ראש צוות פיתוח אקטואריה בחטיבה טכנולוגית של חברת ביטוח מובילה
התפקיד דורש הובלה מקצועית וטכנולוגית של צוות אקטואריה - data AI
התפקיד משלב עומק אקטוארי עם אחריות על ארכיטקטורת תהליכי עיבוד נתונים מתקדמים, פיתוח פתרונות חכמים על פלטפורמת Databricks בענן בשילוב מודלי LLM לשיפור תהליכים, חיזוי וקבלת החלטות עסקיות

תחומי אחריות מרכזיים:

ניהול והובלת צוות פיתוח, כולל הכוונה טכנולוגית Hands-on.
תכנון ארכיטקטורת מערכת ואפיון טכני של פתרונות ותהליכי data מורכבים.
הובלת תהליכי הסבת מערכות מ SQL server לענן Azure כולל תכנון, ביצוע ואופטימיזציה.
פיתוח ותחזוקת מערכות בענן ובSQL Server.
עבודה שוטפת מול משתמשים בארגון ומתן מענה טכנולוגי שוטף לצרכים שוטפים ולאתגרים מקצועיים.
תכנון תכנית עבודה רבעונית ועמידה ביעדים, כולל ניהול משימות, עומסים ותיעדוף.
הובלת פרויקטים מורכבים בעלי ריבוי ממשקים - מול יחידות פנימיות כגון ומול ספקים וגופים חיצוניים.
דרישות:
ניסיון של לפחות שנתיים בניהול עובדים או ניסיון של3-5 שנים לפחות בהובלה טכנולוגית משמעותית.
ניסיון מעשי בפיתוח ב Pythonושליפות SQL מורכבות.
ניסיון מוכח בתכנון ארכיטקטורת מערכות ואפיון פתרונות מקצה לקצה.
ניסיון בעבודה בטכנולוגיית ענן ושימוש בכלי data Factory ו- Databricksאו כלים דומים.
יכולת עבודה שוטפת מול משתמשים ומתן תמיכה מקצועית לצרכים עסקיים.
ניסיון בניהול פרויקטים מורכבים ורבמערכתיים בעלי ריבוי ממשקים.
יכולת תכנון תכניות עבודה, ניהול משימות ועמידה ביעדים בסביבה דינמית.
אנגלית ברמה טובה - יכולת להשתתף בפגישות עם חול, תקשורת מקצועית בדיבור וכתיבה.

דרישות יתרון:
ניסיון קודם בתחום הפיננסיים / ביטוח / אקטואריה.
ניסיון בעבודה עם.Unity Catalog
תואר ראשון במדעי המחשב / הנדסת תוכנה / מערכות מידע - יתרון משמעותי.
יכולת הנחיית מפתחים צעירים והובלת פיתוח Hands-on במקביל לניהול.
ניסיון בעבודה מול ספקים וגופים חיצוניים. המשרה מיועדת לנשים ולגברים כאחד.
 
עוד...
הגשת מועמדות
עדכון קורות החיים לפני שליחה
8586244
סגור
שירות זה פתוח ללקוחות VIP בלבד
סגור
דיווח על תוכן לא הולם או מפלה
מה השם שלך?
תיאור
שליחה
סגור
v נשלח
תודה על שיתוף הפעולה
מודים לך שלקחת חלק בשיפור התוכן שלנו :)
Location: Tel Aviv-Yafo
Job Type: Full Time
This is a great opportunity to be part of one of the fastest-growing infrastructure companies in history, an organization that is in the center of the hurricane being created by the revolution in artificial intelligence.
We are seeking an experienced Solutions Data Engineer who possess both technical depth and strong interpersonal skills to partner with internal and external teams to develop scalable, flexible, and cutting-edge solutions. Solutions Engineers collaborate with operations and business development to help craft solutions to meet customer business problems.
A Solutions Engineer works to balance various aspects of the project, from safety to design. Additionally, a Solutions Engineer researches advanced technology regarding best practices in the field and seek to find cost-effective solutions.
Job Description:
Were looking for a Solutions Engineer with deep experience in Big Data technologies, real-time data pipelines, and scalable infrastructure-someone whos been delivering critical systems under pressure, and knows what it takes to bring complex data architectures to life. This isnt just about checking boxes on tech stacks-its about solving real-world data problems, collaborating with smart people, and building robust, future-proof solutions.
In this role, youll partner closely with engineering, product, and customers to design and deliver high-impact systems that move, transform, and serve data at scale. Youll help customers architect pipelines that are not only performant and cost-efficient but also easy to operate and evolve.
We want someone whos comfortable switching hats between low-level debugging, high-level architecture, and communicating clearly with stakeholders of all technical levels.
Key Responsibilities:
Build distributed data pipelines using technologies like Kafka, Spark (batch & streaming), Python, Trino, Airflow, and S3-compatible data lakes-designed for scale, modularity, and seamless integration across real-time and batch workloads.
Design, deploy, and troubleshoot hybrid cloud/on-prem environments using Terraform, Docker, Kubernetes, and CI/CD automation tools.
Implement event-driven and serverless workflows with precise control over latency, throughput, and fault tolerance trade-offs.
Create technical guides, architecture docs, and demo pipelines to support onboarding, evangelize best practices, and accelerate adoption across engineering, product, and customer-facing teams.
Integrate data validation, observability tools, and governance directly into the pipeline lifecycle.
Own end-to-end platform lifecycle: ingestion → transformation → storage (Parquet/ORC on S3) → compute layer (Trino/Spark).
Benchmark and tune storage backends (S3/NFS/SMB) and compute layers for throughput, latency, and scalability using production datasets.
Work cross-functionally with R&D to push performance limits across interactive, streaming, and ML-ready analytics workloads.
Requirements:
2-4 years in software / solution or infrastructure engineering, with 2-4 years focused on building / maintaining large-scale data pipelines / storage & database solutions.
Proficiency in Trino, Spark (Structured Streaming & batch) and solid working knowledge of Apache Kafka.
Coding background in Python (must-have); familiarity with Bash and scripting tools is a plus.
Deep understanding of data storage architectures including SQL, NoSQL, and HDFS.
Solid grasp of DevOps practices, including containerization (Docker), orchestration (Kubernetes), and infrastructure provisioning (Terraform).
Experience with distributed systems, stream processing, and event-driven architecture.
Hands-on familiarity with benchmarking and performance profiling for storage systems, databases, and analytics engines.
Excellent communication skills-youll be expected to explain your thinking clearly, guide customer conversations, and collaborate across engineering and product teams.
This position is open to all candidates.
 
Show more...
הגשת מועמדותהגש מועמדות
עדכון קורות החיים לפני שליחה
עדכון קורות החיים לפני שליחה
8572794
סגור
שירות זה פתוח ללקוחות VIP בלבד