jobify_logo ×
  • מִשׁתַמֵשׁ
  • התחברות/הרשמה
  • עמוד הבית
  • מי אנחנו
  • מעסיקים מובילים
  • צרו קשר
  • תנאי שימוש
  • מדיניות פרטיות
  • הצהרת נגישות
קרן עזריאלי טקסט בעברית עם סמל אינסוף social_security the_israeli_employment_service work_office המקום
jobify_logo
  • מי אנחנו
  • מעסיקים מובילים
  • פרסום משרה חדש
  • צרו קשר
דילוג לתוכן

עדיין מחפשים עבודה במנועי חיפוש? הגיע הזמן להשתדרג!

במקום לעבור לבד על אלפי מודעות, Jobify מנתחת את קורות החיים שלך ומציגה לך רק משרות שבאמת מתאימות לך.

מעל 80,000 משרות • 4,000 חדשות ביום
חינם. בלי פרסומות. בלי אותיות קטנות.

הגשת מועמדות

Data Engineer

Volumez

הגשת מועמדות

Volumez Volumez

  • תל אביב - יפו
  • LinkedIn
LinkedIn

Data Engineer

Volumez

הגשת מועמדות

Volumez Volumez

  • תל אביב - יפו
  • bag_icon מלאה, היברידית
  • coins_icon 22,000-30,000 ₪ (הערכה מבוססת AI)
    זוהי הערכת טווח שכר מבוססת AI ולא פרסום של המעסיק
  • LinkedIn
LinkedIn


Data Pipeline Engineer

About the Role

We're looking for a Data Pipeline Engineer to own and evolve our data ingest infrastructure — from workflow orchestration to large-scale data processing. You'll work across Zapier, Apache Spark, and our ingest model framework to ensure data flows reliably from source to analytics.

Responsibilities

  • Ingest Models: Design, implement, and maintain new ingest models that define how data is ingested, transformed, and loaded into our storage layer
  • Zapier Workflows: Build and manage automation workflows in Zapier for data pipeline orchestration, scheduling, error handling, and alerting
  • Spark Jobs: Develop and optimize Apache Spark jobs for batch and near-real-time data processing, including ETL pipelines, aggregations, and data quality checks
  • Pipeline Reliability: Monitor pipeline health, troubleshoot failures, implement retries and dead-letter handling, and ensure SLAs are met
  • Schema Evolution: Manage schema changes across ingest models, coordinate with downstream consumers (Milvus, analytics dashboards)
  • Performance Tuning: Profile and optimize Spark jobs for cost and throughput; tune Zapier workflows for latency-sensitive pipelines
  • Infrastructure Collaboration: Work with the infrastructure team on containerized deployments, HA configurations, and storage integration

Requirements

  • 3+ years building and operating data pipelines in production
  • Strong experience with Apache Spark (PySpark or Scala) — job authoring, tuning, and debugging
  • Experience with workflow/orchestration platforms (Zapier, Airflow, Prefect, or similar)
  • Solid Python skills; comfortable writing data transformation logic and automation scripts
  • Familiarity with SQL and vector databases (Milvus, Weaviate, or similar is a plus)
  • Understanding of data formats (Parquet, CSV, JSON) and schema management
  • Experience with Linux environments and containerized deployments

Nice to Have

  • Experience with distributed storage systems (Ceph, HDFS)
  • Familiarity with Ansible-based deployment automation
  • Experience with S3-compatible gateways and object storage workflows
  • Knowledge of high-availability patterns (Pacemaker, VIPs)
  • Exposure to infrastructure-as-code and CI/CD pipelines



במקום לעבור לבד על אלפי מודעות, Jobify מנתחת את קורות החיים שלך ומציגה לך רק משרות שבאמת מתאימות לך.

מעל 80,000 משרות • 4,000 חדשות ביום
חינם. בלי פרסומות. בלי אותיות קטנות.

הגשת מועמדות

שאלות ותשובות עבור משרת Data Engineer

מהנדס נתונים ב-Volumez יהיה אחראי על תכנון, הטמעה ותחזוקה של מודלי קליטת נתונים, בנייה וניהול של זרימות עבודה ב-Zapier לתזמור צינורות נתונים, פיתוח ואופטימיזציה של משימות Apache Spark לעיבוד נתונים, וכן ניטור אמינות הצינורות וניהול שינויי סכימה.

לצורך תפקיד מהנדס נתונים ב-Volumez, נדרש ניסיון חזק עם Apache Spark (PySpark או Scala), פלטפורמות תזמור זרימות עבודה כמו Zapier, Airflow או Prefect, וכישורי Python מוצקים. היכרות עם SQL, מסדי נתונים וקטוריים (כמו Milvus), וסביבות לינוקס ופריסות מבוססות קונטיינרים היא יתרון משמעותי.

מהנדס הנתונים ב-Volumez תורם לאופטימיזציה של ביצועים ואמינות על ידי ניטור תקינות הצינורות, פתרון תקלות, הטמעת מנגנוני ניסיון חוזר וטיפול בשגיאות, הבטחת עמידה בהסכמי רמת שירות (SLAs), וכן פרופיל ואופטימיזציה של משימות Spark וזרימות עבודה ב-Zapier לשיפור עלות, תפוקה וזמני השהיה.

משרות נוספות מומלצות עבורך
  • רשימת משאלות

    Data Engineer

    • map_icon בני ברק
    DataTeam

    DataTeam

  • רשימת משאלות

    מהנדס /ת נתונים ( data Engineer)

    • map_icon יטבתה
    שירותי תקשוב ערדום

    שירותי תקשוב ערדום

  • רשימת משאלות

    Data Engineer

    • map_icon הרצליה
    Amiio

    Amiio

  • רשימת משאלות

    Sr. Data Engineer - Cloud Security (Hybrid, ISR)

    • map_icon תל אביב - יפו
    CrowdStrike

    CrowdStrike

  • רשימת משאלות

    Data Engineer

    • map_icon תל אביב - יפו
    Gotfriends

    Gotfriends

  • רשימת משאלות

    Senior Data Engineer, Data Infrastructure

    • map_icon הרצליה
    Shift4

    Shift4

ניתן לצפות במשרות שסימנת בכל שלב תחת התפריט הראשי בקטגוריית 'משרות שאהבתי'

המקום קרן עזריאלי טקסט בעברית עם סמל אינסוף
  • מי אנחנו
  • מעסיקים מובילים
  • צרו קשר
  • תנאי שימוש
  • מדיניות פרטיות
  • הצהרת נגישות

2026 Ⓒ ג'וביפיי - כל הזכויות שמורות

קרן עזריאלי טקסט בעברית עם סמל אינסוף social_security the_israeli_employment_service israel_innovation_authority work_office המקום
המערכת בונה את הפרופיל התעסוקתי שלך

עוד רגע...

המערכת זיהתה ששינית את הנתונים באזור האישי ומעדכנת את ההמלצות על תפקידים ומשרות בהתאם.

מצטערים, לא הצלחנו לנתח בהצלחה את הנתונים שהזנת.
אתם מוזמנים לנסות להזין שוב או להעלות קובץ קורות חיים במידה ויש לכם.
בהצלחה

הגעת להגבלה היומית של שלושה עדכונים בפרופיל האישי ביום

loader

הבקשה שלך נשלחה בהצלחה!

יש באפשרותך לשלוח בקשה לקבלת ייעוץ אישי ללא עלות מיועצת קריירה.

באפשרותך לשלוח בקשה לקבלת ייעוץ אישי ללא עלות

  • בעיה טכנית

  • סיוע בכתיבת קורות חיים או בהכנה לראיון עבודה

  • התאמה של משרות

  • אחר:

פנייתך נשלחה בהצלחה. נציג מטעם ארגון נכי צהל ייצור איתך קשר בהקדם