jobify_logo ×
  • מִשׁתַמֵשׁ
  • התחברות/הרשמה
  • עמוד הבית
  • מי אנחנו
  • מעסיקים מובילים
  • צרו קשר
  • תנאי שימוש
  • מדיניות פרטיות
  • הצהרת נגישות
קרן עזריאלי טקסט בעברית עם סמל אינסוף social_security the_israeli_employment_service work_office המקום
jobify_logo
  • מי אנחנו
  • מעסיקים מובילים
  • פרסום משרה חינם
  • צרו קשר
דילוג לתוכן

עדיין מחפשים עבודה במנועי חיפוש? הגיע הזמן להשתדרג!

במקום לעבור לבד על אלפי מודעות, Jobify מנתחת את קורות החיים שלך ומציגה לך רק משרות שבאמת מתאימות לך.

מעל 80,000 משרות • 4,000 חדשות ביום
חינם. בלי פרסומות. בלי אותיות קטנות.

Data Engineer

Cust2Mate - A2Z (NASDAQ: AZ)

Cust2Mate - A2Z (NASDAQ: AZ) Cust2Mate - A2Z (NASDAQ: AZ)

  • גבעתיים
  • LinkedIn
LinkedIn

Data Engineer

Cust2Mate - A2Z (NASDAQ: AZ)

Cust2Mate - A2Z (NASDAQ: AZ) Cust2Mate - A2Z (NASDAQ: AZ)

  • גבעתיים
  • bag_icon מלאה, היברידית
  • coins_icon 20,000-30,000 ₪ (הערכה מבוססת AI)
    זוהי הערכת טווח שכר מבוססת AI ולא פרסום של המעסיק
  • LinkedIn
LinkedIn


Cust2Mate is a global leader in smart-cart platforms, transforming in-store shopping through digitalization and personalization. Our award-winning Smart Carts, trusted by leading grocery chains, elevate the customer experience, optimize store operations, and bridge online and physical retail.

We’re looking for a Data Engineer to build and scale reliable data pipelines and analytics infrastructure. You’ll own ingestion, transformation, modeling, and orchestration with a stack centered on Python, Apache Spark, BigQuery, and dbt (today) We are in a process of redesigning our infrastructure.

Responsibilities:

  • Design, build, and maintain batch and streaming pipelines from multiple sources into BigQuery
  • Develop modular dbt models (staging, marts) with tests, documentation, and clear ownership
  • Optimize Spark jobs for performance and cost; tune partitions, caching, and I/O.
  • Implement data quality checks, observability, and alerting (freshness, volume, schema).
  • Collaborate with Analytics/BI and Product teams to model data for self-serve reporting.
  • Design, implement, and maintain CI/CD pipelines and manage orchestration
  • Manage and optimize Azure & GCP cloud infrastructure.

Requirements:

  • 7+ years building production data pipelines and models.
  • 5+ years Databricks data engineer – must.
  • Strong Python (coding, packaging, unit tests, dependency mgmt).
  • Hands-on Apache Spark (PySpark preferred): optimizing joins, shuffles, and partitions.
  • Expert BigQuery: SQL, storage design, performance tuning, and cost controls.
  • Production dbt experience (modeling conventions, tests, docs, exposures).
  • Experience with orchestration (Airflow/Cloud Composer or similar) and Git-based CI/CD.
  • Data quality/observability mindset; familiarity with testing frameworks.
  • Clear communication and stakeholder collaboration.
  • Streaming (Kafka/Pub/Sub), incremental change data capture (CDC) (Nice to have)
  • Terraform/IaC, GCP networking & security (Nice to have)



במקום לעבור לבד על אלפי מודעות, Jobify מנתחת את קורות החיים שלך ומציגה לך רק משרות שבאמת מתאימות לך.

מעל 80,000 משרות • 4,000 חדשות ביום
חינם. בלי פרסומות. בלי אותיות קטנות.

שאלות ותשובות עבור משרת Data Engineer

מהנדס נתונים ב-Cust2Mate - A2Z (NASDAQ: AZ) יהיה אחראי על תכנון, בנייה ותחזוקה של צינורות נתונים (batch ו-streaming) ממקורות מרובים אל BigQuery. התפקיד כולל גם פיתוח מודלים מודולריים של dbt, אופטימיזציה של עבודות Spark, הטמעת בדיקות איכות נתונים, ושיתוף פעולה עם צוותי אנליטיקה ומוצר לעיצוב נתונים עבור דיווח בשירות עצמי. בנוסף, התפקיד כולל ניהול ואופטימיזציה של תשתית ענן ב-Azure ו-GCP.

לתפקיד מהנדס נתונים ב-Cust2Mate - A2Z (NASDAQ: AZ) נדרשים למעלה מ-7 שנות ניסיון בבניית צינורות נתונים ומודלים בסביבת ייצור, ולמעלה מ-5 שנות ניסיון כמהנדס נתונים ב-Databricks. כישורי Python חזקים, ניסיון מעשי עם Apache Spark (עדיפות ל-PySpark), מומחיות ב-BigQuery, וניסיון ב-dbt בסביבת ייצור הם חיוניים. כמו כן, נדרש ניסיון עם כלי תזמור (כמו Airflow/Cloud Composer) ו-CI/CD מבוסס Git.

מהנדס הנתונים תורם באופן קריטי לפרויקט פלטפורמות העגלות החכמות של Cust2Mate - A2Z (NASDAQ: AZ) על ידי בנייה והרחבה של צינורות נתונים אמינים ותשתית אנליטית. תפקיד זה חיוני להבטחת איכות הנתונים, זמינותם וביצועיהם, מה שמאפשר לצוותי אנליטיקה ומוצר להפיק תובנות ולשפר את חווית הלקוח ואת תפעול החנות באמצעות דיגיטליזציה והתאמה אישית. המהנדס יתרום גם לעיצוב מחדש של התשתית הנוכחית.

משרות נוספות מומלצות עבורך
  • רשימת משאלות

    Staff Data Engineer – Data Modeling

    • map_icon רמת ישי
    Cloudinary

    Cloudinary

  • רשימת משאלות

    Data Engineer

    • map_icon שוהם
    Aqurate Data

    Aqurate Data

  • רשימת משאלות

    Senior Data Engineer

    • map_icon תל אביב - יפו
    Perion

    Perion

  • רשימת משאלות

    Data Engineer מנוסה לחטיבת הAI והחדשנות!

    • map_icon רמת גן
    הראל ביטוח ופיננסים

    הראל ביטוח ופיננסים

  • רשימת משאלות

    Staff Data Engineer – Data Modeling

    • map_icon פתח תקווה
    Cloudinary

    Cloudinary

  • רשימת משאלות

    Data Engineer (databricks)

    • map_icon פתח תקווה
    ONE datAI

    ONE datAI

ניתן לצפות במשרות שסימנת בכל שלב תחת התפריט הראשי בקטגוריית 'משרות שאהבתי'

המקום קרן עזריאלי טקסט בעברית עם סמל אינסוף
  • מי אנחנו
  • מעסיקים מובילים
  • צרו קשר
  • תנאי שימוש
  • מדיניות פרטיות
  • הצהרת נגישות

2026 Ⓒ ג'וביפיי - כל הזכויות שמורות

קרן עזריאלי טקסט בעברית עם סמל אינסוף social_security the_israeli_employment_service israel_innovation_authority work_office המקום
המערכת בונה את הפרופיל התעסוקתי שלך

עוד רגע...

המערכת זיהתה ששינית את הנתונים באזור האישי ומעדכנת את ההמלצות על תפקידים ומשרות בהתאם.

מצטערים, לא הצלחנו לנתח בהצלחה את הנתונים שהזנת.
אתם מוזמנים לנסות להזין שוב או להעלות קובץ קורות חיים במידה ויש לכם.
בהצלחה

הגעת להגבלה היומית של שלושה עדכונים בפרופיל האישי ביום

loader

הבקשה שלך נשלחה בהצלחה!

יש באפשרותך לשלוח בקשה לקבלת ייעוץ אישי ללא עלות מיועצת קריירה.

באפשרותך לשלוח בקשה לקבלת ייעוץ אישי ללא עלות

  • בעיה טכנית

  • סיוע בכתיבת קורות חיים או בהכנה לראיון עבודה

  • התאמה של משרות

  • אחר:

פנייתך נשלחה בהצלחה. נציג מטעם ארגון נכי צהל ייצור איתך קשר בהקדם