עדיין מחפשים עבודה במנועי חיפוש? הגיע הזמן להשתדרג!
במקום לחפש לבד בין מאות מודעות – תנו ל-Jobify לנתח את קורות החיים שלכם ולהציג לכם רק הזדמנויות שבאמת שוות את הזמן שלכם מתוך מאגר המשרות הגדול בישראל.
השימוש חינם, ללא עלות וללא הגבלה.
At Dream, we redefine cyber defense vision by combining AI and human expertise to create products that protect nations and critical infrastructure. This is more than a job; it’s a Dream job. Dream is where we tackle real-world challenges, redefine AI and security, and make the digital world safer. Let’s build something extraordinary together.
Dream's AI cybersecurity platform applies a new, out-of-the-ordinary, multi-layered approach, covering endless and evolving security challenges across the entire infrastructure of the most critical and sensitive networks. Central to our Dream's proprietary Cyber Language Models are innovative technologies that provide contextual intelligence for the future of cybersecurity.
At Dream, our talented team, driven by passion, expertise, and innovative minds, inspires us daily. We are not just dreamers, we are dream-makers.
The Dream Job:
It starts with you - an engineer driven to build modern, real-time data platforms that help teams move faster with trust. You care about great service, performance, and cost. You’ll architect and ship a top-of-the-line open streaming data lake/lakehouse and data stack, turning massive threat signals into intuitive, self-serve data and fast retrieval for humans and AI agents - powering a unified foundation for AI-driven mission-critical workflows across cloud and on-prem.
If you want to make a meaningful impact, join Dream’s mission and build best-in-class data systems that move the world forward - this role is for you.
The Dream-Maker Responsibilities:
- Build self-serve platform surfaces (APIs, specs, CLI/UI) for streaming and batch pipelines with correctness, safe replay/backfills, and CDC.
- Run the open data lake/lakehouse across cloud and on-prem; enable schema evolution and time travel; tune partitioning and compaction to balance latency, freshness, and cost.
- Provide serving and storage across real-time OLAP, OLTP, document engines, and vector databases.
- Own the data layer for AI - trusted datasets for training and inference, feature and embedding storage, RAG-ready collections, and foundational building blocks that accelerate AI development across the organization.
- Enable AI-native capabilities - support agentic pipelines, self-tuning processes, and secure sandboxing for model experimentation and deployment.
- Make catalog, lineage, observability, and governance first-class - with clear ownership, freshness SLAs, and access controls.
- Improve performance and cost by tuning runtimes and I/O, profiling bottlenecks, planning capacity, and keeping spend predictable.
- Ship paved-road tooling - shared libraries, templates, CI/CD, IaC, and runbooks - while collaborating across AI, ML, Data Science, Engineering, Product, and DevOps. Own architecture, documentation, and operations end-to-end.
- 6+ years in software engineering, data engineering, platform engineering, or distributed systems, with hands-on experience building and operating data infrastructure at scale.
- Streaming & ingestion - Technologies like Flink, Structured Streaming, Kafka, Debezium, Spark, dbt, Airflow/Dagster
- Open data lake/lakehouse - Table formats like Iceberg, Delta, or Hudi; columnar formats; partitioning, compaction, schema evolution, time-travel
- Serving & retrieval - OLAP engines like ClickHouse or Trino; vector databases like Milvus, Qdrant, or LanceDB; low-latency stores like Redis, ScyllaDB, or DynamoDB
- Databases - OLTP systems like Postgres or MySQL; document/search engines like MongoDB or ElasticSearch; serialization with Avro/Protobuf; warehouse patterns
- Platform & infra - Kubernetes, AWS, Terraform or similar IaC, CI/CD, observability, incident response
- Performance & cost - JVM tuning, query optimization, capacity planning, compute/storage cost modeling
- Engineering craft - Java/Scala/Python, testing, secure coding, AI coding tools like Cursor, Claude Code, or Copilot
If you think this role doesn't fully match your skills but are eager to grow and break glass ceilings, we’d love to hear from you!
במקום לחפש לבד בין מאות מודעות – תנו ל-Jobify לנתח את קורות החיים שלכם ולהציג לכם רק הזדמנויות שבאמת שוות את הזמן שלכם מתוך מאגר המשרות הגדול בישראל.
השימוש חינם, ללא עלות וללא הגבלה.
שאלות ותשובות עבור משרת Senior Data Platform Engineer - Applied AI Engineering Group
התפקיד המרכזי של מהנדס/ת פלטפורמת נתונים בכיר/ה בקבוצת הנדסת AI יישומית ב-Dream הוא לבנות פלטפורמות נתונים מודרניות בזמן אמת, שיאפשרו לצוותים לעבוד מהר יותר ובאמינות. זה כולל תכנון והטמעה של אגם נתונים פתוח מבוסס סטרימינג (data lake/lakehouse) וערימת נתונים (data stack) מהשורה הראשונה, תוך הפיכת אותות איום מסיביים לנתונים אינטואיטיביים וזמינים לשירות עצמי, ולאחזור מהיר עבור בני אדם וסוכני AI, ובכך להניע בסיס מאוחד לתהליכי עבודה קריטיים מונחי AI בענן ובאתר הלקוח.
משרות נוספות מומלצות עבורך
-
Senior Software Engineer
-
תל אביב - יפו
PointFive
-
-
Senior Data Engineer
-
תל אביב - יפו
Fireblocks
-
-
Senior Data Engineer- Cutting Edge AI Center!
-
תל אביב - יפו
Confidential
-
-
Senior Data Engineer
-
תל אביב - יפו
Arpeely
-
-
Senior Data Engineer
-
תל אביב - יפו
Brandlight
-
-
Senior Data Engineer
-
תל אביב - יפו
Addressable.io
-