עדיין מחפשים עבודה במנועי חיפוש? הגיע הזמן להשתדרג!
במקום לעבור לבד על אלפי מודעות, Jobify מנתחת את קורות החיים שלך ומציגה לך רק משרות שבאמת מתאימות לך.
מעל 80,000 משרות • 4,000 חדשות ביום
חינם. בלי פרסומות. בלי אותיות קטנות.
About the Role
Join the team building the data backbone behind our AI and automation workflows. You’ll design scrapers, clean messy real-world datasets, and structure information so it can power models, dashboards, and product features. This is hands-on work where reliability and speed matter.
Responsibilities
- Build and maintain web crawlers, scrapers, and data ingestion pipelines (Python, APIs, scraping frameworks).
- Clean, normalize, and structure raw data from multiple sources for analysis or model consumption.
- Implement data quality checks, deduplication logic, and monitoring to keep pipelines stable.
- Document datasets, schemas, transformations, and edge cases.
- Work closely with the AI and product teams to align data collection with upcoming features and experiments.
- Prototype quick data utilities or scripts that solve operational bottlenecks.
You Might Be a Fit If
- You enjoy turning chaotic, unstructured data into something clean and usable.
- You’ve built scrapers or automated data workflows before and understand common failure modes.
- You think in terms of reliability, not just “it works once.”
- You learn by building and iterating, not over-planning.
Why Join
You’ll work directly with founders on the data challenges of a fast-moving tech company, shaping how information flows through real operational systems in a multi-billion-dollar industry.
(Full-time, unpaid internship; strong performance may lead to a full-time offer.)
במקום לעבור לבד על אלפי מודעות, Jobify מנתחת את קורות החיים שלך ומציגה לך רק משרות שבאמת מתאימות לך.
מעל 80,000 משרות • 4,000 חדשות ביום
חינם. בלי פרסומות. בלי אותיות קטנות.