(Senior) Data Engineer Onlineshop (w/m/d)
Genossenschaft Migros Ostschweiz
About the role
About
Ortsunabhängiges Arbeiten
Willst du in die Dateninfrastruktur des grössten Schweizer Onlineshops eintauchen? Wir suchen einen Data Engineer, der unsere Datenpipelines aufbaut und optimiert, aus Rohdaten Insights gewinnt und unsere moderne Data-Warehouse-Architektur weiterentwickelt.
Du gestaltest deine Arbeitszeiten und Orte individuell auf dich abgestimmt. Zudem kannst du bis zu acht Wochen im Jahr aus dem Ausland arbeiten.
Erweiterte Elternzeit für Mütter und Väter.
Du erfasst deine Arbeitszeit – und kompensierst jede einzelne Minute über deiner vertraglich vereinbarten Sollzeit.
Als Mitarbeiter profitierst du von Spezialpreisen (für deinen Eigenbedarf) auf unser gesamtes Sortiment.
Key Responsibilities
- Du konzipierst und entwickelst robuste Datenpipelines zur Verarbeitung von Nutzerdaten aus Snowplow in BigQuery.
- Du baust komplexe Datenmodelle zur Sessionisierung von Nutzerinteraktionen und transformierst Rohereignisse in aussagekräftige Nutzerreisen.
- Du optimierst die Leistung unserer Dateninfrastruktur, um skalierbare Analysen zu ermöglichen.
- Du entwickelst und pflegst Datenqualitätskontrollen und Monitoring-Tools, um die Integrität unserer Datenpipelines sicherzustellen.
- Du arbeitest eng mit Analysten und Produktteams zusammen, um Datenmodelle zu erstellen, die geschäftliche Anforderungen erfüllen.
- Du treibst die Evolution unserer Data-Warehouse-Architektur voran, um mit wachsenden Datenmengen und neuen Anforderungen Schritt zu halten.
Requirements
- 3+ Jahre Erfahrung in Data Warehousing, Datenverarbeitung, Datenpipelines.
- Abgeschlossenes Studium (Uni/ETH, FH, HF) im technischen oder daten‑fokussierten Bereich (Informatik, Statistik oder vergleichbares) oder entsprechende Berufserfahrung.
- Deutsch (verhandlungssicher).
- Englisch (sehr gute Kenntnisse).
- Fundierte Erfahrung mit BigQuery und SQL für komplexe Datenmanipulation und -analyse.
- Praktisches Know-how in der Entwicklung und Wartung von Datenpipelines (Erfahrung mit Airflow, Dataflow oder ähnlichen Tools).
- Gründliches Verständnis moderner Data-Warehouse-Architekturen (Data Vault, Kimball, Lakehouse).
- Erfahrung in der Entwicklung von Modellen zur Sessionisierung von Benutzerinteraktionen und Ereignissequenzen.
- Kenntnisse in Python für Datenverarbeitung und Automatisierung.
- Erfahrung mit GCP‑Diensten wie Dataflow, Pub/Sub oder Dataproc (suggested).
- Kenntnisse im Bereich Data Governance und Datenschutz (suggested).
- Vertrautheit mit Schema‑Evolution und Datenmodellierung für analytische Workloads.
- Erfahrung mit dbt oder ähnlichen Tools für Datentransformation (suggested).
- Praktische Erfahrung mit Event‑Streaming‑Plattformen wie Kafka (suggested).
- In Englisch und Deutsch zu arbeiten fällt dir leicht. Die Teamsprache ist Deutsch.
Benefits & Perks
Aus‑ und Weiterbildung
- Unterstützung bei externen Aus‑ und Weiterbildungen, so dass du dein Know‑how laufend erweitern kannst.
- Individuelle Weiterbildung.
- 2'000 Edu‑Points pro Jahr für dein Selbststudium und deine Garagenprojekte.
Arbeitsumfeld & Kultur
- Unser Arbeitsumfeld ist geprägt von unseren Werten, einer offenen Feedback‑ und einer positiven Fehlerkultur.
- Gestaltungs‑ und Entscheidungsspielraum.
- Via unserem Innovationsboard haben alle die Möglichkeit, seine Ideen direkt bei der Geschäftsleitung einzubringen.
Entwicklungsmöglichkeiten
- An erster Stelle steht natürlich die gewählte Ausbildung. Gleichzeitig fördern wir Interessen und ermöglichen Erfahrungen auch außerhalb des vorgegebenen Bildungsplans.
Requirements
- Fundierte Erfahrung mit BigQuery und SQL für komplexe Datenmanipulation und -analyse
- Praktisches Know-how in der Entwicklung und Wartung von Datenpipelines (Erfahrung mit Airflow, Dataflow oder ähnlichen Tools)
- Gründliches Verständnis moderner Data-Warehouse-Architekturen (Data Vault, Kimball, Lakehouse)
- Erfahrung in der Entwicklung von Modellen zur Sessionisierung von Benutzerinteraktionen und Ereignissequenzen
- Kenntnisse in Python für Datenverarbeitung und Automatisierung
- Erfahrung mit GCP-Diensten wie Dataflow, Pub/Sub oder Dataproc
- Kenntnisse im Bereich Data Governance und Datenschutz
- Vertrautheit mit Schema-Evolution und Datenmodellierung für analytische Workloads
- Erfahrung mit dbt oder ähnlichen Tools für Datentransformation
- Praktische Erfahrung mit Event-Streaming-Plattformen wie Kafka
- In Englisch und Deutsch zu arbeiten fällt dir leicht
Responsibilities
- Du konzipierst und entwickelst robuste Datenpipelines zur Verarbeitung von Nutzerdaten aus Snowplow in BigQuery
- Du baust komplexe Datenmodelle zur Sessionisierung von Nutzerinteraktionen und transformierst Rohereignisse in aussagekräftige Nutzerreisen
- Du optimierst die Leistung unserer Dateninfrastruktur, um skalierbare Analysen zu ermöglichen
- Du entwickelst und pflegst Datenqualitätskontrollen und Monitoring-Tools, um die Integrität unserer Datenpipelines sicherzustellen
- Du arbeitest eng mit Analysten und Produktteams zusammen, um Datenmodelle zu erstellen, die geschäftliche Anforderungen erfüllen
- Du treibst die Evolution unserer Data-Warehouse-Architektur voran, um mit wachsenden Datenmengen und neuen Anforderungen Schritt zu halten
Benefits
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free