Data Engineer (DWH & Data Pipelines) (m/w/d)
ROCKEN
About the role
About
ROCKEN® ist in der digitalen Rekrutierung von Talenten und Experten spezialisiert und zählt alle etablierten Unternehmen aus jeglichen Branchen zu den Partnern. Diese sind national sowie international tätig und bieten dem zukünftigen Talent eine spannende Herausforderung. Mit dem Anspruch, die besten Talente zu rekrutieren, beraten wir unsere Partner für eine langhaltige und spannende Karriereplanung mit ihren Mitarbeitern.
Role
Du liebst es, aus komplexen Daten klare Erkenntnisse zu schaffen und moderne Datenlandschaften aktiv mitzugestalten. In dieser Rolle übernimmst du die Konzeption, den Aufbau und den Betrieb von Data Warehouses, Data Lakes und skalierbaren Datenplattformen. Du verantwortest stabile, leistungsfähige Datenpipelines, die verlässliche Insights für datenbasierte Entscheidungen ermöglichen. Dabei gestaltest du den Wandel hin zu einer ereignisgesteuerten, streamingbasierten Architektur massgeblich mit und bringst deine Erfahrung als Data Engineer gezielt ein. Mit deinem professionellen Anspruch trägst du dazu bei, moderne Datenarchitekturen kontinuierlich weiterzuentwickeln und zukunftsfähig auszurichten.
Qualifications
- Studium in Informatik, Wirtschaftsinformatik oder vergleichbarer Fachrichtung
- Mehrjährige Berufspraxis im Umfeld Datenbanken oder Datenplattformen
- Hervorragende Kenntnisse in SQL sowie Erfahrung in der Optimierung von Abfragen
- Fundiertes Wissen in Datenbankdesign, Modellierung und Normalisierungsprinzipien
- Erfahrung im Bereich Data Warehousing (z. B. dimensionale Modelle, Fakten und Dimensionen, Historisierung)
- Kenntnisse in Streaming-Technologien oder Event-Processing-Tools von Vorteil
- Hoher Qualitätsanspruch, strukturierte Vorgehensweise und analytisches Denkvermögen
- Teamfähigkeit sowie Offenheit gegenüber neuen Technologien
- Sehr gute Deutschkenntnisse und fliessendes Englisch
Responsibilities
- Weiterentwicklung, Betrieb und Pflege bestehender Datenplattformen (Warehouse und Lake)
- Konzeption, Strukturierung und Dokumentation von Datenbankschemata für analytische und operative Zwecke
- Erstellung sowie Performance-Tuning von Abfragen zur Datenauswertung und Verarbeitung
- Aufbau und Betreuung stabiler Datenintegrationsprozesse inklusive Pipeline-Management
- Mitgestaltung einer modernen Architektur basierend auf Echtzeitverarbeitung und Event-Streams
- Anbindung und Verarbeitung von ereignisbasierten Datenquellen (z. B. CDC, Kafka, Flink SQL)
- Sicherstellung von Datenintegrität, Verfügbarkeit und Systemeffizienz
- Enge Abstimmung mit Spezialisten aus Engineering, Analyse, Architektur und Fachbereichen
Benefits
- Beteiligung an gesundheitlichen Massnahmen
- Attraktive Leistungen bei Krankheit oder Unfall
- Kantine, Essenszulagen und Vergünstigungen
- Flexible Arbeitszeitgestaltung
- Zahlreiche Mitarbeiterevents
- Überdurchschnittliche Ferien- und Freitage
- Beteiligung oder Übernahme ÖV-Abonnements
- Komfortables Büro mit moderner Infrastruktur
- Offene Unternehmenskultur
Location
Zürich
Contact
Gaël Altmann,
+41443852183
Requirements
- Studium in Informatik, Wirtschaftsinformatik oder vergleichbarer Fachrichtung
- Mehrjährige Berufspraxis im Umfeld Datenbanken oder Datenplattformen
- Hervorragende Kenntnisse in SQL sowie Erfahrung in der Optimierung von Abfragen
- Fundiertes Wissen in Datenbankdesign, Modellierung und Normalisierungsprinzipien
- Erfahrung im Bereich Data Warehousing (z. B. dimensionale Modelle, Fakten und Dimensionen, Historisierung)
- Kenntnisse in Streaming-Technologien oder Event-Processing-Tools von Vorteil
- Hoher Qualitätsanspruch, strukturierte Vorgehensweise und analytisches Denkvermögen
- Teamfähigkeit sowie Offenheit gegenüber neuen Technologien
- Sehr gute Deutschkenntnisse und fliessendes Englisch
Responsibilities
- Weiterentwicklung, Betrieb und Pflege bestehender Datenplattformen (Warehouse und Lake)
- Konzeption, Strukturierung und Dokumentation von Datenbankschemata für analytische und operative Zwecke
- Erstellung sowie Performance-Tuning von Abfragen zur Datenauswertung und Verarbeitung
- Aufbau und Betreuung stabiler Datenintegrationsprozesse inklusive Pipeline-Management
- Mitgestaltung einer modernen Architektur basierend auf Echtzeitverarbeitung und Event-Streams
- Anbindung und Verarbeitung von ereignisbasierten Datenquellen (z. B. CDC, Kafka, Flink SQL)
- Sicherstellung von Datenintegrität, Verfügbarkeit und Systemeffizienz
- Enge Abstimmung mit Spezialisten aus Engineering, Analyse, Architektur und Fachbereichen
Benefits
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free