Skip to content
mimi

Data Engineer (DWH & Data Pipelines) (m/w/d)

ROCKEN

On-site 4d ago

About the role

About

ROCKEN® ist in der digitalen Rekrutierung von Talenten und Experten spezialisiert und zählt alle etablierten Unternehmen aus jeglichen Branchen zu den Partnern. Diese sind national sowie international tätig und bieten dem zukünftigen Talent eine spannende Herausforderung. Mit dem Anspruch, die besten Talente zu rekrutieren, beraten wir unsere Partner für eine langhaltige und spannende Karriereplanung mit ihren Mitarbeitern.

Role

Du liebst es, aus komplexen Daten klare Erkenntnisse zu schaffen und moderne Datenlandschaften aktiv mitzugestalten. In dieser Rolle übernimmst du die Konzeption, den Aufbau und den Betrieb von Data Warehouses, Data Lakes und skalierbaren Datenplattformen. Du verantwortest stabile, leistungsfähige Datenpipelines, die verlässliche Insights für datenbasierte Entscheidungen ermöglichen. Dabei gestaltest du den Wandel hin zu einer ereignisgesteuerten, streamingbasierten Architektur massgeblich mit und bringst deine Erfahrung als Data Engineer gezielt ein. Mit deinem professionellen Anspruch trägst du dazu bei, moderne Datenarchitekturen kontinuierlich weiterzuentwickeln und zukunftsfähig auszurichten.

Qualifications

  • Studium in Informatik, Wirtschaftsinformatik oder vergleichbarer Fachrichtung
  • Mehrjährige Berufspraxis im Umfeld Datenbanken oder Datenplattformen
  • Hervorragende Kenntnisse in SQL sowie Erfahrung in der Optimierung von Abfragen
  • Fundiertes Wissen in Datenbankdesign, Modellierung und Normalisierungsprinzipien
  • Erfahrung im Bereich Data Warehousing (z. B. dimensionale Modelle, Fakten und Dimensionen, Historisierung)
  • Kenntnisse in Streaming-Technologien oder Event-Processing-Tools von Vorteil
  • Hoher Qualitätsanspruch, strukturierte Vorgehensweise und analytisches Denkvermögen
  • Teamfähigkeit sowie Offenheit gegenüber neuen Technologien
  • Sehr gute Deutschkenntnisse und fliessendes Englisch

Responsibilities

  • Weiterentwicklung, Betrieb und Pflege bestehender Datenplattformen (Warehouse und Lake)
  • Konzeption, Strukturierung und Dokumentation von Datenbankschemata für analytische und operative Zwecke
  • Erstellung sowie Performance-Tuning von Abfragen zur Datenauswertung und Verarbeitung
  • Aufbau und Betreuung stabiler Datenintegrationsprozesse inklusive Pipeline-Management
  • Mitgestaltung einer modernen Architektur basierend auf Echtzeitverarbeitung und Event-Streams
  • Anbindung und Verarbeitung von ereignisbasierten Datenquellen (z. B. CDC, Kafka, Flink SQL)
  • Sicherstellung von Datenintegrität, Verfügbarkeit und Systemeffizienz
  • Enge Abstimmung mit Spezialisten aus Engineering, Analyse, Architektur und Fachbereichen

Benefits

  • Beteiligung an gesundheitlichen Massnahmen
  • Attraktive Leistungen bei Krankheit oder Unfall
  • Kantine, Essenszulagen und Vergünstigungen
  • Flexible Arbeitszeitgestaltung
  • Zahlreiche Mitarbeiterevents
  • Überdurchschnittliche Ferien- und Freitage
  • Beteiligung oder Übernahme ÖV-Abonnements
  • Komfortables Büro mit moderner Infrastruktur
  • Offene Unternehmenskultur

Location

Zürich

Contact

Gaël Altmann,
+41443852183

Requirements

  • Studium in Informatik, Wirtschaftsinformatik oder vergleichbarer Fachrichtung
  • Mehrjährige Berufspraxis im Umfeld Datenbanken oder Datenplattformen
  • Hervorragende Kenntnisse in SQL sowie Erfahrung in der Optimierung von Abfragen
  • Fundiertes Wissen in Datenbankdesign, Modellierung und Normalisierungsprinzipien
  • Erfahrung im Bereich Data Warehousing (z. B. dimensionale Modelle, Fakten und Dimensionen, Historisierung)
  • Kenntnisse in Streaming-Technologien oder Event-Processing-Tools von Vorteil
  • Hoher Qualitätsanspruch, strukturierte Vorgehensweise und analytisches Denkvermögen
  • Teamfähigkeit sowie Offenheit gegenüber neuen Technologien
  • Sehr gute Deutschkenntnisse und fliessendes Englisch

Responsibilities

  • Weiterentwicklung, Betrieb und Pflege bestehender Datenplattformen (Warehouse und Lake)
  • Konzeption, Strukturierung und Dokumentation von Datenbankschemata für analytische und operative Zwecke
  • Erstellung sowie Performance-Tuning von Abfragen zur Datenauswertung und Verarbeitung
  • Aufbau und Betreuung stabiler Datenintegrationsprozesse inklusive Pipeline-Management
  • Mitgestaltung einer modernen Architektur basierend auf Echtzeitverarbeitung und Event-Streams
  • Anbindung und Verarbeitung von ereignisbasierten Datenquellen (z. B. CDC, Kafka, Flink SQL)
  • Sicherstellung von Datenintegrität, Verfügbarkeit und Systemeffizienz
  • Enge Abstimmung mit Spezialisten aus Engineering, Analyse, Architektur und Fachbereichen

Benefits

health measures participationattractive benefits for illness or accidentcanteenmeal allowancesdiscountsflexible working hoursemployee eventsabove-average vacation and days offpublic transport subscription participation or coveragecomfortable office with modern infrastructureopen company culture

Skills

CDCFlink SQLKafkaSQL

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free