Skip to content
mimi

Senior Data Engineer (Cloud & Analytics Platform) (m/w/d)

Coopers Group AG

Bern · On-site 3w ago

About the role

Aufgaben

  • Sicherstellen eines stabilen Betriebs unserer Anwendungen – ohne Pikettdienst
  • Entwurf, Aufbau und Weiterentwicklung datenzentrierter Anwendungen, ETL-/ELT‑Pipelines und Datenprodukte auf unserer Analytics‑Plattform
  • Planung und Durchführung von Releases und Deployments sowie Integration in die bestehende Plattformlandschaft
  • Enge Zusammenarbeit mit Data Engineers, Data Scientists, Software Engineers und Fachbereichen zur Umsetzung einer ganzheitlichen, konsolidierten Datensicht
  • Automatisierung von Betriebsabläufen und Softwaretests
  • Erstellung und Pflege von technischer Software‑Dokumentation

Profil

  • Mehrjährige praktische Erfahrung im Design, Aufbau, der Entwicklung und dem Betrieb cloudbasierter Datenplattformen
  • Fundiertes Know‑how moderner Data‑Stack‑Konzepte und -Werkzeuge (ETL/ELT, Data Warehousing, Streaming, Orchestrierung), z. B. Snowflake, dbt, dltHub, Helm, Argo Workflows, Kafka
  • Ausgezeichnete SQL‑Skills sowie Erfahrung in Datenmodellierung (Star/Snowflake, dimensionales Modellieren) und Performance‑Optimierung
  • Sehr gute Software‑Engineering‑Fähigkeiten in Python : produktionsreifer Code, Tests, CI/CD, Code‑Reviews, Git, Packaging & Deployment
  • Fähigkeit, skalierbare und kosteneffiziente Datenarchitekturen zu entwerfen sowie Trade-offs (Latenz, Konsistenz, Kosten) fundiert zu beurteilen
  • Selbständige, lösungsorientierte Arbeitsweise mit hohem Qualitätsanspruch und Verlässlichkeit
  • Fliessende Deutsch- und Englischkenntnisse zwingend

Requirements

  • Mehrjährige praktische Erfahrung im Design, Aufbau, der Entwicklung und dem Betrieb cloudbasierter Datenplattformen
  • Fundiertes Know‑how moderner Data‑Stack‑Konzepte und -Werkzeuge (ETL/ELT, Data Warehousing, Streaming, Orchestrierung), z. B. Snowflake, dbt, dltHub, Helm, Argo Workflows, Kafka
  • Ausgezeichnete SQL‑Skills sowie Erfahrung in Datenmodellierung (Star/Snowflake, dimensionales Modellieren) und Performance‑Optimierung
  • Sehr gute Software‑Engineering‑Fähigkeiten in Python : produktionsreifer Code, Tests, CI/CD, Code‑Reviews, Git, Packaging & Deployment
  • Fähigkeit, skalierbare und kosteneffiziente Datenarchitekturen zu entwerfen sowie Trade-offs (Latenz, Konsistenz, Kosten) fundiert zu beurteilen
  • Selbständige, lösungsorientierte Arbeitsweise mit hohem Qualitätsanspruch und Verlässlichkeit
  • Fliessende Deutsch- und Englischkenntnisse zwingend

Responsibilities

  • Sicherstellen eines stabilen Betriebs unserer Anwendungen – ohne Pikettdienst
  • Entwurf, Aufbau und Weiterentwicklung datenzentrierter Anwendungen, ETL-/ELT‑Pipelines und Datenprodukte auf unserer Analytics‑Plattform
  • Planung und Durchführung von Releases und Deployments sowie Integration in die bestehende Plattformlandschaft
  • Enge Zusammenarbeit mit Data Engineers, Data Scientists, Software Engineers und Fachbereichen zur Umsetzung einer ganzheitlichen, konsolidierten Datensicht
  • Automatisierung von Betriebsabläufen und Softwaretests
  • Erstellung und Pflege von technischer Software‑Dokumentation

Skills

Argo WorkflowsCI/CDdbtdltHubDockerETLGitHelmKafkaPythonSQLSnowflakeStreaming

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free