Skip to content
mimi

Data Engineer (Snowflake) (m/w/d)

Coopers Group AG

Bern · On-site Mid Level 3w ago

About the role

Aufgaben

  • Entwicklung, Optimierung und Betrieb von Snowflake Data-Warehouse-Lösungen
  • Aufbau und Betreuung von ELT/ETL-Pipelines (dbt, Airflow, Snowpipe, Streams & Tasks)
  • Datenmodellierung (Star-Schema, Data Vault) inkl. Erstellung und Optimierung von Tabellen, Views & Schemas
  • Performance-Tuning (Clustering, Micro-Partitioning, Query-Optimierung, Warehouse-Sizing)
  • Erstellung und Wartung von Daten-Exports & Reports
  • Einrichtung von Datenqualitäts-Checks, Monitoring & Alerting
  • Integration von Snowflake mit externen Systemen (Cloud Storage, APIs, Streaming)
  • Fehleranalyse und Incident-Handling in Data Pipelines & Reports
  • Optimierung von Argo-/Kubernetes-Batchprozessen
  • Mitarbeit beim Aufbau von Infrastructure as Code (Terraform) und CI/CD
  • Dokumentation von Architektur und Datenflüssen sowie Know-how-Transfer
  • Unterstützung von Fachbereichen und Support bei technischen Fragestellungen

Profil

  • Abgeschlossenes Studium in Informatik, Data Engineering oder einem verwandten Bereich
  • Mindestens 3 Jahre Erfahrung als Snowflake-Entwickler:in in produktiven Projekten
  • Sehr gute Kenntnisse in Snowflake (Warehouses, Micro-Partitions, Time Travel, Cloning, Streams/Tasks, Security Features)
  • Starke SQL- und Python-Skills; weitere Skriptsprachen von Vorteil
  • Erfahrung mit ELT/ETL-Tools (dbt, Airflow, Snowpipe, Prefect)
  • Erfahrung mit Cloud-Storage (AWS S3, Azure Blob)
  • Kenntnisse in Terraform sowie CI/CD (Tekton oder Jenkins)
  • Erfahrung im Umgang mit REST-APIs und Fehleranalyse
  • Erfahrung in Kubernetes-/Container-Umgebungen (Argo Workflows)
  • Routiniert in Monitoring, Logging und Incident Handling
  • Eigenständig, strukturiert, proaktiv und zuverlässig
  • Sehr gute Deutsch- und Englischkenntnisse

Requirements

  • Mindestens 3 Jahre Erfahrung als Snowflake-Entwickler:in in produktiven Projekten
  • Sehr gute Kenntnisse in Snowflake (Warehouses, Micro-Partitions, Time Travel, Cloning, Streams/Tasks, Security Features)
  • Starke SQL- und Python-Skills; weitere Skriptsprachen von Vorteil
  • Erfahrung mit ELT/ETL-Tools (dbt, Airflow, Snowpipe, Prefect)
  • Erfahrung mit Cloud-Storage (AWS S3, Azure Blob)
  • Kenntnisse in Terraform sowie CI/CD (Tekton oder Jenkins)
  • Erfahrung im Umgang mit REST-APIs und Fehleranalyse
  • Erfahrung in Kubernetes-/Container-Umgebungen (Argo Workflows)
  • Routiniert in Monitoring, Logging und Incident Handling

Responsibilities

  • Entwicklung, Optimierung und Betrieb von Snowflake Data-Warehouse-Lösungen
  • Aufbau und Betreuung von ELT/ETL-Pipelines (dbt, Airflow, Snowpipe, Streams & Tasks)
  • Datenmodellierung (Star-Schema, Data Vault) inkl. Erstellung und Optimierung von Tabellen, Views & Schemas
  • Performance-Tuning (Clustering, Micro-Partitioning, Query-Optimierung, Warehouse-Sizing)
  • Erstellung und Wartung von Daten-Exports & Reports
  • Einrichtung von Datenqualitäts-Checks , Monitoring & Alerting
  • Integration von Snowflake mit externen Systemen (Cloud Storage, APIs, Streaming)
  • Fehleranalyse und Incident-Handling in Data Pipelines & Reports
  • Optimierung von Argo-/Kubernetes-Batchprozessen
  • Mitarbeit beim Aufbau von Infrastructure as Code (Terraform) und CI/CD
  • Dokumentation von Architektur und Datenflüssen sowie Know-how-Transfer
  • Unterstützung von Fachbereichen und Support bei technischen Fragestellungen

Skills

AirflowAPIsArgo WorkflowsAWS S3Azure BlobCI/CDCloud StorageData VaultdbtELTETLJenkinsKubernetesMonitoringPrefectPythonRESTSnowflakeSnowpipeSQLStar-SchemaTektonTerraformTime Travel

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free