Skip to content
mimi

Data Engineer (all genders)

adesso Schweiz AG

Zürich · Hybrid 4d ago

About the role

About

adesso steht für IT-Exzellenz und damit auch für exzellente Entwicklungsmöglichkeiten für alle adessi. Wir wachsen gemeinsam und lernen voneinander – an unseren Projekten, im Team und mit herausragenden Trainingsangeboten. Wir haben IT im Herzen, die Branche im Blick und den Erfolg unserer Kunden im Sinn. Denn erfolgreiches Geschäft entsteht durch innovative Ideen, zukunftsfähige Strategien und kluge IT-Lösungen. Immer sind dabei Menschen beteiligt, die etwas bewegen wollen und das einfach machen. Wir gestalten und bauen Software, die unsere Kunden begeistert. In Projekten, die uns fordern. Und das in einem Umfeld, das uns Spass macht, in der Erfolg gemeinsam entsteht und sich alle wohlfühlen

Responsibilities

  • Du konzipierst und entwickelst skalierbare Datenstrecken entlang der gesamten Pipeline – von der Anbindung unterschiedlichster Quellen bis zur Bereitstellung für analytische und operative Use Cases
  • Du nutzt Tools wie dbt, Airflow, Dagster, Fivetran oder Matillion, um hocheffiziente ELT/ETL-Prozesse auf führenden Cloud-Datenplattformen (z.B. Snowflake, Databricks oder Microsoft Fabric) zu implementieren
  • Du begleitest unsere Kunden bei der Wahl der richtigen Architektur – ob Data Lakehouse, Data Mesh oder klassisches Cloud-DWH
  • Du setzt auf Containerisierung (Docker/Kubernetes) und automatisierte CI/CD-Pipelines, um Analytics-Plattformen stabil und wartbar zu machen
  • Neben der Projekttätigkeit gestaltest Du mit uns die Community als Speaker, Autor und Socializer. Zudem bist Du massgeblich bei der Definition unseres Dienstleistungsportfolios beteiligt, d.h. Kreation unserer Lösungsbausteine und Weiterentwicklung der Data Driven Company

Requirements

  • Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Statistik, Mathematik oder einem anderen analytischen Fach
  • Du verfügst über fundierte Erfahrung mit mindestens einer grossen Cloud-Datenplattform (idealerweise Snowflake, Databricks oder MS Fabric) und beherrschst SQL sowie Python auf hohem Niveau
  • Du hast Erfahrung mit dbt oder einem anderen modernen Datenprozessierungs-Tool. Ausserdem hast du bereits mit einen Datenintegrationstool wie Fivetran gearbeitet
  • Du besitzt bereits Zertifizierungen (z.B. SnowPro Core, Databricks Certified Data Engineer, Cloud-Provider-Zertifikate) oder hast die Ambition, diese mit unserer Unterstützung zu erlangen
  • Sehr gute Deutsch- und gute Englischkenntnisse; Französisch von Vorteil

Benefits

  • Unser Versprechen: Du wirst dich bei uns wohlfühlen! Kollegial, gemeinschaftlich und auf Augenhöhe – wir leben Austausch, Teamgeist und einen respektvollen Umgang miteinander. Diversität und verschiedene Blickwinkel werden bei uns genauso geschätzt wie du als Mensch. Das und viel mehr steht für unser ganz besonderes Wir-Gefühl. Für das es sogar ein Wort gibt: adessi
  • Mit über 400 Trainingsangeboten und unserer digitalen Lernplattform unterstützen wir deine kontinuierliche Weiterentwicklung
  • Gemeinsame Events (z.B. Sport-Weekend und die jährliche Fortbildungsreise eduCamp), Welcome Days, Firmenläufe stärken unseren Zusammenhalt und lassen dich von Anfang an Teil des Teams sein
  • Dein Einsatz zahlt sich aus – mit Prämien für Empfehlungen, Vorträge, die Betreuung von Abschlussarbeiten sowie attraktiven Vergünstigungen über unser Corporate-Benefits-Portal

Culture

Unsere Kultur und das Zusammenarbeiten sind geprägt von gegenseitiger Wertschätzung, Anerkennung und Unterstützung. Das verbindet uns – auch im Home-Office. Arbeiten in Teilzeit ist nach Absprache möglich (80-100%). Zum wiederholten Mal wurden wir zu einem der besten Arbeitgeber der Schweiz gekürt! Unser umfangreiches Trainingsangebot und ein transparentes Laufbahnstufenmodell für alle sorgen dafür, dass deine Entwicklung bei uns nicht stillsteht. Denn gemeinsam zu wachsen und Chancengeber zu sein, das ist programmiert in unserer DNA.

Requirements

  • Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Statistik, Mathematik oder einem anderen analytischen Fach
  • Du verfügst über fundierte Erfahrung mit mindestens einer grossen Cloud-Datenplattform (idealerweise Snowflake, Databricks oder MS Fabric) und beherrschst SQL sowie Python auf hohem Niveau
  • Du hast Erfahrung mit dbt oder einem anderen modernen Datenprozessierungs-Tool.
  • Ausserdem hast du bereits mit einen Datenintegrationstool wie Fivetran gearbeitet
  • Du besitzt bereits Zertifizierungen (z.B. SnowPro Core, Databricks Certified Data Engineer, Cloud-Provider-Zertifikate) oder hast die Ambition, diese mit unserer Unterstützung zu erlangen
  • Sehr gute Deutsch- und gute Englischkenntnisse; Französisch von Vorteil

Responsibilities

  • Du konzipierst und entwickelst skalierbare Datenstrecken entlang der gesamten Pipeline – von der Anbindung unterschiedlichster Quellen bis zur Bereitstellung für analytische und operative Use Cases
  • Du nutzt Tools wie dbt, Airflow, Dagster, Fivetran oder Matillion, um hocheffiziente ELT/ETL-Prozesse auf führenden Cloud-Datenplattformen (z.B. Snowflake, Databricks oder Microsoft Fabric) zu implementieren
  • Du begleitest unsere Kunden bei der Wahl der richtigen Architektur – ob Data Lakehouse, Data Mesh oder klassisches Cloud-DWH
  • Du setzt auf Containerisierung (Docker/Kubernetes) und automatisierte CI/CD-Pipelines, um Analytics-Plattformen stabil und wartbar zu machen
  • Neben der Projekttätigkeit gestaltest Du mit uns die Community als Speaker, Autor und Socializer.
  • Zudem bist Du massgeblich bei der Definition unseres Dienstleistungsportfolios beteiligt, d.h. Kreation unserer Lösungsbausteine und Weiterentwicklung der Data Driven Company

Benefits

Prämien für EmpfehlungenPrämien für VorträgePrämien für die Betreuung von Abschlussarbeitenattraktiven Vergünstigungen über unser Corporate-Benefits-PortalTrainingsangebotedigitale LernplattformGemeinsame EventsWelcome DaysFirmenläufe

Skills

AirflowDatabricksData LakehouseData MeshData WarehouseDagsterDockerdbtELTETLFivetranKubernetesMatillionMicrosoft FabricPythonSQLSnowflake

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free