Skip to content
mimi

Data Engineer / Scientist (m/w/d)

ROCKEN

Hybrid 6d ago

About the role

Zusammenfassung der Stellenanzeige (Deutsch → Englisch)

Bereich Details (Deutsch) Details (Englisch)
Unternehmen ROCKEN® – Spezialist für digitale Rekrutierung, arbeitet mit etablierten Unternehmen aus allen Branchen (national & international). ROCKEN® – Digital recruitment specialist, partners with established companies across all sectors (national & international).
Rolle Mitgestaltung einer modernen Datenplattform, Entwicklung robuster Datenpipelines für Geo‑, Sensor‑, Netz‑, Finanz‑ & Marktdaten in Azure. Kontinuierliche Verbesserung der Datenarchitektur, Etablierung von Standards & Best‑Practices für Geodaten. Enge Zusammenarbeit mit GIS‑ und Fach‑Teams. Co‑design a modern data platform, build resilient pipelines for geo, sensor, network, finance & market data on Azure. Continuously improve data architecture, set standards & best‑practices for geodata. Close collaboration with GIS & domain teams.
Standort Winterthur (Schweiz) – Home‑Office‑Option Winterthur (Switzerland) – Home‑office possible
Kontakt Marco Alvarado, +41 44 385 21 47 Marco Alvarado, +41 44 385 21 47
Qualifikationen • Studium Informatik, Geoinformatik, Statistik, Mathematik o.Ä.
• Sehr gute SQL‑Kenntnisse, Erfahrung mit mehrschichtigen Aufbereitungsprozessen (idealerweise dbt + PostgreSQL).
• Praxis mit Azure Data Lake Storage, Delta Lake, Azure Synapse / Microsoft Fabric.
• Datenmodellierung (Kimball), Git, CI/CD (Azure DevOps).
• Kommunikationsstark, selbstständig, hohe Lernbereitschaft.
• Deutsch C1, Englisch B2.
• Degree in Computer Science, Geoinformatics, Statistics, Mathematics or related.
• Strong SQL skills, experience with multi‑layer data transformation (ideally dbt + PostgreSQL).
• Hands‑on with Azure Data Lake Storage, Delta Lake, Azure Synapse / Microsoft Fabric.
• Data modeling (Kimball), Git, CI/CD (Azure DevOps).
• Clear communicator, independent, eager to learn.
• German C1, English B2.
Verantwortung • Datenmodellierung & Service‑orientierte Integration in Analyseplattform.
• Migration von Synapse zu Microsoft Fabric.
• Entwicklung & Betrieb von Pipelines (Zeitreihen & Geodaten).
• Aufbereitung & Versionierung von Daten/Features für Analytics & ML.
• Definition & Monitoring von Datenqualitätsmetriken, Pflege des Datenkatalogs, Dokumentation.
• Kontinuierliche Optimierung von Kosten & Performance in Azure.
• Model data, link structures & integrate service‑oriented into the analytics platform.
• Migrate & modernize Synapse architecture to Microsoft Fabric.
• Build & run robust pipelines (time‑series & geodata).
• Prepare & version datasets/features for analytics, ML & ad‑hoc analysis.
• Define & monitor data‑quality metrics, maintain data catalog, document clearly.
• Continuously improve cost & performance of Azure platform.
Benefits • Flexible Arbeitszeiten
• Home‑Office
• Vielfältige Projekte
• Internationales Umfeld
• Offene Unternehmenskultur
• Flexible working hours
• Home‑office
• Varied projects
• International environment
• Open corporate culture

Wie du dich optimal bewirbst

1. Anschreiben (Cover Letter) – Muster (Deutsch)

[Dein Name]
[Deine Adresse]
[PLZ Ort]
[E‑Mail] – [Telefon]

Winterthur, [Datum]

Herrn Marco Alvarado
ROCKEN®
Betreff: Bewerbung als Data Engineer / Scientist (m/w/d) – Ref. [falls angegeben]

Sehr geehrter Herr Alvarado,

mit grossem Interesse habe ich Ihre Ausschreibung für die Position Data Engineer / Scientist gelesen. Die Kombination aus modernem Cloud‑Data‑Engineering, Geodaten‑Verarbeitung und der Möglichkeit, die Datenarchitektur eines führenden Unternehmens in der Energiebranche aktiv mitzugestalten, entspricht exakt meinem beruflichen Fokus und meiner Leidenschaft für datengetriebene Innovationen.

Warum ich die ideale Besetzung bin

  • Fundierte technische Basis: Ich habe mein Studium in Geoinformatik an der ETH Zürich abgeschlossen und arbeite seit [Anzahl] Jahren als Data Engineer bei [aktueller Arbeitgeber], wo ich komplexe ETL‑Pipelines in Azure Synapse und Microsoft Fabric aufgebaut habe.
  • SQL & dbt‑Expertise: Täglich entwickle ich mehrschichtige Transformations‑Workflows mit SQL und dbt auf PostgreSQL, wodurch ich Datenmodelle nach dem Kimball‑Ansatz erstelle und versioniere.
  • Geodaten‑Kompetenz: In meinem letzten Projekt habe ich Zeitreihen‑ und Raster‑Geodaten aus Satelliten‑ und Sensor‑Feeds in Delta Lake integriert, Qualitätsmetriken definiert und den Datenkatalog in Azure Purview gepflegt.
  • CI/CD & DevOps: Ich setze Git, Azure DevOps und YAML‑Pipelines ein, um automatisierte Tests, Code‑Reviews und Deployments sicherzustellen – alles in einer Infrastructure‑as‑Code‑Umgebung.
  • Kommunikation & Team‑Fit: Durch regelmäßige Workshops mit GIS‑Analysten und Fachabteilungen habe ich gelernt, technische Sachverhalte verständlich zu vermitteln und gemeinsam datenbasierte Entscheidungen zu treffen.

Was ich bei ROCKEN® einbringen möchte
• Die Migration der bestehenden Synapse‑Architektur zu Microsoft Fabric planen und umsetzen, um Skalierbarkeit und Kostenoptimierung zu erreichen.
• Einen Data‑Lake‑House für Geo‑ und Zeitreihendaten etablieren, das sowohl Analysten als auch Data‑Science‑Teams mit konsistenten, versionierten Datasets versorgt.
• Datenqualitäts‑Frameworks (z. B. Great Expectations) einführen und den Datenkatalog kontinuierlich erweitern, um die Wiederverwendbarkeit von Features zu maximieren.

Ich bin überzeugt, dass meine technische Expertise, meine Erfahrung mit geospatiale Daten und meine proaktive Arbeitsweise einen direkten Mehrwert für Ihr Team schaffen. Sehr gern würde ich meine Ideen in einem persönlichen Gespräch vertiefen.

Vielen Dank für Ihre Zeit und die Berücksichtigung meiner Bewerbung.

Mit freundlichen Grüßen

[Dein Name]


2. Lebenslauf – Kernpunkte (Stichpunkte)

Abschnitt Inhalt (Kurz)
Persönliche Daten Name, Adresse, Telefon, E‑Mail, LinkedIn/GitHub
Berufsziel Data Engineer / Scientist – Fokus auf Azure‑Data‑Lake‑House & Geodaten
Berufserfahrung [Letzter Arbeitgeber] – Data Engineer (MM/JJJJ – heute)
• Azure Synapse → Microsoft Fabric Migration
• dbt‑Modelle (PostgreSQL) nach Kimball
• Delta Lake, ADLS, Azure Purview
• CI/CD mit Azure DevOps (YAML‑Pipelines)
[Vorheriger Arbeitgeber] – GIS‑Data Analyst (MM/JJJJ – MM/JJJJ)
• Verarbeitung von Sentinel‑2‑ und IoT‑Sensor‑Daten
• Zeitreihen‑Analyse in Python (pandas, dask)
Ausbildung MSc Geoinformatik – ETH Zürich (JJJJ)
BSc Informatik – Universität Zürich (JJJJ)
Technische Skills Cloud: Azure Data Lake, Synapse, Fabric, Purview
Datenbanken: PostgreSQL, Azure SQL, Delta Lake
ETL/ELT: dbt, Azure Data Factory, Spark
Programmiersprachen: SQL, Python (pandas, geopandas, pyspark)
DevOps: Git, Azure DevOps, CI/CD, Docker
Modellierung: Kimball, Star‑Schema, Data‑Vault
Sprachen Deutsch (C1), Englisch (B2)
Zertifikate Microsoft Certified: Azure Data Engineer Associate (DP‑203)
Certified Data Management Professional (CDMP) – Data Modeling
Projekte / Publikationen „Scalable Geospatial Time‑Series Processing on Azure“ – interne White‑Paper (2023)
Soft Skills Team‑player, analytisches Denken, hohe Lernbereitschaft, klare Kommunikation

3. Checkliste für die Online‑Bewerbung

To‑Do Erledigt?
📄 Anschreiben (maßgeschneidert) – PDF, max. 1 Seite
📄 Lebenslauf – PDF, max. 2 Seiten
📄 Zertifikate (Azure Data Engineer, ggf. Kimball‑Zertifikat) – PDF
📄 Arbeitsproben (z. B. Git‑Repo mit dbt‑Projekt, Azure‑Pipeline‑YAML) – Link
📧 E‑Mail an Marco Alvarado (Betreff klar, Anhang, kurze Einleitung)
📞 Telefonische Follow‑Up‑Erinnerung (nach 5–7 Tagen)
📅 Vorbereitung auf Interview:
• Azure Fabric‑Architektur
• Kimball‑Modellierung
• Datenqualitäts‑Frameworks (Great Expectations, Deequ)

4. Mögliche Interview‑Fragen & Stichantworten

Frage Kernantwort (Stichpunkte)
Wie gehen Sie bei einer Migration von Synapse zu Microsoft Fabric vor? 1. Analyse der bestehenden Synapse‑Objekte (SQL‑Pools, Spark‑Pools, Pipelines).
2. Mapping zu Fabric‑Komponenten (Lakehouse, Spark‑Pools, Pipelines).
3. Proof‑of‑Concept mit einem kleinen Dataset.
4. Automatisierte Migration via Azure‑CLI/PowerShell + Terraform.
5. Validierung (Datenintegrität, Performance, Kosten).
Erklären Sie den Unterschied zwischen einem Star‑Schema und einem Snowflake‑Schema. Star‑Schema: zentrale Fact‑Tabelle, flache Dimensionen → einfache Joins, hohe Performance.
Snowflake‑Schema: normalisierte Dimensionen → geringere Redundanz, komplexere Joins, kann bei sehr großen Dimensionen Speicher sparen.
Wie stellen Sie Datenqualität in einer Delta‑Lake‑Umgebung sicher? • Verwendung von Delta‑Table‑Constraints (NOT NULL, CHECK).
Great Expectations‑Checks (row‑count, null‑rate, domain‑checks) als Pre‑ und Post‑Processing‑Step.
Databricks‑Jobs für periodische Qualitäts‑Scans, Ergebnisse in Azure Monitor.
Wie integrieren Sie Geodaten (z. B. Shapefiles) in ein Data‑Lake‑House? 1. Ingestion via Azure Data Factory → ADLS (Parquet/Delta).
2. Nutzung von GeoPandas / Spark‑SQL‑ST für Spatial‑Transformationen.
3. Speicherung als Delta‑Lake mit WKT/WKB‑Spalten.
4. Indexierung (Z‑Order) für schnelle räumliche Abfragen.
Wie automatisieren Sie CI/CD für dbt‑Modelle? • Git‑Repository (Branch‑Strategie).
• Azure DevOps‑Pipeline:
dbt depsdbt seeddbt rundbt test.
• Artefakt‑Publish (compiled SQL) in Azure Artifacts.
• Pull‑Request‑Validierung + Manual‑Approval für Production‑Deploy.

Fazit

Die Position bei ROCKEN® bietet Ihnen die Möglichkeit, Ihre Azure‑Expertise, Geodaten‑Kenntnisse und Data‑Modeling‑Skills in einem zukunftsweisenden Umfeld der Energiebranche einzubringen. Mit einem gezielten Anschreiben, einem klar strukturierten Lebenslauf und vorbereiteten Praxisbeispielen (z. B. dbt‑Projekt, Azure‑Pipeline) erhöhen Sie Ihre Chancen erheblich.

Falls Sie weitere Unterstützung benötigen – z. B. Feinschliff des Anschreibens, Review des Lebenslaufs oder ein Mock‑Interview – lassen Sie es mich wissen! 🚀

Requirements

  • Du hast ein abgeschlossenes Studium in Informatik, Geoinformatik, Statistik, Mathematik oder einer vergleichbaren Fachrichtung.
  • Du verfügst über sehr gute SQL-Kenntnisse und Erfahrung in mehrschichtigen Datenaufbereitungsprozessen, idealerweise mit dbt auf PostgreSQL.
  • Du hast Praxis im Umgang mit Azure Data Lake Storage und Delta Lake im Umfeld von Azure Synapse bzw. Microsoft Fabric.
  • Du bist versiert in Datenmodellierung (z.B. nach Kimball), arbeitest sicher mit Git und kennst CI/CD-Pipelines, vorzugsweise in Azure DevOps.
  • Du kommunizierst komplexe technische Sachverhalte verständlich, arbeitest eigenständig im Team und zeichnest dich durch hohe Lernbereitschaft aus.
  • Du beherrschst Deutsch auf mindestens C1-Niveau und Englisch auf mindestens B2-Niveau.

Responsibilities

  • Du modellierst Daten, verknüpfst Datenstrukturen und integrierst sie serviceorientiert in die bestehende Analyseplattform
  • In dieser Rolle migrierst und modernisierst du die bestehende Synapse-Architektur hin zu Microsoft Fabric
  • Du entwickelst und betreibst robuste Datenpipelines für alle Fachbereiche, inklusive der Verarbeitung von Zeitreihen und Geodaten
  • In dieser Rolle bereitest du Daten und Features für Analytics-, Machine-Learning-Use-Cases und Ad-hoc-Analysen auf und versionierst entsprechende Datensets
  • Du definierst und überwachst Datenqualitätsmetriken, pflegst den Datenkatalog und sorgst für eine verständliche Dokumentation
  • Als Fachkraft für Datenarchitektur und -pipelines entwickelst du die Datenplattform kontinuierlich weiter und optimierst Kosten und Performance in Azure

Benefits

Flexible ArbeitszeitgestaltungHomeofficeInteressante und abwechslungsreiche Tätigkeiten/ProjekteInternationales UmfeldOffene Unternehmenskultur

Skills

AzureAzure DevOpsAzure Data Lake StorageAzure SynapseCI/CDDelta LakeGitMicrosoft FabricPostgreSQLSQLdbt

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free