Data Engineer – Schwerpunkt Programmierung & Datenpipelines
Jobriver HR Service
About the role
About
Das Unternehmen sucht einen engagierten Data Engineer mit einem klaren Schwerpunkt auf Programmierung und Datenverarbeitung. In dieser Rolle sind Sie dafür verantwortlich, Daten effizient zum Fließen zu bringen und leistungsstarke Datenpipelines zu entwickeln. Sie arbeiten in einem dynamischen Consulting‑Umfeld und entwickeln maßgeschneiderte Datenlösungen für verschiedene Kunden. Zu Ihren Aufgaben gehört die Entwicklung skalierbarer ETL/ELT‑Datenpipelines für Batch‑ und Streaming‑Verarbeitung, wobei Sie Technologien wie Spark, PySpark, Python und SQL einsetzen. Sie implementieren Datenmodelle nach den Prinzipien von Kimball, Data Vault oder Lakehouse und transformieren sowie normalisieren Daten aus unterschiedlichen Quellsystemen. Zudem orchestrieren Sie Datenpipelines mit Tools wie Airflow und arbeiten mit Plattformen wie Databricks oder Snowflake. Ihre Rolle umfasst auch die Unterstützung von Datenanalyse‑ und Machine‑Learning‑Pipelines, wobei Sie durch Testing, Dokumentation und CI/CD für die Qualität der Lösungen sorgen. Das Arbeitsumfeld ist kreativ und dynamisch, und Sie haben die Möglichkeit, aktiv zur Weiterentwicklung des Data‑Bereichs beizutragen.
Requirements
- Mehrjährige Berufserfahrung in den Bereichen Datenverarbeitung und Programmierung
- Sehr gute SQL‑Kenntnisse
- Fundierte Kenntnisse in Spark und PySpark
- Sicherer Umgang mit Python
- Erfahrung mit dbt und Orchestrierungstools wie Airflow
- Kenntnisse in der Datenmodellierung (dimensionale Modellierung, Data Vault, Normalisierung und Denormalisierung) von Vorteil
- Analytisches Denken und Fähigkeit, komplexe Datenprobleme effizient zu lösen
- Selbstorganisiertes Arbeiten und Überblick über mehrere Kundenprojekte behalten
- Freude an Consulting und wechselnden Projekten
- Offene und konstruktive Kommunikation sowie die Fähigkeit, Feedback zu schätzen
Technologies
- Python
Soft Skills
- Teamfähigkeit
- Kommunikation
- Analytisches Denken
Required Languages
- Deutsch
- Englisch
Requirements
- Mehrjährige Berufserfahrung in den Bereichen Datenverarbeitung und Programmierung
- Sehr gute SQL-Kenntnisse
- Fundierte Kenntnisse in Spark und PySpark
- Sicherer Umgang mit Python
- Erfahrung mit dbt und Orchestrierungstools wie Airflow
- Kenntnisse in der Datenmodellierung, insbesondere in dimensionaler Modellierung, Data Vault sowie Normalisierung und Denormalisierung
- Analytisches Denkvermögen zur effizienten Lösung komplexer Datenprobleme
- Selbstorganisiertes Arbeiten und die Fähigkeit, den Überblick in mehreren Kundenprojekten zu behalten
- Freude an Consulting und wechselnden Projekten
- Offene und konstruktive Kommunikation
- Fähigkeit, Feedback zu schätzen
Responsibilities
- Entwicklung skalierbarer ETL/ELT-Datenpipelines für Batch- und Streaming-Verarbeitung
- Implementierung von Datenmodellen nach den Prinzipien von Kimball, Data Vault oder Lakehouse
- Transformation und Normalisierung von Daten aus unterschiedlichen Quellsystemen
- Orchestrierung von Datenpipelines mit Tools wie Airflow
- Unterstützung von Datenanalyse- und Machine-Learning-Pipelines
- Sicherstellung der Qualität der Lösungen durch Testing, Dokumentation und CI/CD
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free