RG
DATA ENGINEER (M/W/D) AZURE
Reply Group
Berlin · Hybrid 1w ago
About the role
About
When Data Calls, We Reply!
Data Reply unterstützt als Teil der Reply Gruppe Kunden darin, datengetrieben zu arbeiten. Data Reply ist in verschiedenen Branchen und Geschäftsbereichen tätig und arbeitet intensiv mit Kunden zusammen, damit diese durch die effektive Nutzung von Daten aussagekräftige Ergebnisse erzielen können. Hierfür konzentriert sich Data Reply auf die Entwicklung von Data-Analytics-Plattformen, Machine-Learning-Lösungen und Streaming-Anwendungen – automatisiert, effizient und skalierbar – ohne Abstriche in der IT-Security zu machen.
Responsibilities
- Du entwickelst und betreibst performante, skalierbare Datenpipelines (ETL/ELT) und bringst große Datenmengen souverän in Form
- Bestehende SQL-basierte Logiken werden von dir modernisiert und Schritt für Schritt in zukunftsfähige Data-Lake-Architekturen überführt
- Komplexe Stored Procedures analysierst du, verstehst die dahinterliegende Datenlogik und sorgst durch gezieltes Refactoring für wartbaren Code
- Beim Design und der Umsetzung moderner Data-Lake- und Cloud-Datenarchitekturen bringst du deine Ideen aktiv ein
- Die Modellierung und Weiterentwicklung von Datenstrukturen – vom Data Warehouse bis zu transaktionalen Modellen – gehört ebenso zu deinem Alltag
- Innovative Lösungen auf Basis der Azure Data Platform setzt du praxisnah um und entwickelst sie kontinuierlich weiter
- In agilen Scrum-Teams arbeitest du eng mit anderen Engineers zusammen und hast echten Einfluss auf technische Entscheidungen
Requirements
Das bringst du idealerweise mit:
- Ein erfolgreich abgeschlossenes Studium der Informatik, des Ingenieurwesens, der Data Science oder eine vergleichbare Qualifikation
- Sehr gute Kenntnisse in Python und SQL, idealerweise mit Fokus auf MS SQL Server
- Erfahrung im Aufbau und in der Optimierung von Datenpipelines (ETL/ELT) sowie bei der Migration von Legacy-Systemen in moderne Data-Lake-Architekturen
- Praxis im Umgang mit Databricks, Delta Lake, PySpark und der Azure Data Platform (z. B. Data Factory, Data Lake)
- Ein solides Verständnis von Datenmodellierung – sowohl im Data-Warehouse-Umfeld als auch bei transaktionalen Modellen
- Gute Software-Engineering-Skills, inklusive Versionsverwaltung mit Git, Arbeiten mit Azure DevOps und sauberem Code-Refactoring
- Sehr gute Deutsch- und Englischkenntnisse, mit denen du dich sicher im Team und im Projektalltag bewegst
Benefits
- 10 Tage zur Weiterbildung
- Gute Work-Life-Balance
- Flache Hierarchien
- Innovatives Umfeld
- Buddy Program: Dein Buddy wird dir bei der Eingewöhnung und Integration in das Team helfen und dich mit lustigen Aktivitäten begrüßen
- Hybrides Arbeiten: Ein individueller Mix aus remote working, Zeit im Office oder bei Kunden und Kundinnen vor Ort
- Innovation & Vielfalt: Deutschlandweite, branchenübergreifende Projekte
- Mehrfach "Best Employer" im Reply-Netzwerk
- Immer up to date: Wir bieten dir einen modernen Arbeitsplatz mit super Hardware (nach Wahl) und eine internationale und familiäre Arbeitsumgebung mit flachen Hierarchien und starkem Zusammenhalt
Requirements
- Ein erfolgreich abgeschlossenes Studium der Informatik, des Ingenieurwesens, der Data Science oder eine vergleichbare Qualifikation
- Sehr gute Kenntnisse in Python und SQL, idealerweise mit Fokus auf MS SQL Server
- Erfahrung im Aufbau und in der Optimierung von Datenpipelines (ETL/ELT) sowie bei der Migration von Legacy-Systemen in moderne Data-Lake-Architekturen
- Praxis im Umgang mit Databricks, Delta Lake, PySpark und der Azure Data Platform (z. B. Data Factory, Data Lake)
- Ein solides Verständnis von Datenmodellierung – sowohl im Data-Warehouse-Umfeld als auch bei transaktionalen Modellen
- Gute Software-Engineering-Skills, inklusive Versionsverwaltung mit Git, Arbeiten mit Azure DevOps und sauberem Code-Refactoring
- Sehr gute Deutsch- und Englischkenntnisse, mit denen du dich sicher im Team und im Projektalltag bewegst
Responsibilities
- Du entwickelst und betreibst performante, skalierbare Datenpipelines (ETL/ELT) und bringst große Datenmengen souverän in Form
- Bestehende SQL-basierte Logiken werden von dir modernisiert und Schritt für Schritt in zukunftsfähige Data-Lake-Architekturen überführt
- Komplexe Stored Procedures analysierst du, verstehst die dahinterliegende Datenlogik und sorgst durch gezieltes Refactoring für wartbaren Code
- Beim Design und der Umsetzung moderner Data-Lake- und Cloud-Datenarchitekturen bringst du deine Ideen aktiv ein
- Die Modellierung und Weiterentwicklung von Datenstrukturen – vom Data Warehouse bis zu transaktionalen Modellen – gehört ebenso zu deinem Alltag
- Innovative Lösungen auf Basis der Azure Data Platform setzt du praxisnah um und entwickelst sie kontinuierlich weiter
- In agilen Scrum-Teams arbeitest du eng mit anderen Engineers zusammen und hast echten Einfluss auf technische Entscheidungen
Benefits
WeiterbildungWork-Life-BalanceFlache HierarchienInnovatives UmfeldBuddy ProgramHybrides ArbeitenModerne ArbeitsplatzSuper HardwareInternationale ArbeitsumgebungFamiliäre ArbeitsumgebungStarker Zusammenhalt
Skills
Azure Data PlatformAzure DevOpsDatabricksDelta LakeGitMS SQL ServerPythonPySparkSQL
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free