Senior Consultant Cloud Data Engineering / Databricks (m/w/d) in Hannover
Deloitte
About the role
About Deloitte
Deloitte bietet führende Prüfungs- und Beratungsleistungen in Audit & Assurance, Tax & Legal, Consulting und Advisory – für nahezu 90 % der Fortune Global 500® und zahlreiche private Unternehmen. Wir liefern innovative Denkansätze, lösen komplexe Herausforderungen und fördern nachhaltiges Wachstum. Mit rund 470.000 Mitarbeitenden weltweit eröffnen wir hervorragende Karrierechancen – getragen von einem starken „Wir“ und einer Vielfalt an Perspektiven und Fähigkeiten.
Position
Senior Consultant Data Engineering / Databricks (m/w/d)
Bereich: Consulting – Artificial Intelligence and Data
Standorte: Berlin, Düsseldorf, Frankfurt (Main), Hamburg, Hannover, Köln, München und Stuttgart.
Dein Impact
- Als Senior Consultant Data Engineering (m/w/d) mit Schwerpunkt Databricks befasst du dich mit der Entwicklung und Optimierung von Datenpipelines und Datenarchitekturen zur effizienten Analyse und Verarbeitung großer Datenmengen.
- Konzeption: Du konzeptionierst Datenplattformen mit Databricks sowie die zugrunde liegende Cloud-Infrastruktur zur Umsetzung skalierbarer ETL-Pipelines für Batch- und Streaming-Verarbeitung.
- Implementierung: Im Rahmen der Einführung und kontinuierlichen Optimierung trägst du mit deiner Expertise zur Umsetzung von Databricks‑basierten Datenplattformen bei.
- Beratung: Entwickle zukunftsorientierte Data & AI Engineering Lösungen durch den Einsatz innovativster Technologien, welche unseren Kunden dabei helfen, Daten als Basis für Geschäftserfolge zu nutzen!
- Zusammenarbeit: In Kollaboration mit funktionsübergreifenden Expert:innenteams verstehst du Geschäftsanforderungen und bist in der Lage, diese gemeinsam in technische Lösungen umzusetzen.
- Mitgestaltung: Du trägst aktiv zur Entwicklung von Best Practices bei, um das Service Portfolio stetig zu optimieren und sicherst den internen Wissenstransfer in der Anleitung juniorer Kolleg:innen.
Dein Skillset
- Mehrjährige Berufserfahrung mit Schwerpunkt auf der Konzeption, Entwicklung oder Optimierung von Lakehouse‑Datenplattformen in der Cloud auf Basis von Databricks
- Abschluss eines Studiums in (Wirtschafts‑)Informatik, (Wirtschafts‑)Ingenieurwesen, Wirtschaftswissenschaften mit Informatikbezug oder vergleichbaren Studiengängen
- Praktische Erfahrung im Umgang mit Databricks, insbesondere mit zentralen Komponenten wie Delta Lake, Unity Catalog, Workflows, Databricks SQL und Notebooks.
- Programmierkenntnisse in Python, Java oder Scala sowie Expertise im Umgang mit SQL und der Verarbeitung von Daten mit Apache Spark
- Reisebereitschaft sowie Deutsch (C1) und Englisch sehr gut in Wort und Schrift
Deine Chance (Benefits)
- Best-in-class Weiterbildung an der Deloitte University sowie im Rahmen individueller Qualifikationsangebote und Trainings
- Umfassende Entwicklungschancen durch strukturierte Karriereplanung, Inclusive Leadership, Entsendungsprogramme, projektbasierte Job‑Rotation sowie Förderung sozialen Engagements und Corporate Volunteering
- Vereinbarkeit von Beruf & Familie dank Mobile Working & Teilzeit, Sabbaticals und Familienservice, z. B. zur Unterstützung für pflegende Angehörige, Elternzeit‑Beratung und vielem mehr
- Gesundheit & Fitness im Fokus durch regelmäßige Gesundheitstage, Kooperationen mit Fitness‑Anbietern und die Unterstützung von Sport‑ und Teamevents
- Attraktive Arbeitgeberleistungen inklusive Bike‑ und Pkw‑Leasing, Firmen‑Smartphone zur privaten Nutzung sowie flexiblen Arbeitsmodellen wie z. B. Vertrauensarbeitszeit und EU Remote Working
- Vielfältige Gestaltungsspielräume und aktive Förderung einer inklusiven Unternehmenskultur – u. a. durch unsere Diversity & Inclusion Mitarbeiter:innen‑Netzwerke
Bewerbung
Bist du bereit? Mach mit uns den Unterschied!
Unser Recruiting‑Team freut sich auf deine Bewerbungsunterlagen über unser Online‑Formular. Ein Anschreiben und ein Bewerbungsfoto sind bei uns nicht erforderlich.
Gleiche Chancen für alle: Wir freuen uns über Bewerbungen von Menschen, die so vielfältig sind wie wir – unabhängig von Alter, Behinderung, ethnischer Herkunft und Nationalität, Geschlecht, Religion, sexueller Orientierung oder sozialer Herkunft.
Noch Fragen? Alle Infos zu unserem Bewerbungsprozess findest du in unseren Bewerbungs‑FAQs.
Kontakt
Talent Acquisition Team – Aleksandra, Anja, Julia, Lea, Lisa, Silja und ihre Teams unterstützen dich gerne bei allen Fragen rund um deine Karriere bei Deloitte.
- E‑Mail: career@deloitte.de
- Telefon: +49 211 87724111
Job‑ID: 48265
Requirements
- Mehrjährige Berufserfahrung mit Schwerpunkt auf der Konzeption, Entwicklung oder Optimierung von Lakehouse-Datenplattformen in der Cloud auf Basis von Databricks
- Praktische Erfahrung im Umgang mit Databricks, insbesondere mit zentralen Komponenten wie Delta Lake, Unity Catalog, Workflows, Databricks SQL und Notebooks.
- Programmierkenntnisse in Python, Java oder Scala sowie Expertise im Umgang mit SQL und der Verarbeitung von Daten mit Apache Spark
- Reisebereitschaft sowie Deutsch (C1) und Englisch sehr gut in Wort und Schrift
Responsibilities
- Konzeption von Datenplattformen mit Databricks sowie die zugrunde liegende Cloud-Infrastruktur zur Umsetzung skalierbarer ETL-Pipelines für Batch- und Streaming-Verarbeitung.
- Umsetzung von Databricks-basierten Datenplattformen im Rahmen der Einführung und kontinuierlichen Optimierung.
- Entwicklung zukunftsorientierter Data & AI Engineering Lösungen durch den Einsatz innovativster Technologien, welche unseren Kunden dabei helfen, Daten als Basis für Geschäftserfolge zu nutzen!
- Umsetzung von Geschäftsanforderungen in technische Lösungen in Kollaboration mit funktionsübergreifenden Expert:innenteams.
- Aktive Entwicklung von Best Practices zur stetigen Optimierung des Service Portfolios und Sicherung des internen Wissenstransfers in der Anleitung juniorer Kolleg:innen.
Benefits
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free