Skip to content
mimi

Data Engineer – GenAI Platform Integration (m/w/d)

Reply Group

Gütersloh · Hybrid Today

About the role

Kurzfassung der Stelle

Titel: Data Engineer – GenAI Platform Integration (m/w/d)
Unternehmen: Data Reply (Teil der Reply‑Gruppe)
Standort: Hybrid (Remote + Office + Kundeneinsatz) – deutschlandweit

Aufgaben Was wird erwartet?
Daten‑Integration Unternehmensdaten sicher in Generative‑AI‑ und AI‑Plattformen (Azure OpenAI, AWS SageMaker, Vertex AI) einbinden.
Analyse & Architektur Datenquellen prüfen, Datenarchitekturen für konkrete AI‑Use‑Cases konzipieren.
Pipeline‑Entwicklung Skalierbare ETL/ELT‑Pipelines & Transformations‑Workloads für ML‑ und GenAI‑Modelle bauen.
Compliance Datenschutz (DSGVO), IT‑Security und sichere Datenverarbeitung gewährleisten.
Monitoring & Observability Konzepte für Monitoring, Logging & Alerting von AI‑Workloads etablieren.
Team‑Collaboration Enge Abstimmung mit internen und externen Daten‑/Backend‑Teams, Qualitätssicherung.
Dokumentation & Übergabe Lösungen dokumentieren, Wissen für den operativen Betrieb transferieren.

Benefits (Was Sie bei Data Reply erwartet)

Benefit Beschreibung
Buddy‑Programm Persönlicher Mentor unterstützt beim Onboarding und sorgt für einen lockeren Einstieg.
Hybrides Arbeiten Flexible Kombination aus Home‑Office, Büro‑ und Kundeneinsatz.
Innovation & Vielfalt Projekte in verschiedensten Branchen (branchenübergreifend, deutschlandweit).
Best‑Employer‑Auszeichnungen Mehrfach ausgezeichnetes Arbeitgeber‑Image innerhalb des Reply‑Netzwerks.
Modernes Arbeitsumfeld Top‑Hardware nach Wahl, flache Hierarchien, internationale & familiäre Atmosphäre.

Qualifikationen (Was Sie mitbringen sollten)

Anforderung Details
Studium Informatik, Engineering, Data Science o. Ä. (abgeschlossen).
Berufserfahrung 2‑5 Jahre in Data Engineering, MLOps oder AI‑Plattformen.
Programmiersprachen Sehr gute Python‑Kenntnisse; Erfahrung mit PyTorch/TensorFlow von Vorteil.
Daten‑Engineering ETL/ELT, Datenmodellierung, Pipeline‑Tools (Airflow, Prefect, Dagster, etc.).
Cloud‑Kompetenz Praxis mit Azure, AWS oder Google Cloud (IAM, Storage, Serverless, etc.).
AI‑Services Integration von LLMs/GenAI‑Services (Azure OpenAI, SageMaker, Vertex AI).
Sprachen Fließend Deutsch + Englisch (schriftlich & mündlich).
Soft Skills Kunden‑ und Stakeholder‑Kommunikation, Team‑player, proaktive Problemlösung.

Tipps für Ihre Bewerbung

  1. Anschreiben personalisieren

    • Beginnen Sie mit einer kurzen, prägnanten Motivation, warum Sie gerade bei Data Reply im GenAI‑Umfeld arbeiten wollen.
    • Verknüpfen Sie konkrete Projekte aus Ihrem Lebenslauf mit den genannten Aufgaben (z. B. „Entwicklung einer skalierbaren Datenpipeline für LLM‑Fine‑Tuning auf Azure OpenAI“).
  2. Lebenslauf fokussieren

    • Technische Skills: Python, Airflow/Prefect, Cloud‑Services (z. B. Azure Data Factory, AWS Glue), MLOps‑Tools (Kubeflow, MLflow).
    • Projekte: Beschreiben Sie 2‑3 relevante Projekte (Problem, Lösung, Ergebnis, eingesetzte Technologien).
    • Compliance: Erwähnen Sie Erfahrung mit DSGVO‑konformen Datenprozessen, wenn vorhanden.
  3. Portfolio / GitHub

    • Zeigen Sie Code‑Beispiele von ETL‑Pipelines, CI/CD‑Setups für ML‑Modelle oder Demo‑Notebooks, die GenAI‑Integrationen demonstrieren.
  4. Soft‑Skills betonen

    • Kundenkontakt, interdisziplinäre Zusammenarbeit, Dokumentation und Wissenstransfer – alles Schlüsselkompetenzen für die Rolle.
  5. Sprachkenntnisse

    • Geben Sie das Niveau (C1/C2) für Deutsch und Englisch an; ggf. Zertifikate beifügen.
  6. Referenzen

    • Falls möglich, kurze Statements von ehemaligen Vorgesetzten oder Kunden, die Ihre Arbeit an AI‑ und Data‑Projekten bestätigen.

Beispiel‑Anschreiben (Deutsch)

[Ihr Name]
[Adresse] – [Telefon] – [E‑Mail] – [LinkedIn / GitHub]

Data Reply – Recruiting Team
[Adresse des Unternehmens]

Betreff: Bewerbung als Data Engineer – GenAI Platform Integration (m/w/d)

Sehr geehrte Damen und Herren,

mit großer Begeisterung habe ich Ihre Stellenausschreibung für die Position Data Engineer – GenAI Platform Integration gelesen. Als leidenschaftlicher Data Engineer mit über 3 Jahren Erfahrung in der Konzeption und dem Betrieb skalierbarer Datenpipelines auf Azure und AWS, sowie in der Integration von Large Language Models (z. B. Azure OpenAI), sehe ich mich als idealen Kandidaten, um Ihre Kunden bei der Realisierung zukunftsweisender AI‑Use‑Cases zu unterstützen.

Relevante Highlights meiner bisherigen Tätigkeit:

  • End‑to‑End‑Pipeline für ein Finanz‑Kundenprojekt entwickelt: Daten aus SAP, Snowflake und Kafka wurden mittels Azure Data Factory und Databricks transformiert, in ein Azure OpenAI‑Fine‑Tuning‑Workflow eingespeist und anschließend über Azure Functions als API bereitgestellt. Die Lösung reduzierte die Datenvorbereitungszeit um 70 % und erfüllte sämtliche DSGVO‑Anforderungen.
  • MLOps‑Framework auf Kubernetes (Kubeflow + MLflow) aufgebaut, das automatisierte Modell‑Training, -Validierung und -Deployment für mehrere Kunden ermöglichte. Monitoring erfolgte über Prometheus/Grafana und Azure Monitor.
  • Enge Zusammenarbeit mit Business‑Stakeholdern und externen Partnern, um Datenqualitäts‑ und Governance‑Richtlinien zu definieren und in Data Catalog‑Lösungen zu integrieren.

Meine starken Python‑Kenntnisse, Erfahrung mit PyTorch/TensorFlow, sowie fundiertes Wissen zu ETL/ELT‑Tools (Airflow, Prefect) und Cloud‑Security (IAM, VNet‑Isolation, Verschlüsselung) ermöglichen mir, komplexe AI‑Workloads sicher und performant zu betreiben. Darüber hinaus spreche ich fließend Deutsch und Englisch, was mir die Kommunikation mit internationalen Kunden und internen Teams erleichtert.

Die Möglichkeit, bei Data Reply in einem hybriden Umfeld an branchenübergreifenden Projekten zu arbeiten und dabei von einem Buddy‑Programm sowie modernster Hardware zu profitieren, motiviert mich besonders. Ich bin überzeugt, dass ich mit meiner Expertise und meiner proaktiven Arbeitsweise einen wertvollen Beitrag zu Ihrem Team leisten kann.

Ich freue mich darauf, Sie in einem persönlichen Gespräch von meiner Eignung zu überzeugen und mehr über die konkreten AI‑Use‑Cases Ihrer Kunden zu erfahren.

Mit freundlichen Grüßen

[Ihr Name]


Nächste Schritte

  1. Anschreiben & Lebenslauf finalisieren (nach obigen Tipps).
  2. Portfolio‑Links (GitHub, Notebooks) prüfen – alles sollte aktuell und gut dokumentiert sein.
  3. Bewerbung über das Unternehmens‑Portal oder per E‑Mail an die angegebene Kontaktadresse senden.
  4. Follow‑Up: Nach ca. 10 Tagen höflich nach dem Stand der Bewerbung fragen.

Viel Erfolg bei Ihrer Bewerbung – Data Reply sucht genau Fachkräfte wie Sie, die Daten und Generative AI zu einem echten Business‑Wert verbinden! 🚀

Requirements

  • Idealerweise bereits 2-5 Jahre praktische Erfahrung in Data Engineering, MLOps oder AI-Plattformen
  • Gute Python-Kenntnisse und Routine im Umgang mit Datenverarbeitung oder ML-Frameworks wie PyTorch oder TensorFlow
  • Know-how zu Datenpipelines, ETL/ELT-Prozessen und Datenmodellierung
  • Praxiserprobter Umgang mit Cloud-Plattformen wie Azure, AWS oder Google Cloud
  • Vertrautheit mit AI-Services und der Integration von Large Language Models
  • Kommunikationsstärke im Umgang mit Kunden und Stakeholdern, sowohl in fließendem Deutsch als auch auf Englisch

Responsibilities

  • Integration von Unternehmensdaten in moderne Generative-AI- und AI-Plattformen
  • Analyse von Datenquellen sowie Konzeption von Datenarchitekturen für reale AI-Use-Cases bei unseren Kund:innen
  • Entwicklung skalierbarer Datenpipelines und Transformationen für ML- und GenAI-Workloads
  • Integration von GenAI-Services (z. B. Azure OpenAI, AWS SageMaker, Vertex AI) in Datenplattformen
  • Sicherstellung von Datenschutz, Compliance und sicherer Datenverarbeitung (z. B. DSGVO)
  • Aufbau von Monitoring- und Observability-Konzepten für AI-Workloads
  • Zusammenarbeit mit internen sowie externen Daten- und Backend-Teams zur Sicherstellung von Datenqualität und Integration bei unseren Kund:innen
  • Dokumentation der Lösungen und Unterstützung beim Übergang in den operativen Betrieb

Benefits

Buddy ProgramHybrides ArbeitenInnovation & VielfaltMehrfach "Best Employer" im Reply-Netzwerkmoderner Arbeitsplatz mit super Hardware (nach Wahl)internationale und familiäre Arbeitsumgebung mit flachen Hierarchien und starkem Zusammenhalt

Skills

AWS SageMakerAzure OpenAIData EngineeringETLGoogle CloudLarge Language ModelsMLOpsPythonPyTorchTensorFlowVertex AI

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free