Skip to content
mimi

AI Engineer (m/w/d) Modelle für die Produktion, nicht für die Schublade

Expert Select GmbH

On-site Mid Level 2w ago

About the role

AI Engineer (m/w/d) – Modelle für die Produktion, nicht für die Schublade

Firma: Expert Select GmbH
Einsatzorte (mehrere möglich): Ludwigshafen, Koblenz, Wiesbaden, Mannheim, Offenbach, Hanau, Frankfurt, Darmstadt, Mainz, Rüsselsheim (alle DE)


1. Kurzbeschreibung (auf einen Blick)

Was wir bieten Was du machst
Ein Umfeld, das echtes Engineering statt endloser Reporting‑Meetings fördert. Du bist die Brücke zwischen Data‑Science‑Teams und produktiver IT‑Infrastruktur.
Modernes Tech‑Stack (Python, Docker, Kubernetes, MLOps‑Tools). Modellierung: Training & Optimierung skalierbarer ML‑Modelle (Vorhersage, Klassifikation, Optimierung).
Klare Anforderungen, keine Buzz‑Word‑Bingo‑Kultur. Data Engineering: Aufbau robuster, strukturierter Daten‑Pipelines für Big‑Data‑Workloads.
Unterstützung bei Code‑Reviews, Test‑Driven Development und Clean‑Code‑Prinzipien. Deployment & MLOps: Modell‑Übergabe aus der Sandbox in produktive Systeme (Docker‑Container, ggf. K8s).
Monitoring‑Framework für Model‑Drift, Metrik‑Auswertung und kontinuierliche Anpassung. Monitoring: Live‑Performance überwachen, Metriken auswerten, Algorithmen bei Bedarf anpassen.
Pendlerpauschale‑Rechner (https://expert-select.com/pendlerpauschale-rechner/) für transparente Reisekostenerstattung. Clean Code: Code‑Reviews, testbarer Code, langfristige Wartbarkeit sichern.

2. Aufgaben im Detail

Bereich Kernaufgaben
Modellierung • Entwicklung von prädiktiven, klassifizierenden und optimierenden ML‑Modellen, die reale betriebliche Probleme lösen.
• Hyper‑Parameter‑Tuning, Feature‑Engineering, Modell‑Interpretierbarkeit.
Data Engineering • Design & Implementierung von ETL‑/ELT‑Pipelines (Batch + Streaming).
• Umgang mit großen Datenmengen (z. B. Spark, Flink, Dask).
Deployment & MLOps • Containerisierung (Docker) und Orchestrierung (Kubernetes) von Modellen.
• CI/CD‑Pipelines für automatisiertes Testing, Build & Roll‑out (GitLab CI, GitHub Actions, ArgoCD).
Monitoring • Einrichtung von Monitoring‑Dashboards (Prometheus, Grafana, Evidently AI).
• Detecting & handling von Model‑Drift, Data‑Drift, Performance‑Degradation.
Clean Code & Collaboration • Code‑Reviews, Unit‑/Integration‑Tests, Linting (flake8, black, mypy).
• Dokumentation & Knowledge‑Transfer für Fach‑Stakeholder (ohne Mathe‑Jargon).

3. Qualifikationen (Muss‑Kriterien)

Technisch Soft Skills
Studium in Informatik, Mathematik, Data Science oder nachweisbare Praxis‑Erfahrung. Kommunikationsstärke: Fachbereiche verständlich über Modell‑Funktionsweise informieren.
Python (≥ 3.8) und gängige ML‑Frameworks (PyTorch, TensorFlow, Scikit‑Learn). Pragmatismus: Fokus auf die beste Lösung, nicht das „schönste Paper“.
SQL (PostgreSQL, MySQL, MS‑SQL) + Erfahrung mit relationalen & NoSQL‑Datenbanken (MongoDB, Cassandra, Redis). Team‑Player: Arbeiten in cross‑funktionalen Teams, offene Feedback‑Kultur.
MLOps: Git, Docker, Kubernetes, CI/CD‑Tools, Modell‑Registries (MLflow, DVC, Seldon). Selbstorganisation: Eigenständiges Priorisieren von Aufgaben, klare Dokumentation.
• Erfahrung mit Big‑Data‑Technologien (Spark, Flink, Dask) von Vorteil.
• Kenntnisse im Monitoring (Prometheus, Grafana, Evidently AI) sind ein Plus.

4. Wie du dich optimal präsentierst (Bewerbung‑Tipps)

Dokument Inhaltliche Schwerpunkte
Anschreiben • Warum du Produkt‑ML statt reiner Experimente bevorzugst.
• Konkretes Beispiel: Ein Modell, das du von Entwicklung → Produktion gebracht hast (Technologien, Skalierung, Business‑Impact).
• Hinweis auf deine Kommunikations‑Stärke (z. B. Workshops für Fachbereiche).
Lebenslauf Technologie‑Stack (Python, PyTorch, Docker, K8s, Spark, etc.) als eigene Zeile.
Projekte: Kurzbeschreibung, Datenvolumen, Deployment‑Methode, Monitoring‑Ansatz, erreichte KPI‑Verbesserungen.
Soft Skills: Stakeholder‑Management, Code‑Review‑Verantwortung, Agile‑Methoden (Scrum/Kanban).
Portfolio / GitHub • Repo mit end‑to‑end‑Pipeline (Daten‑Ingestion → Training → Docker‑Image → CI/CD).
• Unit‑Tests & Lint‑Konfiguration.
• README, das das Projekt für Nicht‑Tech‑Stakeholder erklärt.
Referenzen • Falls möglich, Business‑Owner‑Feedback zu einem produktiven Modell (z. B. „Reduzierung der Fehlerrate um 15 %“, „Kostenersparnis von 200 k€/Jahr“).

5. Interview‑Fragen, auf die du dich vorbereiten solltest

Themenbereich Mögliche Fragen
Modell‑zu‑Produktion • Beschreibe den kompletten Lebenszyklus eines Modells, das du in Produktion gebracht hast.
• Wie gehst du mit Model‑Drift um?
MLOps & CI/CD • Welche Tools nutzt du für automatisiertes Testing von ML‑Modellen?
• Wie würdest du ein Rollback eines fehlerhaften Modells implementieren?
Data Engineering • Wie würdest du ein Streaming‑Pipeline für 10 GB/Tag aufbauen?
• Welche Strategie wählst du für Feature‑Store‑Implementierung?
Clean Code • Was bedeutet für dich testbarer Code im Kontext von ML?
• Wie führst du Code‑Reviews in einem interdisziplinären Team?
Stakeholder‑Kommunikation • Wie erklärst du einem Fachbereich die Unsicherheit eines Modells ohne Mathe‑Formeln?
• Wie gehst du mit widersprüchlichen Anforderungen von Business und IT um?
Pragmatismus • Nenne ein Beispiel, bei dem du ein „einfacheres“ Modell gewählt hast, obwohl ein komplexeres Paper‑Modell besser gepasst hätte.

6. Nächste Schritte (wenn du dich bewerben willst)

  1. Unterlagen fertigstellen (Anschreiben, CV, ggf. Portfolio‑Link).
  2. Bewerbungsportal der Expert Select GmbH besuchen (oder die angegebene Kontakt‑E‑Mail nutzen).
  3. Pendlerpauschale‑Rechner prüfen, um deine Reisekosten transparent zu kalkulieren.
  4. Follow‑Up: Nach 7–10 Tagen höflich nach dem Stand deiner Bewerbung fragen.

7. Kurz‑Checkliste für deine Bewerbung

  • Anschreiben mit Fokus auf Produktion, MLOps & Business‑Impact.
  • Lebenslauf mit klarer Auflistung von Python, ML‑Frameworks, Docker/K8s, CI/CD, Big‑Data‑Tools.
  • GitHub‑Repo (oder ähnliches) mit einem End‑to‑End‑Projekt (Daten‑Pipeline → Modell → Container).
  • Referenz (optional) von einem Fachbereich, der von deinem Modell profitiert hat.
  • Bereitschaft für ein technisches Deep‑Dive‑Interview (Live‑Coding, System‑Design).

Viel Erfolg!
Wenn du noch Fragen hast – z. B. zu konkreten Interview‑Vorbereitungen, zum Feintuning deines Portfolios oder zu den nächsten Schritten im Bewerbungsprozess – melde dich gern. Ich helfe dir, deine Stärken optimal zu präsentieren.

Requirements

  • Abgeschlossenes Studium (Informatik, Mathematik, Data Science) oder nachweislich sehr gute Praxiserfahrung in der Entwicklung datengetriebener Systeme
  • Sehr gute Kenntnisse in Python und gängigen ML‑Frameworks (z. B. PyTorch, TensorFlow, Scikit‑Learn)
  • Fließende SQL‑Kenntnisse und Erfahrung mit relationalen/NoSQL‑Datenbanken
  • Erfahrung mit MLOps, Versionskontrolle (Git) und Containerisierung (Docker/Kubernetes)
  • Ausgeprägte Kommunikationsfähigkeit zur Erklärung von Modellen gegenüber Fach‑Stakeholdern
  • Pragmatischer Ansatz zur Lösung von Problemen

Responsibilities

  • Modellierung: Trainieren und Optimieren skalierbarer Machine‑Learning‑Modelle (Vorhersage, Klassifikation, Optimierung) zur Lösung betrieblicher Probleme
  • Data Engineering: Aufbau belastbarer, strukturierter Datenpipelines für die Aufbereitung großer Datenmengen (Big Data)
  • Deployment & MLOps: Integration von Modellen aus der Sandbox in bestehende Systemlandschaften via Container (z. B. Docker)
  • Monitoring: Überwachung der Performance von Live‑Modellen (Model‑Drift), Auswertung von Metriken und Anpassung von Algorithmen
  • Clean Code: Durchführung von Code‑Reviews, Schreiben testbaren Codes und Sicherstellung nachhaltiger Wartbarkeit

Benefits

Pendlerpauschale‑Rechner (https://expert-select.com/pendlerpauschale-rechner/)

Skills

PythonPyTorchTensorFlowScikit‑LearnSQLrelational databasesNoSQL databasesMLOpsGitDockerKubernetes

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free