Skip to content
mimi

Senior Backend Engineer für Künstliche Intelligenz (LLMs & AI Agents)

Jobriver HR Service

Hybrid Full-time Senior €52k – €72k/yr Yesterday

About the role

Bewerbung als Senior Backend Engineer – Künstliche Intelligenz (LLMs & AI Agents)
Standort: München (Hybrid)


Sehr geehrtes Recruiting‑Team,

mit großer Begeisterung habe ich Ihre Stellenausschreibung für die Position Senior Backend Engineer – AI‑Native Applications gelesen. Als erfahrener Backend‑Entwickler mit einem ausgeprägten Fokus auf Large Language Models, Retrieval‑Augmented Generation (RAG) und KI‑Agenten‑Workflows sehe ich in Ihrer Vision, KI‑Funktionen in produktive, marktreife Lösungen zu überführen, die ideale Herausforderung, um meine Expertise gezielt einzubringen und gemeinsam mit Ihrem Team innovative Produkte zu realisieren.


Warum ich die ideale Besetzung bin

Anforderung Meine Erfahrung & Erfolge
Node.js / TypeScript / Nest.js 6 Jahre Entwicklung von skalierbaren Micro‑Service‑Architekturen (NestJS, Express) auf Node.js/TS. Verantwortlich für die Migration eines monolithischen Zahlungssystems zu einer event‑getriebenen, serverless‑basierten Plattform (AWS Lambda, GCP Cloud Run).
Python 5 Jahre Python‑Entwicklung (FastAPI, Flask, Celery). Implementierung von Daten‑Pipeline‑Orchestrierung (Airflow) und KI‑Inference‑Services (PyTorch, TensorFlow).
Google Cloud Platform Design & Betrieb von GCP‑Centric Infrastrukturen (Compute Engine, Cloud Run, Cloud Functions, Pub/Sub, Cloud SQL, BigQuery). Optimierung von Latenz & Kosten – z. B. Reduktion der Inferenz‑Kosten um 30 % durch Spot‑VM‑Nutzung und automatisiertes Autoscaling.
LLM‑Integration & KI‑APIs Aufbau von Produktions‑Pipelines für OpenAI‑GPT‑4, Anthropic‑Claude und LLaMA‑Modelle. Entwicklung einer Prompt‑Orchestrierungsschicht, die kontextabhängige Prompt‑Templates dynamisch kombiniert und A/B‑Tests für Prompt‑Varianten automatisiert.
KI‑Agenten & mehrstufige Workflows Konzeption und Implementierung eines „Customer‑Support‑Agenten“ (Node.js + LangChain) mit Tool‑Integration (CRM‑API, Wissensdatenbank, Ticket‑System). Der Agent reduzierte die durchschnittliche Bearbeitungszeit um 45 % und erhöhte die Kundenzufriedenheit um 22 %.
Vektor‑Datenbanken (Pinecone / Weaviate) Aufbau einer RAG‑Pipeline für ein internes Wissensmanagement‑Tool: Dokumente werden in Echtzeit in Pinecone indiziert, semantische Suche liefert Top‑k‑Ergebnisse, die anschließend in Prompt‑Templates eingebettet werden. Latenz < 50 ms, Skalierbarkeit bis 10 M Vektoren.
RAG, Prompt Engineering & Kontext‑Management Implementierung einer hybriden Retrieval‑Strategie (BM25 + Vektor‑Suche) kombiniert mit dynamischem Kontext‑Window‑Management, das Kosten pro Anfrage um 18 % senkt, ohne Qualitätsverlust.
Produktions‑Bereitstellung & CI/CD End‑to‑End‑Pipelines (GitHub Actions, Terraform, Docker, Helm) für kontinuierliche Bereitstellung auf GKE. Monitoring & Alerting mit Prometheus/Grafana und SLO‑basiertem Incident‑Management.
Soft Skills Hohe Eigenverantwortung – leitete ein 4‑köpfiges Remote‑Team, das innerhalb von 6 Monaten ein MVP für ein KI‑gestütztes Dokumenten‑Analyse‑Tool lieferte. Team‑ und Kommunikationsfähigkeit – regelmäßige Knowledge‑Sharing‑Sessions, Code‑Reviews und Mentoring von Junior‑Entwicklern. Problemlösungsfähigkeit – schnelle Fehlersuche in verteilten Systemen (Tracing mit OpenTelemetry).
Sprachen Deutsch (Muttersprache), Englisch (fließend, Business‑Level).

Was ich für Ihr Unternehmen erreichen möchte

  1. Robuste, skalierbare Backend‑Architekturen für Ihre LLM‑basierten Produkte, die sowohl Latenz‑ als auch Kostenziele konsequent einhalten.
  2. End‑to‑End‑RAG‑Pipelines mit automatisierter Prompt‑Optimierung, um die Qualität der KI‑Ausgaben kontinuierlich zu steigern.
  3. Modulare KI‑Agenten‑Frameworks, die sich leicht um neue Tools und Datenquellen erweitern lassen – ideal für ein schnell wachsendes Startup.
  4. Kosten‑ und Performance‑Monitoring auf System‑ und Model‑Ebene, um fundierte Entscheidungen über Modell‑Updates, Hardware‑Skalierung und Optimierungen zu treffen.

Kurzprofil (Auszug)

Name Max Mustermann
E‑Mail max.mustermann@email.com
Telefon +49 170 1234567
LinkedIn linkedin.com/in/maxmustermann
GitHub github.com/maxmustermann
Wohnort München, Deutschland
Verfügbarkeit Sofort (oder nach 4‑Wochen‑Kündigungsfrist)
Gehaltsvorstellung 68 000 € – 72 000 € p.a. (brutto)

Berufserfahrung (Auswahl)

  • Senior Backend Engineer – AI Platform (2021 – heute) – AI‑Startup, Berlin

    • Aufbau einer serverless LLM‑Inference‑Plattform (GCP Cloud Run, Pub/Sub).
    • Entwicklung einer RAG‑Pipeline mit Pinecone, Reduktion der durchschnittlichen Antwortzeit von 300 ms auf 45 ms.
    • Leitung eines 4‑köpfigen Remote‑Teams, Einführung von OKR‑basiertem Projektmanagement.
  • Lead Engineer – Data & AI Services (2018 – 2021) – FinTech‑Unternehmen, München

    • Migration von monolithischen Java‑Services zu einer TypeScript‑Micro‑Service‑Architektur (NestJS).
    • Implementierung von KI‑gestützten Betrugserkennungs‑Workflows (LLM‑Prompt‑Engineering, Vektor‑Suche).
  • Software Engineer – Cloud Infrastructure (2015 – 2018) – Consulting‑Firma, Hamburg

    • Design & Deployment von GCP‑basierten Data‑Lake‑Lösungen (BigQuery, Dataflow).

Ausbildung

  • M.Sc. Informatik, Technische Universität München (2015) – Schwerpunkt: Machine Learning & Distributed Systems
  • B.Sc. Informatik, LMU München (2013)

Fazit

Ich bin überzeugt, dass meine Kombination aus tiefgreifender Backend‑Expertise, praktischer Erfahrung mit LLM‑ und RAG‑Technologien sowie meiner ausgeprägten Eigenverantwortung perfekt zu den Anforderungen Ihrer Position passt. Gerne würde ich in einem persönlichen Gespräch mehr darüber erfahren, wie ich Ihr Team dabei unterstützen kann, KI‑Funktionen erfolgreich in marktreife Produkte zu überführen.

Ich freue mich auf Ihre Rückmeldung!

Mit freundlichen Grüßen

Max Mustermann


Anlagen: Lebenslauf, Projekt‑Portfolio, Referenzen (auf Anfrage).

Requirements

  • Umfangreiche Erfahrung in der Backend-Entwicklung
  • Tiefgehende Kenntnisse im Umgang mit großen Sprachmodellen (LLMs) und KI-APIs
  • Erfahrung in der Entwicklung von KI-Agenten oder mehrstufigen Workflows
  • Kenntnisse in der Nutzung von Vektor-Datenbanken wie Pinecone oder Weaviate
  • Erfahrung in der Implementierung von RAG, Prompt Engineering und Systemdesign
  • Ausgeprägte Eigenverantwortung
  • Schnell arbeiten und bereit sein, das Extra zu geben, um innovative Lösungen zu entwickeln

Responsibilities

  • Design und Aufbau von Backend-Systemen, die durch große Sprachmodelle (LLMs) betrieben werden
  • Entwicklung von Agenten-Workflows und Tool-Integrationen
  • Erstellung von RAG-Pipelines mit Vektorsuche
  • Übernahme der Prompt-Orchestrierung und des Kontextmanagements
  • Optimierung der Leistung, Latenz und Kosten
  • Implementierung von KI-Funktionen in Produktionsprodukte

Skills

GCPLLMsNode.jsPineconePythonRAGTypeScriptWeaviate

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free