Senior Backend Engineer für Künstliche Intelligenz (LLMs & AI Agents)
Jobriver HR Service
About the role
Bewerbung als Senior Backend Engineer – Künstliche Intelligenz (LLMs & AI Agents)
Standort: München (Hybrid)
Sehr geehrtes Recruiting‑Team,
mit großer Begeisterung habe ich Ihre Stellenausschreibung für die Position Senior Backend Engineer – AI‑Native Applications gelesen. Als erfahrener Backend‑Entwickler mit einem ausgeprägten Fokus auf Large Language Models, Retrieval‑Augmented Generation (RAG) und KI‑Agenten‑Workflows sehe ich in Ihrer Vision, KI‑Funktionen in produktive, marktreife Lösungen zu überführen, die ideale Herausforderung, um meine Expertise gezielt einzubringen und gemeinsam mit Ihrem Team innovative Produkte zu realisieren.
Warum ich die ideale Besetzung bin
| Anforderung | Meine Erfahrung & Erfolge |
|---|---|
| Node.js / TypeScript / Nest.js | 6 Jahre Entwicklung von skalierbaren Micro‑Service‑Architekturen (NestJS, Express) auf Node.js/TS. Verantwortlich für die Migration eines monolithischen Zahlungssystems zu einer event‑getriebenen, serverless‑basierten Plattform (AWS Lambda, GCP Cloud Run). |
| Python | 5 Jahre Python‑Entwicklung (FastAPI, Flask, Celery). Implementierung von Daten‑Pipeline‑Orchestrierung (Airflow) und KI‑Inference‑Services (PyTorch, TensorFlow). |
| Google Cloud Platform | Design & Betrieb von GCP‑Centric Infrastrukturen (Compute Engine, Cloud Run, Cloud Functions, Pub/Sub, Cloud SQL, BigQuery). Optimierung von Latenz & Kosten – z. B. Reduktion der Inferenz‑Kosten um 30 % durch Spot‑VM‑Nutzung und automatisiertes Autoscaling. |
| LLM‑Integration & KI‑APIs | Aufbau von Produktions‑Pipelines für OpenAI‑GPT‑4, Anthropic‑Claude und LLaMA‑Modelle. Entwicklung einer Prompt‑Orchestrierungsschicht, die kontextabhängige Prompt‑Templates dynamisch kombiniert und A/B‑Tests für Prompt‑Varianten automatisiert. |
| KI‑Agenten & mehrstufige Workflows | Konzeption und Implementierung eines „Customer‑Support‑Agenten“ (Node.js + LangChain) mit Tool‑Integration (CRM‑API, Wissensdatenbank, Ticket‑System). Der Agent reduzierte die durchschnittliche Bearbeitungszeit um 45 % und erhöhte die Kundenzufriedenheit um 22 %. |
| Vektor‑Datenbanken (Pinecone / Weaviate) | Aufbau einer RAG‑Pipeline für ein internes Wissensmanagement‑Tool: Dokumente werden in Echtzeit in Pinecone indiziert, semantische Suche liefert Top‑k‑Ergebnisse, die anschließend in Prompt‑Templates eingebettet werden. Latenz < 50 ms, Skalierbarkeit bis 10 M Vektoren. |
| RAG, Prompt Engineering & Kontext‑Management | Implementierung einer hybriden Retrieval‑Strategie (BM25 + Vektor‑Suche) kombiniert mit dynamischem Kontext‑Window‑Management, das Kosten pro Anfrage um 18 % senkt, ohne Qualitätsverlust. |
| Produktions‑Bereitstellung & CI/CD | End‑to‑End‑Pipelines (GitHub Actions, Terraform, Docker, Helm) für kontinuierliche Bereitstellung auf GKE. Monitoring & Alerting mit Prometheus/Grafana und SLO‑basiertem Incident‑Management. |
| Soft Skills | Hohe Eigenverantwortung – leitete ein 4‑köpfiges Remote‑Team, das innerhalb von 6 Monaten ein MVP für ein KI‑gestütztes Dokumenten‑Analyse‑Tool lieferte. Team‑ und Kommunikationsfähigkeit – regelmäßige Knowledge‑Sharing‑Sessions, Code‑Reviews und Mentoring von Junior‑Entwicklern. Problemlösungsfähigkeit – schnelle Fehlersuche in verteilten Systemen (Tracing mit OpenTelemetry). |
| Sprachen | Deutsch (Muttersprache), Englisch (fließend, Business‑Level). |
Was ich für Ihr Unternehmen erreichen möchte
- Robuste, skalierbare Backend‑Architekturen für Ihre LLM‑basierten Produkte, die sowohl Latenz‑ als auch Kostenziele konsequent einhalten.
- End‑to‑End‑RAG‑Pipelines mit automatisierter Prompt‑Optimierung, um die Qualität der KI‑Ausgaben kontinuierlich zu steigern.
- Modulare KI‑Agenten‑Frameworks, die sich leicht um neue Tools und Datenquellen erweitern lassen – ideal für ein schnell wachsendes Startup.
- Kosten‑ und Performance‑Monitoring auf System‑ und Model‑Ebene, um fundierte Entscheidungen über Modell‑Updates, Hardware‑Skalierung und Optimierungen zu treffen.
Kurzprofil (Auszug)
| Name | Max Mustermann |
|---|---|
| E‑Mail | max.mustermann@email.com |
| Telefon | +49 170 1234567 |
| linkedin.com/in/maxmustermann | |
| GitHub | github.com/maxmustermann |
| Wohnort | München, Deutschland |
| Verfügbarkeit | Sofort (oder nach 4‑Wochen‑Kündigungsfrist) |
| Gehaltsvorstellung | 68 000 € – 72 000 € p.a. (brutto) |
Berufserfahrung (Auswahl)
Senior Backend Engineer – AI Platform (2021 – heute) – AI‑Startup, Berlin
- Aufbau einer serverless LLM‑Inference‑Plattform (GCP Cloud Run, Pub/Sub).
- Entwicklung einer RAG‑Pipeline mit Pinecone, Reduktion der durchschnittlichen Antwortzeit von 300 ms auf 45 ms.
- Leitung eines 4‑köpfigen Remote‑Teams, Einführung von OKR‑basiertem Projektmanagement.
Lead Engineer – Data & AI Services (2018 – 2021) – FinTech‑Unternehmen, München
- Migration von monolithischen Java‑Services zu einer TypeScript‑Micro‑Service‑Architektur (NestJS).
- Implementierung von KI‑gestützten Betrugserkennungs‑Workflows (LLM‑Prompt‑Engineering, Vektor‑Suche).
Software Engineer – Cloud Infrastructure (2015 – 2018) – Consulting‑Firma, Hamburg
- Design & Deployment von GCP‑basierten Data‑Lake‑Lösungen (BigQuery, Dataflow).
Ausbildung
- M.Sc. Informatik, Technische Universität München (2015) – Schwerpunkt: Machine Learning & Distributed Systems
- B.Sc. Informatik, LMU München (2013)
Fazit
Ich bin überzeugt, dass meine Kombination aus tiefgreifender Backend‑Expertise, praktischer Erfahrung mit LLM‑ und RAG‑Technologien sowie meiner ausgeprägten Eigenverantwortung perfekt zu den Anforderungen Ihrer Position passt. Gerne würde ich in einem persönlichen Gespräch mehr darüber erfahren, wie ich Ihr Team dabei unterstützen kann, KI‑Funktionen erfolgreich in marktreife Produkte zu überführen.
Ich freue mich auf Ihre Rückmeldung!
Mit freundlichen Grüßen
Max Mustermann
Anlagen: Lebenslauf, Projekt‑Portfolio, Referenzen (auf Anfrage).
Requirements
- Umfangreiche Erfahrung in der Backend-Entwicklung
- Tiefgehende Kenntnisse im Umgang mit großen Sprachmodellen (LLMs) und KI-APIs
- Erfahrung in der Entwicklung von KI-Agenten oder mehrstufigen Workflows
- Kenntnisse in der Nutzung von Vektor-Datenbanken wie Pinecone oder Weaviate
- Erfahrung in der Implementierung von RAG, Prompt Engineering und Systemdesign
- Ausgeprägte Eigenverantwortung
- Schnell arbeiten und bereit sein, das Extra zu geben, um innovative Lösungen zu entwickeln
Responsibilities
- Design und Aufbau von Backend-Systemen, die durch große Sprachmodelle (LLMs) betrieben werden
- Entwicklung von Agenten-Workflows und Tool-Integrationen
- Erstellung von RAG-Pipelines mit Vektorsuche
- Übernahme der Prompt-Orchestrierung und des Kontextmanagements
- Optimierung der Leistung, Latenz und Kosten
- Implementierung von KI-Funktionen in Produktionsprodukte
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free