AI APPLICATION ENGINEER || AI PRODUCTS LLM & RAG
Reply Group
About the role
About
Machine Learning Reply bietet maßgeschneiderte End-to-End-Lösungen im Data-Science-Bereich an, die den gesamten Projektlebenszyklus abdecken – von der initialen Strategieberatung über die Datenarchitektur und Infrastrukturthemen bis hin zur Datenverarbeitung und Qualitätssicherung unter Verwendung von Machine-Learning-Algorithmen. Machine Learning Reply verfügt über umfassende Expertise im Bereich der Datenwissenschaft in allen Schlüsselindustrien der deutschen HDAX-Unternehmen. Machine Learning Reply befähigt seine Kunden, neue datenbasierte Geschäftsmodelle erfolgreich einzuführen sowie bereits bestehende Prozesse und Produkte zu optimieren – mit einem Schwerpunkt auf Open-Source- und Cloud-Technologien. Mit dem Machine Learning Incubator bietet das Unternehmen ein Programm zur Ausbildung der nächsten Generation von Entscheidungsträgern, Data Scientists und Entwicklern an.
Responsibilities
- Konzeption und Entwicklung von KI-Anwendungen wie Enterprise-Assistenten, Copiloten, semantischen Suchplattformen und Automatisierungssystemen
- Entwicklung von LLM-basierten Lösungen (inkl. RAG) sowie End-to-End-KI-Produkten unter Integration von APIs, Unternehmensdaten und Backend-Services
- Aufbau skalierbarer KI-Microservices, APIs sowie Vektorsuche-, Embedding- und Retrieval-Systeme
- Schnelles Prototyping von KI-Features und deren Weiterentwicklung zu produktiven Systemen
- Enge Zusammenarbeit mit Produktmanagern, Designern, KI-Ingenieuren und Kunden zur Entwicklung wirkungsvoller Lösungen
- Deployment von KI-Systemen in Cloud- und Produktionsumgebungen unter Nutzung moderner DevOps-Praktiken
- Sicherstellung von Zuverlässigkeit, Skalierbarkeit und Observability durch CI/CD, Monitoring und containerisierte Deployments
Requirements
- Abgeschlossenes Studium in Informatik, Software Engineering, Data Science oder einem vergleichbaren technischen Bereich
- Sehr gute Programmierkenntnisse in Python und modernen Backend-Frameworks sowie Erfahrung mit KI-, Machine-Learning- und generativen KI-Anwendungen
- Erfahrung in der Entwicklung skalierbarer Backend-Systeme, APIs und Microservices sowie Kenntnisse in RAG, Vektordatenbanken und Retrieval-Technologien
- Praxis in Containerisierung und DevOps (z. B. Docker, CI/CD, Kubernetes) sowie Deployment von KI-Services in Cloud-Umgebungen (AWS, Azure, GCP)
- Erfahrung mit relevanten Frameworks (z. B. LangChain, LlamaIndex, Hugging Face)
- Kenntnisse in Monitoring, Observability sowie Evaluation und Optimierung von LLM-Systemen
- Sehr gute Deutsch- und Englischkenntnisse für Workshops und Kommunikation
Benefits
- Regelmäßige und systematische (externe und interne) Weiterbildungsmöglichkeiten in den Bereichen Generative AI, LLM-Entwicklung, Cloud-Architektur und Data Science
- Arbeit in einer offenen, flachen Umgebung, innerhalb eines breiten Reply-Netzwerks zum Wissensaustausch
- Preisgekrönte Büroräume in der Münchner Innenstadt mit Zugang zur Stammstrecke
- Fahrkarte für öffentliche Verkehrsmittel mit Deutschlandticket
- Beteiligung an deinen sportlichen Aktivitäten über den EGYM Wellpass und weitere Benefits der Reply Gruppe
- Flexible Arbeitsumgebung zwischen Kunden, Reply-Büro und Remote-Arbeit
Requirements
- Sehr gute Programmierkenntnisse in Python und modernen Backend-Frameworks sowie Erfahrung mit KI-, Machine-Learning- und generativen KI-Anwendungen
- Erfahrung in der Entwicklung skalierbarer Backend-Systeme, APIs und Microservices sowie Kenntnisse in RAG, Vektordatenbanken und Retrieval-Technologien
- Praxis in Containerisierung und DevOps (z. B. Docker, CI/CD, Kubernetes) sowie Deployment von KI-Services in Cloud-Umgebungen (AWS, Azure, GCP)
- Erfahrung mit relevanten Frameworks (z. B. LangChain, LlamaIndex, Hugging Face)
- Kenntnisse in Monitoring, Observability sowie Evaluation und Optimierung von LLM-Systemen
- Sehr gute Deutsch- und Englischkenntnisse für Workshops und Kommunikation
Responsibilities
- Konzeption und Entwicklung von KI-Anwendungen wie Enterprise-Assistenten, Copiloten, semantischen Suchplattformen und Automatisierungssystemen
- Entwicklung von LLM-basierten Lösungen (inkl. RAG) sowie End-to-End-KI-Produkten unter Integration von APIs, Unternehmensdaten und Backend-Services
- Aufbau skalierbarer KI-Microservices, APIs sowie Vektorsuche-, Embedding- und Retrieval-Systeme
- Schnelles Prototyping von KI-Features und deren Weiterentwicklung zu produktiven Systemen
- Enge Zusammenarbeit mit Produktmanagern, Designern, KI-Ingenieuren und Kunden zur Entwicklung wirkungsvoller Lösungen
- Deployment von KI-Systemen in Cloud- und Produktionsumgebungen unter Nutzung moderner DevOps-Praktiken
- Sicherstellung von Zuverlässigkeit, Skalierbarkeit und Observability durch CI/CD, Monitoring und containerisierte Deployments
Benefits
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free