KE
Software Engineer - Data & Algorithm Development (w/m/d)
KERN engineering careers GmbH
Linz · Hybrid 6d ago
About the role
Software Engineer - Data & Algorithm Development (w/m/d)
Entwickle Algorithmen und Datenarchitekturen für komplexe Analysen
Datum: 31.03.2026
Job‑Nr.: 216420
Jetzt Bewerben
Standort: Graz
Bereich: Data Science, BI & DWH
Aufgabengebiet
- Entwicklung von Algorithmen für spatio-temporale Daten (z. B. Glättung, Map-Matching, Transportmittelerkennung)
- Aufbau und Betrieb skalierbarer Data Pipelines / ETL-Workflows (Apache Spark, Batch- & Streaming-Verarbeitung)
- Prototyping in Python und Implementierung produktiver Anwendungen in Kotlin oder einer JVM-basierten Sprache
- Umsetzung von Kundenprojekten und internen Features
- Mitwirkung an R&D-Initiativen, Evaluation neuer Methoden, Tools und Technologien
Skill-Set
- Abgeschlossenes Studium in Informatik, Softwareentwicklung oder Data Science
- Berufserfahrung in Softwareentwicklung (für datengetriebene Anwendungen) und Erstellung von Datenpipelines
- Anwederkenntnisse in Python (z. B. Pandas, NumPy, scikit-learn)
- Erfahrung mit Big Data-Technologien (idealerweise Apache Spark) und skalierbaren Datenapplikationen
- Erfahrung in objektorientierten Programmiersprachen (z. B. Java, C#, Kotlin)
- Teamorientiert, analytisch, zahlenaffin und Kommunikationsstärke in Deutsch und Englisch
Worauf man sich freuen kann
- Teamkultur: Flache Hierarchien, offene Kommunikation und echtes Wir‑Gefühl
- Angenehmer Arbeitsweg: Zentrale Lage und gute Erreichbarkeit
- Work‑Life‑Balance: Flexible Arbeitszeiten und Home‑Office‑Möglichkeiten
- Moderne Ausstattung: MacBook Pro, Smartphone und weitere Tools für produktives Arbeiten
- Weiterbildung & Entwicklung: Budget für Konferenzen, Schulungen und Zertifizierungen
- Ideen einbringen und umsetzen: Eigenverantwortliches Arbeiten mit Gestaltungsspielraum
Benefits
- Gehaltsrange
Requirements
- Abgeschlossenes Studium in Informatik, Softwareentwicklung oder Data Science
- Berufserfahrung in Softwareentwicklung (für datengetriebene Anwendungen) und Erstellung von Datenpipelines
- Anwenderkenntnisse in Python (z. B. Pandas, NumPy, scikit-learn)
- Erfahrung mit Big Data-Technologien (idealerweise Apache Spark) und skalierbaren Datenapplikationen
- Erfahrung in objektorientierten Programmiersprachen (z. B. Java, C#, Kotlin)
Responsibilities
- Entwicklung von Algorithmen für spatio-temporale Daten (z. B. Glättung, Map-Matching, Transportmittelerkennung)
- Aufbau und Betrieb skalierbarer Data Pipelines / ETL-Workflows (Apache Spark, Batch- & Streaming-Verarbeitung)
- Prototyping in Python und Implementierung produktiver Anwendungen in Kotlin oder einer JVM-basierten Sprache
- Umsetzung von Kundenprojekten und internen Features
- Mitwirkung an R&D-Initiativen, Evaluation neuer Methoden, Tools und Technologien
Benefits
flexible ArbeitszeitenHome-Office-MöglichkeitenWeiterbildung & EntwicklungBudget für KonferenzenSchulungenZertifizierungen
Skills
Apache SparkKotlinNumPyPandasPythonscikit-learn
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free