Skip to content
mimi

Software Engineer - Data & Algorithm Development (w/m/d) Entwickle Algorithmen und Datenarchitekturen für komplexe Analysen

Kern

Graz · Hybrid 6d ago

About the role

About the Role

Du entwickelst eigenständig Algorithmen und Software für datengetriebene Anwendungen und optimierst diese für Big-Data-Umgebungen. Dein Schwerpunkt liegt auf spatio-temporalen Daten, R&D-Projekten sowie der Umsetzung von Features für Kundenprojekte und interne Produkte mit direktem Mehrwert.

Location

  • Graz

Department

  • Data Science, BI & DWH

Responsibilities

  • Entwicklung von Algorithmen für spatio-temporale Daten (z. B. Glättung, Map-Matching, Transportmittelerkennung)
  • Aufbau und Betrieb skalierbarer Data Pipelines / ETL-Workflows (Apache Spark, Batch- & Streaming-Verarbeitung)
  • Prototyping in Python und Implementierung produktiver Anwendungen in Kotlin oder einer JVM-basierten Sprache
  • Umsetzung von Kundenprojekten und internen Features
  • Mitwirkung an R&D-Initiativen, Evaluation neuer Methoden, Tools und Technologien

Requirements

  • Abgeschlossenes Studium in Informatik, Softwareentwicklung oder Data Science
  • Berufserfahrung in Softwareentwicklung (für datengetriebene Anwendungen) und Erstellung von Datenpipelines
  • Anwederkenntnisse in Python (z. B. Pandas, NumPy, scikit-learn)
  • Erfahrung mit Big Data-Technologien (idealerweise Apache Spark) und skalierbaren Datenapplikationen
  • Erfahrung in objektorientierten Programmiersprachen (z. B. Java, C#, Kotlin)
  • Teamorientiert, analytisch, zahlenaffin und Kommunikationsstärke in Deutsch und Englisch

Benefits

  • Teamkultur: Flache Hierarchien, offene Kommunikation und echtes Wir-Gefühl
  • Angenehmer Arbeitsweg: Zentrale Lage und gute Erreichbarkeit
  • Work-Life-Balance: Flexible Arbeitszeiten und Home-Office-Möglichkeiten
  • Moderne Ausstattung: MacBook Pro, Smartphone und weitere Tools für produktives Arbeiten
  • Weiterbildung & Entwicklung: Budget für Konferenzen, Schulungen und Zertifizierungen
  • Ideen einbringen und umsetzen: Eigenverantwortliches Arbeiten mit Gestaltung

Requirements

  • Berufserfahrung in Softwareentwicklung (für datengetriebene Anwendungen) und Erstellung von Datenpipelines
  • Anwenderkenntnisse in Python (z. B. Pandas, NumPy, scikit-learn)
  • Erfahrung mit Big Data-Technologien (idealerweise Apache Spark) und skalierbaren Datenapplikationen
  • Erfahrung in objektorientierten Programmiersprachen (z. B. Java, C#, Kotlin)
  • Teamorientiert, analytisch, zahlenaffin und Kommunikationsstärke in Deutsch und Englisch

Responsibilities

  • Entwicklung von Algorithmen für spatio-temporale Daten (z. B. Glättung, Map-Matching, Transportmittelerkennung)
  • Aufbau und Betrieb skalierbarer Data Pipelines / ETL-Workflows (Apache Spark, Batch- & Streaming-Verarbeitung)
  • Prototyping in Python und Implementierung produktiver Anwendungen in Kotlin oder einer JVM-basierten Sprache
  • Umsetzung von Kundenprojekten und internen Features
  • Mitwirkung an R&D-Initiativen, Evaluation neuer Methoden, Tools und Technologien

Benefits

flexible ArbeitszeitenHome-Office-MöglichkeitenWeiterbildung & EntwicklungBudget für KonferenzenSchulungenZertifizierungen

Skills

Apache SparkC#Data PipelinesETLJavaKotlinMap-MatchingNumPyObject-Oriented ProgrammingPandasPythonscikit-learnSparkSpatio-temporal data

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free