K
Software Engineer - Data & Algorithm Development (w/m/d) Entwickle Algorithmen und Datenarchitekturen für komplexe Analysen
Kern
Graz · Hybrid 6d ago
About the role
About the Role
Du entwickelst eigenständig Algorithmen und Software für datengetriebene Anwendungen und optimierst diese für Big-Data-Umgebungen. Dein Schwerpunkt liegt auf spatio-temporalen Daten, R&D-Projekten sowie der Umsetzung von Features für Kundenprojekte und interne Produkte mit direktem Mehrwert.
Location
- Graz
Department
- Data Science, BI & DWH
Responsibilities
- Entwicklung von Algorithmen für spatio-temporale Daten (z. B. Glättung, Map-Matching, Transportmittelerkennung)
- Aufbau und Betrieb skalierbarer Data Pipelines / ETL-Workflows (Apache Spark, Batch- & Streaming-Verarbeitung)
- Prototyping in Python und Implementierung produktiver Anwendungen in Kotlin oder einer JVM-basierten Sprache
- Umsetzung von Kundenprojekten und internen Features
- Mitwirkung an R&D-Initiativen, Evaluation neuer Methoden, Tools und Technologien
Requirements
- Abgeschlossenes Studium in Informatik, Softwareentwicklung oder Data Science
- Berufserfahrung in Softwareentwicklung (für datengetriebene Anwendungen) und Erstellung von Datenpipelines
- Anwederkenntnisse in Python (z. B. Pandas, NumPy, scikit-learn)
- Erfahrung mit Big Data-Technologien (idealerweise Apache Spark) und skalierbaren Datenapplikationen
- Erfahrung in objektorientierten Programmiersprachen (z. B. Java, C#, Kotlin)
- Teamorientiert, analytisch, zahlenaffin und Kommunikationsstärke in Deutsch und Englisch
Benefits
- Teamkultur: Flache Hierarchien, offene Kommunikation und echtes Wir-Gefühl
- Angenehmer Arbeitsweg: Zentrale Lage und gute Erreichbarkeit
- Work-Life-Balance: Flexible Arbeitszeiten und Home-Office-Möglichkeiten
- Moderne Ausstattung: MacBook Pro, Smartphone und weitere Tools für produktives Arbeiten
- Weiterbildung & Entwicklung: Budget für Konferenzen, Schulungen und Zertifizierungen
- Ideen einbringen und umsetzen: Eigenverantwortliches Arbeiten mit Gestaltung
Requirements
- Berufserfahrung in Softwareentwicklung (für datengetriebene Anwendungen) und Erstellung von Datenpipelines
- Anwenderkenntnisse in Python (z. B. Pandas, NumPy, scikit-learn)
- Erfahrung mit Big Data-Technologien (idealerweise Apache Spark) und skalierbaren Datenapplikationen
- Erfahrung in objektorientierten Programmiersprachen (z. B. Java, C#, Kotlin)
- Teamorientiert, analytisch, zahlenaffin und Kommunikationsstärke in Deutsch und Englisch
Responsibilities
- Entwicklung von Algorithmen für spatio-temporale Daten (z. B. Glättung, Map-Matching, Transportmittelerkennung)
- Aufbau und Betrieb skalierbarer Data Pipelines / ETL-Workflows (Apache Spark, Batch- & Streaming-Verarbeitung)
- Prototyping in Python und Implementierung produktiver Anwendungen in Kotlin oder einer JVM-basierten Sprache
- Umsetzung von Kundenprojekten und internen Features
- Mitwirkung an R&D-Initiativen, Evaluation neuer Methoden, Tools und Technologien
Benefits
flexible ArbeitszeitenHome-Office-MöglichkeitenWeiterbildung & EntwicklungBudget für KonferenzenSchulungenZertifizierungen
Skills
Apache SparkC#Data PipelinesETLJavaKotlinMap-MatchingNumPyObject-Oriented ProgrammingPandasPythonscikit-learnSparkSpatio-temporal data
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free