Skip to content
mimi

IT-Recruiting-Partner

Bechtle

Wien · Hybrid Full-time From €5k/mo 3d ago

About the role

About

Als IT‑Recruiting‑Partner bei führenden Unternehmen in ganz Österreich sucht smartpoint dataformers geeignete Mitarbeitende für die oben genannte Rolle.

Responsibilities

  • Verantwortung für die Migration, Modernisierung und Weiterentwicklung unternehmenskritischer, komplexer Datenverarbeitungs‑ und Datenintegrationslösungen (Migration klassischer DWH/ETL‑Architekturen z.B. Ab Initio auf moderne Big‑Data‑Plattformen)
  • Konzeption und Implementierung von Lösungen für die gesetzeskonforme Verarbeitung und Historisierung hochregulierter, besonders schützenswerter Telekommunikationsdaten
  • Analyse, Design und Betrieb hochkomplexer Schnittstellen zwischen Data‑Produkten, Quellsystemen und Zielsystemen; Entwicklung der kompletten Job‑ und Datenarchitektur basierend auf Apache Spark, Airflow, Kubernetes, Python, SQL, C und Unix Shell
  • Entwicklung hochperformanter Analyse‑ und Abfragesysteme im Umfeld von PySpark sowie Sicherstellung eines stabilen, gesetzeskonformen Datenbetriebs
  • Gestaltung, Entwicklung und Betrieb innovativer ETL‑Frameworks – einschließlich eigenentwickelter Airflow‑Operatoren, ETL‑Pipelines und Automatisierungs‑Tools in Python, PySpark und Bash
  • Aktiver Beitrag zum Aufbau und zur Weiterentwicklung von CI/CD‑Prozessen im Data Engineering sowie Integration moderner Entwicklungsprozesse (Testing, Git, Deployment)
  • Nutzung agiler Methoden im Projektmanagement und der zugehörigen Werkzeuge (JIRA / Confluence); strukturierte und verständliche Dokumentation von Konzepten und Umsetzungen; Setzen neuer Standards in der Nachvollziehbarkeit

Requirements

  • Abgeschlossenes technisches Studium (Informatik, Mathematik, Data Science o. ä.) oder mehrjährige relevante Berufserfahrung im Big‑Data/Data‑Engineering‑Umfeld
  • Tiefgehende Erfahrung mit modernen Datenverarbeitungs‑Frameworks und Orchestrierung (Apache Spark, Apache Airflow, Kubernetes)
  • Sehr gute Programmierkenntnisse in Python, SQL, Unix Shell; weitere Kenntnisse (z.B. C) von Vorteil
  • Praktische Erfahrung beim Aufbau und Betrieb hochperformanter, gesetzeskonformer Data‑Processing‑Lösungen und Suchsysteme in verteilten Umgebungen (z.B. Data Lake, Data Mart)
  • Nachweisliche Erfahrung im Design und in der Umsetzung komplexer ETL‑Prozesse inkl. Automatisierung und Performance‑Optimierung
  • Solide Kenntnisse und praktische Anwendung von CI/CD, automatisiertem Testing und Versionsverwaltung (z.B. Git)
  • Erfahrung im agilen Projektmanagement, Dokumentation und Optimierung von Prozessen, idealerweise mit JIRA und Confluence
  • Deutsch und Englisch in Wort und Schrift

Benefits

  • Hochspannende, herausfordernde Aufgaben an zentralen Datenprodukten im Telekommunikationsumfeld
  • Flexible Arbeitszeit und Home‑Office‑Möglichkeiten
  • Arbeiten in einem exzellenten, motivierten Team aus Data‑ und Software‑Engineers
  • Viel Raum für Eigenverantwortung, Gestaltung und Innovation

Salary

  • Mindestbruttomonatsgehalt von € 5.000 EUR auf Vollzeitbasis, mit Möglichkeit der Überbezahlung je nach Qualifikation und Erfahrung.

Skills

Apache AirflowApache SparkBashCCI/CDData LakeData MartDockerETLGitJIRAKubernetesPythonPySparkSQLUnix Shell

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free