AA
Data Engineer / Datenanalyst (m/w/d)
adesso Austria GmbH
Essen · On-site 2w ago
About the role
Anforderungen verstehen und Kunden beraten
- In Zusammenarbeit mit den Fachbereichen erarbeitest du konkrete Anforderungen an die Data Pipelines
- Berätst unsere Kunden zu Best Practices und Snowflake Data Engineering Features (wie z.B. OpenFlow, Snowpark, Snowpipe)
Datenstrecken entwickeln
- Konzipierst und entwickelst entlang der gesamten Pipeline
- Nutzt dafür z.B. Fivetran, dbt, Airflow, Matillion oder andere Tools des modernen Data Stacks
Enge Zusammenarbeit mit verschiedenen Teams
- Arbeitest eng mit Data Scientists, Analysts, Architects und anderen Engineers zusammen, um die beste Lösung für den Kunden umzusetzen
Data Management
- Hilfst unseren Kunden, strukturierte und verlässliche Datenprozesse aufzubauen
- Einhaltung von Datenschutzrichtlinien
- Definition von Data Governance Richtlinien
- Implementierung von Datenzugriffs- und Sicherheitskonzepten
Wissen vermitteln
- Setzt Schulungen von Endanwender:innen und Analysts im Umgang mit Snowflake um
- Erstellst Dokumentationen und Guidelines
Aktiv im Presales mitwirken
- Je nach Erfahrung entwickelst du technische Lösungskonzepte
- Begleitest Angebotspräsentationen
- Führst Workshops durch
Anforderungen
Data Platform Kenntnisse
- Erfahrung in Data Platform Projekten, idealerweise mit Snowflake
- Beherrschst Data Platform Konzepte (DWH/Data Lake/Datalakehouse und Data Mesh)
- Beherrschst die Modellierung mit Data Vault 2.0 oder klassischen Modellierungspattern wie Snowflake und Star
Cloud-Expertise
- Erfahrung im Bereich Cloud Data Platforms und einem Cloud Hyperscaler wie AWS, GCP oder Azure
- Grundlegende Kenntnisse mit Cloudinfrastruktur (VPC, IAM, etc.)
- Kenntnisse in IaC wie z.B. mit Terraform
ETL/ELT- Methodik
- Entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität
- Umfassender Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica
- Kenntnisse in einer dieser Sprachen: SQL, Python, Java, Scala oder Spark
Sprachkenntnisse
- Sehr gute Deutschkenntnisse
- Gute Englischkenntnisse
Requirements
- Du hast Erfahrung in Data Platform Projekten, idealerweise mit Snowflake und beherrschst Data Platform Konzepte (DWH/Data Lake/Datalakehouse und Data Mesh) und die Modellierung mit Data Vault 2.0. oder klassischen Modellierungspattern wie Snowflake und Star.
- Du bringst Erfahrung im Bereich Cloud Data Platforms und einem Cloud Hyperscaler wie AWS, GCP oder Azure mit und kennst dich grundlegend mit Cloudinfrastruktur aus (VPC, IAM, etc.), ebenso ist dir IaC wie z.B. mit Terraform ein Begriff.
- Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
- Du beherrschst sehr gute Deutsch- und gute Englischkenntnisse.
Responsibilities
- In Zusammenarbeit mit den Fachbereichen erarbeitest du konkrete Anforderungen an die Data Pipelines und berätst unsere Kunden zu Best Practices und Snowflake Data Engineering Features (wie z.B. OpenFlow, Snowpark, Snowpipe).
- Du konzipierst und entwickelst entlang der gesamten Pipeline und nutzt dafür z.B. Fivetran, dbt, Airflow, Matillion oder andere Tools des modernen Data Stacks
- Du arbeitest eng mit Data Scientists, Analysts, Architects und anderen Engineers zusammen, um die beste Lösung für den Kunden umzusetzen.
- Du hilfst unseren Kunden, strukturierte und verlässliche Datenprozesse aufzubauen: Einhaltung von Datenschutzrichtlinien, Definition von Data Governance Richtlinien, Implementierung von Datenzugriffs- und Sicherheitskonzepten.
- Du setzt Schulungen von Endanwender:innen und Analysts im Umgang mit Snowflake um und erstellst Dokumentationen und Guidelines.
- Je nach Erfahrung entwickelst du technische Lösungskonzepte, begleitest Angebotspräsentationen und führst Workshops durch.
Skills
AWSAzureData MeshData Vault 2.0GCPIAMInformaticaJavaMatillionOpenFlowPythonScalaSnowflakeSnowparkSnowpipeSparkSQLTalendTerraformVPCdbtfivetran
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free