EM
Data Engineer BI
E3M MANAGEMENT
Lyon · On-site Contract 2d ago
About the role
Responsibilities
- Concevoir, développer et maintenir des pipelines de données efficaces pour l'extraction, la transformation et le chargement (ETL) des données à partir de multiples sources vers le data warehouse ou le lac de données.
- Identifier et résoudre les problèmes de performance liés aux pipelines de données, aux requêtes SQL et aux rapports pour garantir des temps de réponse rapides et une disponibilité élevée des données.
- Gérer les flux de données, la qualité des données, la gouvernance des données et les politiques de sécurité pour garantir l'intégrité et la confidentialité des données.
- Travailler en étroite collaboration avec les équipes métier, les analystes de données, les ingénieurs logiciels et les administrateurs de bases de données pour comprendre les besoins en données et fournir des solutions adaptées.
- Documenter les processus ETL, les schémas de données, les modèles de données et les meilleures pratiques pour assurer la traçabilité et la reproductibilité des analyses.
Requirements
- Solides compétences en programmation, notamment en Python, SQL, et éventuellement en langages de requête de bases de données comme SQL ou NoSQL.
- Maîtrise des outils de traitement des données et des frameworks comme Apache Hadoop, Apache Spark, ou d'autres outils similaires.
- Compréhension des concepts de modélisation de données, de normalisation et de dénormalisation.
- Expérience avec des outils et des plates-formes de BI comme Tableau, Power BI, ou des solutions open source comme Apache Superset.
- Connaissance des principes de l'ingénierie logicielle et des méthodologies Agile.
- Capacité à travailler de manière autonome et à résoudre les problèmes de manière proactive.
- Excellentes compétences en communication et en collaboration pour travailler efficacement avec des équipes interfonctionnelles.
Requirements
- Solides compétences en programmation, notamment en Python, SQL, et éventuellement en langages de requête de bases de données comme SQL ou NoSQL.
- Maîtrise des outils de traitement des données et des frameworks comme Apache Hadoop, Apache Spark, ou d'autres outils similaires.
- Compréhension des concepts de modélisation de données, de normalisation et de dénormalisation.
- Expérience avec des outils et des plates-formes de BI comme Tableau, Power BI, ou des solutions open source comme Apache Superset.
- Connaissance des principes de l'ingénierie logicielle et des méthodologies Agile.
- Capacité à travailler de manière autonome et à résoudre les problèmes de manière proactive.
- Excellentes compétences en communication et en collaboration pour travailler efficacement avec des équipes interfonctionnelles.
Responsibilities
- Concevoir, développer et maintenir des pipelines de données efficaces pour l'extraction, la transformation et le chargement (ETL) des données à partir de multiples sources vers le data warehouse ou le lac de données.
- Identifier et résoudre les problèmes de performance liés aux pipelines de données, aux requêtes SQL et aux rapports pour garantir des temps de réponse rapides et une disponibilité élevée des données.
- Gérer les flux de données, la qualité des données, la gouvernance des données et les politiques de sécurité pour garantir l'intégrité et la confidentialité des données.
- Travailler en étroite collaboration avec les équipes métier, les analystes de données, les ingénieurs logiciels et les administrateurs de bases de données pour comprendre les besoins en données et fournir des solutions adaptées.
- Documenter les processus ETL, les schémas de données, les modèles de données et les meilleures pratiques pour assurer la traçabilité et la reproductibilité des analyses.
Skills
Apache HadoopApache SparkNoSQLPower BIPythonSQLTableau
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free