Data Warehouse Engineer
Hays
About the role
Vous apporterez un soutien transversal aux projets décisionnels, notamment sur le backend Tableau, et participerez activement au développement de la plateforme d’intégration et d’interopérabilité des données de référence. Vous contribuerez à la fiabilisation, l’automatisation et la performance des pipelines de données, tout en veillant à la disponibilité et à la qualité des environnements Data Warehouse et Data Hub.
Vos principales activités et responsabilités :
Sur la partie Data Warehouse : • Développer et maintenir les pipelines d’alimentation (ETL/ELT) en assurant leur performance, fiabilité et documentation. • Optimiser les traitements SQL et les performances d’accès aux données. • Administrer, monitorer et faire évoluer les environnements techniques du Data Warehouse (Jobs, Scripts, Automatisations, Tableau Software). • Contribuer à la mise en place de pratiques DataOps (Versioning, déploiement automatisé).
Sur la partie Data Hub : • Concevoir et développer les flux d’intégration et d’interopérabilité entre applications via le Data Hub. • Maintenir et faire évoluer les référentiels de données (MDM). • Développer et orchestrer les interfaces d’échange de données (API, flux SQL, Services d’intégration). • Garantir la qualité, la sécurité et la traçabilité des données échangées. • Participer à l’automatisation et à la supervision des traitements d’intégration (Monitoring & Alerting).
De manière transversale : • Assurer la stabilité, la performance et la maintenabilité des plateformes de données. • Documenter les sources, processus d’alimentation et flux inter-systèmes. • Contribuer à l’amélioration continue des pratiques techniques et à la modernisation des plateformes.
Profil recherché :
• Diplôme d’ingénieur en informatique (HES / EPF) ou expérience jugée équivalente. • Minimum 5 ans d’expérience dans le domaine des données, idéalement sur des environnements Data Warehouse ou Data Hub.
Compétences techniques • Expertise en SQL (optimisation, tuning, diagnostic, indexes, plans d’exécution). • Expertise en Python pour le développement de pipelines de données (ETL/ELT, API, Scheduling, gestion de librairies). • Bonnes connaissances DataOps (Versioning, Intégration et déploiement continu, Git, Orchestration). • Connaissance ou intérêt pour les frameworks de pipelines modernes (dbt, dlt) et les outils d’orchestration (ex. Airflow, Jenkins, Prefect). • Bonne connaissance des bases de données relationnelles (MSSQL, PostgreSQL, Oracle) ; Bases NoSQL un plus. • Connaissances du maintien des environnements Windows et Linux (On-premise, VM). • Connaissances en data visualisation (Tableau Software un plus).
Atouts complémentaires (non prioritaires) : • Familiarité avec Docker / Kubernetes pour le déploiement de traitements de données • Connaissances en Data virtualisation (Denodo un plus) • Expérience dans la mise en œuvre d’architectures Data Lake / Lakehouse • Expérience dans un projet cloud • Contribution à un projet ML ou LLM
Qualités personnelles • Bonne aptitude à la synthèse et à la restitution de la connaissance. • Esprit de collaboration et d'initiative. • Bonne gestion du contact avec les différents interlocuteurs et très bon communicant. • Pragmatique, faiseur, esprit d'initiative, non conflictuel, structuré, méthodique, réactif.
Langues • Français : excellente maîtrise orale et écrite, avec aisance rédactionnelle. • Anglais : capacité à s’exprimer clairement et efficacement dans un contexte professionnel.
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free