Data Engineer - ExperimentéH/F
Collective.work
About the role
Description de la mission
Notre client dans le secteur Luxe & Cosmétique recherche un/une Data Engineer - ExperimentéH/F.
Contexte de la mission :
L'équipe Data & Analytics Corporate est responsable des plateformes de données et d'analytics à l'échelle mondiale. Elle pilote l'ensemble des plateformes data du groupe au niveau Corporate, en couvrant des domaines métier critiques tels que les Ressources Humaines, le Campus & l'Immobilier.
L'équipe opère principalement sur deux technologies cloud de référence :
- Google Cloud Platform (GCP) — socle de la plateforme data Corporate (Cloud Composer/Airflow, BigQuery, Google Cloud Storage)
- Snowflake — plateforme analytique et de partage de données à l'échelle groupe
L'équipe s'inscrit dans le cadre du programme Beauty Tech Data Platform (BTDP), qui définit les standards d'architecture, les patterns d'ingestion, de transformation et d'exposition de la donnée à l'échelle du groupe. L'ambition de l'équipe pour 2026 est de devenir le partenaire business le plus agile pour les domaines Corporate, en délivrant des solutions data et AI à haute valeur ajoutée.
Dans ce cadre, l'équipe recrute un(e) Data Engineer GCP expérimenté(e) pour renforcer ses capacités de delivery et contribuer activement à des projets stratégiques à fort impact.
Première mission : Pipeline de données Campus — Zscaler
La première mission du consultant portera sur la conception, le développement et l'industrialisation de pipelines de données GCP dans le cadre du domaine Campus (gestion des espaces de travail, données de présence et d'occupation).
Contexte spécifique
L'équipe Corporate Data travaille sur l'intégration de données issues de l'application Zscaler — outil de sécurité réseau dont les données sont exploitées pour analyser et restituer les comportements de fréquentation et d'occupation des sites du groupe (notamment via le Workplace Attendance Dashboard).
Objectif de la mission
Concevoir et déployer des pipelines de données conformes au framework BTDP pour :
- Ingérer les données brutes en provenance de Zscaler vers les couches de stockage GCP (Google Cloud Storage / BigQuery)
- Transformer ces données selon les règles métier définies (nettoyage, normalisation, agrégation des métriques de présence et d'occupation)
- Exposer les données transformées vers les couches de consommation : BigQuery et Power BI selon les besoins des parties prenantes.
Livrables attendus :
- Pipelines Airflow (Cloud Composer) conformes aux standards BTDP
- Documentation technique (architecture, flux de données, règles de transformation)
- Couches de données BigQuery (SDDS/ CDS / Dataset) dûment documentées
- Connecteurs d'exposition vers Power BI
- Tests unitaires et monitoring des flux
Compétences techniques requises
Indispensables
- Google Cloud Platform (GCP) — minimum 3 ans d'expérience :
- BigQuery : modélisation, requêtage, optimisation des performances et des coûts
- Cloud Composer / Apache Airflow : développement et gestion de DAGs complexes
- Google Cloud Storage (GCS) : gestion des buckets, autoclass, lifecycle policies
- Cloud Logging / Monitoring : supervision des pipelines, alerting
- IAM & Sécurité GCP : gestion des permissions, service accounts, secrets
- Python : développement de scripts de transformation et d'opérateurs Airflow
- SQL avancé : manipulation de grandes volumétries de données dans BigQuery
- Power BI : création de rapports, connexion à des sources cloud (BigQuery), gestion des workspaces et capacités
- Maîtrise des principes ELT/ETL et des architectures Data Lakehouse
Appréciées
- Terraform : infrastructure as code pour les ressources GCP
- Expertise sur des plateformes data entreprise (type BTDP, Medallion Architecture ou équivalent)
- Connaissance des outils de qualité de données (Great Expectations, Soda ou équivalent)
- Expertise dans un contexte Grand Compte / Multinational
- Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif)
Environnement de travail & organisation
Le consultant intégrera une équipe pluridisciplinaire composée d'ingénieurs data internes et de consultants externes. Il/elle travaillera en étroite collaboration avec :
- L'équipe Data & Analytics Corporate (Data Engineers, Tech Lead)
- Le Campus Application Manager pour la définition des besoins métier
- Les équipes IBM en charge de l'exploitation quotidienne des plateformes GCP (run opérationnel)
- Les équipes Power BI / Microsoft Fabric pour les couches d'exposition
Méthodologie
- Gestion des tâches via ServiceNow et backlog DATA structuré
- Rituels d'équipe hebdomadaires (bi-weekly Data Gov, stand-ups techniques)
- Travail en mode agile, avec des sprints de delivery
- Présence sur site à Saint-Ouen minimum 3 jours/semaine (réunions techniques, ateliers)
Critères de sélection
- Expertise GCP (BigQuery, Composer, GCS) - Critique
- Maîtrise Python / SQL - Critique
- Expertise Power BI - Importante
- Connaissance frameworks data (BTDP, Medallion) - Importante
- Capacité à travailler en autonomie dans un grand groupe - Importante
Profil recherché
- Formation : Bac+5 en Informatique, Data Engineering, ou domaine équivalent
- Expertise : Minimum 3 ans en tant que Data Engineer avec une spécialisation GCP avérée
- Langues : Français courant — Anglais professionnel (l'environnement est international)
Informations complémentaires
- Démarrage souhaité : Dès que possible
- Télé travail : 2 jours par semaine / 3 jours de présence sur site
Profil recherché
Compétences / Qualités indispensables :
- Google Cloud Platform (GCP) — minimum 3 ans d'expérience
- Python : développement de scripts de transformation et d'opérateurs Airflow
- SQL avancé : manipulation de grandes volumétries de données dans BigQuery
- Power BI : création de rapports, connexion à des sources cloud (BigQuery), gestion des workspaces et capacités
- Maîtrise des principes ELT/ETL et des architectures Data Lakehouse
- Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif)
- Anglais professionnel
Compétences / Qualités qui seraient un + :
- Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif)
- Expérience en grands groupe et luxe apprécié
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free