Senior Data Solution Engineer
APEC - Offres Gratuites
About the role
Description du poste
Notre client est un groupe international de premier plan, leader mondial dans son secteur, spécialisé dans la valorisation d'espaces à forte fréquentation au cœur des villes et des grands hubs de mobilité et de commerce.
Depuis plusieurs décennies, le groupe développe un modèle économique unique, reposant sur la conception, le déploiement et l'exploitation de solutions utiles, durables et innovantes, mises à disposition des collectivités et des opérateurs de transport, et financées par des partenariats avec les marques et annonceurs.
Présent dans de nombreux pays, le groupe joue un rôle clé dans la transformation des environnements urbains, avec une ambition forte : Concilier performance économique, responsabilité environnementale et amélioration de l'expérience citoyenne.
Dans un contexte de transformation digitale et data à grande échelle, le groupe a structuré depuis plusieurs années une division Data stratégique, au cœur de la création de valeur, de la performance opérationnelle et du pilotage business.
Cette division accompagne l'ensemble des métiers du groupe (opérations, finance, commerce, IT, innovation…) et contribue directement au positionnement de leader mondial.
Dans ce cadre, nous recherchons un(e) Senior Data Solution Engineer pour renforcer l'équipe technique de la Direction Data, basée en région parisienne.
Rattaché(e) au responsable, vous jouez un rôle clé dans la conception, l'industrialisation et l'évolution des plateformes data du groupe.
Vos missions principale
- Concevoir, développer et industrialiser des Data Solutions de bout-en-bout (de l'ingestion au monitoring) pour répondre aux besoins opérationnels des filiales.
- Construire et maintenir des pipelines de données (batch et/ou temps réel) robustes, performants et monitorés, pour alimenter ces solutions (ETL/ELT, APIs, pub/sub).
- Co-concevoir avec les Data Scientists et Data Analysts des algorithmes et méthodologies (segmentation, scoring, prévisions, optimisation, règles métier avancées, etc.) et les transformer en produits data industrialisés.
- Mettre en production des modèles de Machine Learning (MLOps) : packaging, déploiement, orchestration, suivi de performance, versioning des modèles et des datasets.
- Participer à la définition des architectures cibles des Data Solutions en vous appuyant sur la Data Platform "Lakehouse" et sur les services Cloud disponibles.
- Optimiser la performance, la qualité, la fiabilité et les coûts d'exécution des Data Solutions (optimisation de requêtes, partitionnement, caching, choix de formats, dimensionnement infra).
- Évoluer à proximité des Product Owners dans la définition et delivery des Data Solutions..
- Contribuer à l'élaboration de bonnes pratiques d'architecture, de code, de tests et de monitoring (patterns de data
De formation Bac +5 minimum de type école d'ingénieur ou université (informatique, mathématiques appliquées, data, statistiques, opérations de recherche ou équivalent), vous disposez d'au moins 3 ans d'expérience dans le traitement de données en environnement industriel, incluant le développement de solutions ou produits data sur une infrastructure Big Data ou Cloud.
Qualifications
- Vous maîtrisez un environnement Cloud (AWS, Azure ou GCP) et avez déjà participé au déploiement d'applications ou services data en production.
- Maîtrise des langages Python et SQL, avec de bonnes pratiques de développement (tests, packaging, revue de code, logging).
- Maîtrise des technologies de Data Engineering et de transformation :
- Outils de modélisation / transformation (dbt ou équivalent)
- Conception d'ETL/ELT custom (Airflow, Dagster, etc.)
- Stockage et traitement à l'échelle (Data Lake S3, Snowflake, Redshift ou équivalent)
- Bonne compréhension des approches algorithmiques et des briques Data Science / ML :
- Manipulation de données (pandas, PySpark, etc.)
- Mise en production de modèles
- Notions de base en apprentissage supervisé / non supervisé
- Maîtrise du développement en environnement Cloud, idéalement AWS.
- Pratiques DevOps et MLOps : Docker, CI/CD (GitLab CI), monitoring (Prometheus, Grafana, ou équivalent), utilisation de la ligne de commande Unix.
- Idéalement, expérience dans la mise en place d'architectures orientées data products / microservices.
- Excellente compréhension des enjeux business, capacité à co-construire des solutions avec les équipes métier et à challenger les besoins.
- Capacité à vulgariser des concepts techniques ou algorithmiques complexes auprès d'interlocuteurs non techniques.
- Force de proposition, esprit d'expérimentation et sens de l'impact (focus sur les usages et la valeur créée).
- Maîtrise de l'anglais parlé et écrit
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free