C
Data Engineer
Collective.work
Issy-les-Moulineaux · On-site Freelance Senior €570 – €570/hr Yesterday
About the role
Contexte
La raison d’être de la Direction Data & IA Factory (DIAF) d’une grande entreprise du secteur postal est de concevoir, cadrer, construire, industrialiser et opérer des solutions Data & IA robustes, sécurisées et performantes, au service des cas d’usage pilotés par la direction Usages & Transformation, dans un environnement on-premise et en cours de migration vers le cloud.
Enjeux / objectifs
- Industrialisation des solutions Data & IA : concevoir, construire et exploiter les solutions Data & IA, en garantissant leur mise en production, leur robustesse et leur performance dans la durée.
- Opérationnalisation de l’offre Data & IA : transformer les offres Data & IA en services et produits industrialisables, capables d’être déployés à l’échelle et réutilisés par les différents métiers de la branche.
- Expertise technologique Data & IA : agir comme centre d’expertise sur les outils, méthodes et technologies Data & IA, en définissant les standards techniques et en sécurisant les choix structurants.
- Architecture et socles Data : définir et mettre en œuvre l’architecture Data, en assurant la cohérence, la pérennité et l’évolutivité des plateformes et des flux de données.
- Gestion du cycle de vie des données : prendre en charge le cycle de vie des données, de leur ingestion à leur exploitation, afin de garantir qualité, traçabilité et exploitabilité des données.
- Exploitation des environnements techniques : administrer et faire évoluer les environnements techniques Data & IA, en on-premise et dans le cloud, en assurant disponibilité, sécurité et performance.
Missions
- Renforcer la conception, le développement et l’industrialisation des solutions Data & IA au sein des plateformes, dans un environnement technologique on premise (stack Cloudera) et cloud (notamment Azure, Databricks).
- Concevoir, développer et industrialiser les chaînes de traitement de données portées par la DIAF, dans le cadre des objectifs d’industrialisation des solutions Data & IA, d’opérationnalisation de l’offre Data & IA et de mise en œuvre des standards techniques.
- Fournir une capacité d’intervention opérationnelle et de leadership technique au sein des équipes DIAF en charge de concevoir, développer, tester et documenter les pipelines et services Data en phase de BUILD.
- Contribuer au support technique de niveau avancé et à l’amélioration continue des solutions en phase de RUN, en lien avec les équipes métiers et data.
- Mettre en œuvre, optimiser et industrialiser les chaînes de traitement de données, en garantissant la qualité, la performance et la fiabilité des solutions Data en phases de BUILD et de RUN.
Expertise opérationnelle
- Leadership technique et contribution active au sein des équipes Data & IA.
- Conception, développement et industrialisation de solutions Data en environnement complexe.
- Delivery orienté qualité, performance, robustesse et exploitabilité des solutions.
- Respect des exigences de maintenabilité, sécurité et fiabilité des traitements.
- Capacité à travailler en environnement transverse (métiers, Data Scientists, IT, DevOps, sécurité).
- Communication efficace : suivi de l’avancement, remontée des risques et alertes, documentation et partage des solutions auprès des équipes.
Expertise technique
- Maîtrise des architectures Data distribuées aussi bien On-Premise (Stack Cloudera) que Cloud (Azure, Databricks) : Data Lake / Lakehouse, écosystèmes Big Data.
- Très bonne connaissance des frameworks de traitement Spark (batch et streaming) et capacité à analyser et optimiser les performances des jobs.
- Expérience des architectures événementielles et streaming (Kafka et frameworks associés).
- Mise en œuvre et exploitation de pipelines Data orchestrés (Airflow ou équivalent).
- Solide expérience en développement Data Engineering : Scala, Python sur Spark et SQL.
- Connaissance des environnements Cloud Data, notamment Azure et des plateformes Data associées (Databricks / Fabric selon contexte).
- Maîtrise des principes d’industrialisation : CI/CD, automatisation des déploiements, sécurité et exploitabilité.
- Connaissance des architectures orientées services et des socles d’échanges via APIM / API / web services / ESB / CFT / sFTP.
- Bonne compréhension des enjeux d’exploitation en production : performance, scalabilité, disponibilité, monitoring, supervision, logging, etc.
- Utilisation des outils de gestion de projet et de collaboration : JIRA, Confluence, Microsoft 365 / Teams.
- Capacité à travailler efficacement dans un environnement Agile / Scrum / SAFe.
Conditions de travail
- Localisation : Issy-les-Moulineaux (92)
- Démarrage : 18/05/2026
- Durée : 1 an renouvelable
- Statut : Freelances & Salariés
- TJM d’achat max : 570 €
- Deadline réponse : 22/04/2026
Profil recherché
- 7 ans minimum d'expérience en Data Engineering
- Forte expertise en Data Engineering sur environnements industrialisés et multi-environnement (Stack Cloudera en Spark Scala, Azure, Databricks)
- Expérience significative sur des prestations équivalentes (minimum 6 à 9 ans)
- Leadership technique et contribution active au sein des équipes Data & IA
- Conception, développement et industrialisation de solutions Data en environnement complexe
- Delivery orienté qualité, performance, robustesse et exploitabilité des solutions
- Respect des exigences de maintenabilité, sécurité et fiabilité des traitements
- Capacité à travailler en environnement transverse (métiers, Data Scientists, IT, DevOps, sécurité)
- Communication efficace : suivi de l’avancement, remontée des risques et alertes, documentation et partage des solutions
- Maîtrise des architectures Data distribuées On-Premise (Stack Cloudera) et Cloud (Azure, Databricks) : Data Lake / Lakehouse, écosystèmes Big Data
- Très bonne connaissance des frameworks de traitement Spark (batch et streaming) et capacité à analyser et optimiser les performances des jobs
- Expérience des architectures événementielles et streaming (Kafka et frameworks associés)
- Mise en œuvre et exploitation de pipelines Data orchestrés (Airflow ou équivalent)
- Solide expérience en développement Data Engineering : Scala, Python sur Spark et SQL
- Connaissance des environnements Cloud Data, notamment Azure et plateformes associées (Databricks / Fabric)
- Maîtrise des principes d’industrialisation : CI/CD, automatisation des déploiements, sécurité et exploitabilité
- Connaissance des architectures orientées services et socles d’échanges via APIM / API / web services / ESB / CFT / sFTP
- Bonne compréhension des enjeux d’exploitation en production : performance, scalabilité, disponibilité, monitoring, supervision, logging
- Utilisation des outils de gestion de projet et collaboration : JIRA, Confluence, Microsoft 365 / Teams
- Capacité à travailler efficacement dans un environnement Agile / Scrum / SAFe
Skills
AirflowAPIAPIMAzureCFTClouderaConfluenceDatabricksESBJIRAKafkaLakehouseLinuxMicrosoft 365PythonScalaScrumSparkSQLSAFesFTP
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free