Data Engineer Python / Big Data
ENOVA Consulting
About the role
À propos d'ENOVA
Fondée en 2018 à Genève, ENOVA est une société de conseil en technologies de l'information qui se distingue par son approche résolument humaine, agile et réactive. Notre objectif ? Offrir à nos collaborateurs et nos clients une quête constante d'excellence et de performance.
Notre engagement : l'excellence au quotidien
Chez ENOVA, nous privilégions une approche orientée résultats, en mettant l'accent sur :
- L'agilité et la réactivité pour répondre aux défis de nos clients
- L'expertise pointue et l'innovation constante
Nous croyons fermement que la réussite repose sur des valeurs fortes : communication ouverte, bien-être au travail, professionnalisme, et égalité pour tous nos collaborateurs, car chacun apporte sa touche unique à notre aventure.
Nos domaines d'expertise
Nous intervenons dans les compétences IT les plus recherchées et la gestion de projets de bout en bout, en couvrant :
- Innovation, stratégie et gouvernance des systèmes d'information
- Activités opérationnelles comme l'infrastructure, le développement d'applications et l'intégration de solutions
Notre entité ENOVA Data exploite nos savoir-faire en Cloud et DevOps pour maximiser la valeur des données de nos partenaires grâce à des compétences en data engineering, data analyse et IA générative.
Une présence internationale pour mieux vous accompagner ! France (Sophia-Antipolis, Aix-en-Provence, Paris, Lyon), Monaco, Suisse, Luxembourg.
Le poste
ENOVA poursuit son développement et renforce ses équipes en intégrant un(e) Data Engineer Python / Big Data en CDI. Vous rejoindrez notre communauté de consultants et interviendrez en mission longue durée au sein d'un grand compte, dans un environnement stimulant et innovant.
Vous intégrerez une équipe Data Décisionnelle engagée dans un programme stratégique de refonte complète du Système d'Information Décisionnel (SID), avec une trajectoire de transformation ambitieuse jusqu'en 2027.
Vous évoluerez au sein d'une équipe d'environ 16 personnes, dans un cadre agile SAFe, avec des cycles de livraison courts toutes les 3 semaines. L'environnement de travail favorise la collaboration, l'expertise technique et l'amélioration continue.
Vos principales responsabilités :
- Concevoir, développer et maintenir des pipelines de données robustes et performants
- Mettre en oeuvre des traitements ETL/ELT pour alimenter l'entrepôt de données
- Optimiser les performances sur des volumes de données importants
- Développer en Python avec les bibliothèques data (Pandas, PySpark)
- Exploiter Apache Spark pour le traitement distribué à grande échelle
- Orchestrer les workflows avec Apache Airflow
- Participer aux cérémonies agiles et aux revues de code
- Contribuer à l'amélioration continue des pratiques et des outils
- Collaborer étroitement avec les équipes data, QA et métiers
Le profil recherché
Vous disposez d'une solide expérience en environnement Data et souhaitez évoluer sur des projets à fort enjeu technique.
Compétences techniques attendues :
- Minimum 5 ans d'expérience en développement Python orienté Data / Big Data
- Expertise confirmée sur Apache Spark (PySpark)
- Maîtrise d'Apache Airflow pour l'orchestration de pipelines
- Expérience significative dans la conception de pipelines ETL/ELT
- Bonne connaissance des bases de données relationnelles et des entrepôts de données
- Pratique des environnements Big Data et des architectures data modernes
- Maîtrise des bonnes pratiques : tests unitaires, versioning (Git), documentation
Qualités personnelles :
- Esprit d'initiative et force de proposition technique
- Excellent relationnel et sens du travail en équipe
- Rigueur et exigence sur la qualité des livrables
- Curiosité technique et capacité d'adaptation
- Autonomie dans la gestion des missions
Pré-requis :
- Formation supérieure en informatique ou équivalent
- Expérience significative en environnement agile (idéalement SAFe)
Atouts supplémentaires :
- Expérience dans des projets de refonte de systèmes décisionnels
- Connaissance d'outils de reporting et de data visualisation
- Sensibilité aux architectures data modernes et aux pratiques MLOps
Modalités
- Localisation : Cagnes-sur-Mer (1 jour de présence sur site par semaine)
- Organisation : environnement agile SAFe, open space, livraisons toutes les 3 semaines
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free