Data Engineer - GRENOBLE
HANDICAP-JOB
About the role
🎯 Rejoignez l’équipe Digital Engineering – Data Engineer
Client : Leader mondial de l’industrie pharmaceutique (site de production)
Localisation : France (télétravail possible) – Capgemini
📌 Mission principale
Intégrer le pôle d’expertise dédié aux applications de production et aux solutions d’intégration de données. Vous serez le garant de la disponibilité, de la qualité et de la conformité des flux de données qui alimentent les processus de :
- Traçabilité & contrôle qualité
- Ordonnancement & maintenance
- Analyse, reporting & amélioration continue
🛠️ Responsabilités clés
| Domaine | Activités |
|---|---|
| Support & exploitation | • Gestion des incidents (industrialisation & production) • Maintenance corrective & évolutive des plateformes existantes |
| Développement & intégration | • Conception & déploiement de pipelines de données robustes & scalables • Intégration de nouvelles solutions dans l’environnement actuel |
| Data Virtualisation | • Création, optimisation et gouvernance des vues Denodo • Mise en place d’API d’accès aux données |
| Collaboration | • Travail étroit avec les équipes Data‑Science & BI (Tableau, Power BI) • Participation aux revues d’architecture et aux ateliers d’amélioration |
| Qualité & conformité | • Application des bonnes pratiques (sécurité, gouvernance, GDPR) • Mise en place de tests automatisés et de monitoring des flux |
| Innovation Cloud | • Exploitation de Databricks / PySpark sur Azure, AWS ou GCP • Participation à la construction de data‑lakes & data‑warehouses |
👤 Profil recherché
| Compétence | Niveau attendu |
|---|---|
| Formation | Bac +5 : Ingénieur·e en informatique, data‑science ou équivalent |
| Langues | Anglais professionnel (écrit & oral) |
| Data‑Virtualisation | Expertise avérée sur Denodo (modélisation, performances, sécurité) |
| BI & Visualisation | Maîtrise de Tableau Software et/ou Power BI |
| Programmation | SQL avancé + Python (pandas, PySpark) |
| Big Data / Cloud | Expérience avec Databricks, Azure, AWS ou GCP |
| Intégration | Connaissance des outils ETL/ELT (Informatica, Talend, Azure Data Factory…) |
| Qualité & gouvernance | Bonnes pratiques de data‑governance, sécurité, conformité (GDPR, ISO 27001) |
| Soft skills | Esprit d’équipe, autonomie, capacité à gérer les priorités en contexte industriel |
🌟 Pourquoi nous rejoindre ?
| Thème | Avantages |
|---|---|
| Qualité de vie | Télétravail (France & à l’international), horaires flexibles, politique parentalité, mobilité durable |
| Développement professionnel | Accès libre à certifications & formations, accompagnement par un career manager, parcours d’intégration de 9 mois |
| Avantages groupe & CSE | Plan d’actionnariat, tarifs préférentiels sur activités, remboursement partiel des vacances, prise en charge d’abonnements sportifs ou culturels |
| Valeurs & engagements | Culture inclusive & multiculturelle, environnement handi‑accueillant, initiatives solidaires, ambition de réduire l’impact environnemental du groupe |
📄 Comment postuler ?
- Préparez votre CV en mettant en avant vos projets Denodo, Databricks/PySpark, et vos réalisations autour de data‑lakes / data‑warehouses.
- Rédigez une lettre de motivation qui illustre :
- Votre expérience en environnement industriel pharmaceutique (ou similaire)
- Votre capacité à travailler en mode support & amélioration continue
- Votre appétence pour les technologies cloud et la data‑virtualisation
- Envoyez votre candidature à l’adresse : recrutement.digitalengineering@capgemini.com (ou via le portail interne Capgemini).
Capgemini s’engage à créer un environnement de travail où chaque talent peut s’épanouir, quels que soient son origine, son genre ou son handicap. Rejoignez‑nous pour contribuer à la transformation digitale d’un secteur stratégique tout en développant vos compétences au cœur d’une communauté internationale.
#LI-UC1
Besoin d’aide pour peaufiner votre CV ou votre lettre de motivation ?
N’hésitez pas à me le dire ! Je peux vous proposer un modèle ciblé sur les compétences clés de ce poste.
Requirements
- Vous avez une expertise avérée avec Denodo, Tableau Software, et des outils dintégration de données.
- Vous maîtrisez la programmation SQL et connaissez les principes de larchitecture des données ainsi que les bonnes pratiques en matière de gestion des données.
- Vous avez une expertise avérée avec Databricks, PySpark et PowerBI, et avez une experience dans la conception et l'implémentation de data lakes et data warehouse
- Vous maîtrisez la programmation Python et SQL, et connaissez des principes de l'architecture des données et des bonnes pratiques en matière de gestion des données
- Vous êtes familiers avec les environnements cloud (Azure, AWS ou GCP)
Responsibilities
- Support aux incidents en phase dindustrialisation et en phase de production.
- Intégration de nouvelles solutions dans lenvironnement existant.
- Maintenance corrective et évolutive des systèmes en place.
- Conception et développement de pipelines de données robustes et scalables.
- Mise en place et optimisation des vues et des intégrations avec Denodo.
- Collaboration étroite avec les équipes Data Science et BI pour optimiser les flux de données.
- Garantie de la qualité, sécurité et conformité des données traitées.
Benefits
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free