Skip to content
mimi

Data Engineer - GRENOBLE

HANDICAP-JOB

Remote · France Contract Mid Level Yesterday

About the role

🎯 Rejoignez l’équipe Digital Engineering – Data Engineer

Client : Leader mondial de l’industrie pharmaceutique (site de production)
Localisation : France (télétravail possible) – Capgemini


📌 Mission principale

Intégrer le pôle d’expertise dédié aux applications de production et aux solutions d’intégration de données. Vous serez le garant de la disponibilité, de la qualité et de la conformité des flux de données qui alimentent les processus de :

  • Traçabilité & contrôle qualité
  • Ordonnancement & maintenance
  • Analyse, reporting & amélioration continue

🛠️ Responsabilités clés

Domaine Activités
Support & exploitation • Gestion des incidents (industrialisation & production)
• Maintenance corrective & évolutive des plateformes existantes
Développement & intégration • Conception & déploiement de pipelines de données robustes & scalables
• Intégration de nouvelles solutions dans l’environnement actuel
Data Virtualisation • Création, optimisation et gouvernance des vues Denodo
• Mise en place d’API d’accès aux données
Collaboration • Travail étroit avec les équipes Data‑Science & BI (Tableau, Power BI)
• Participation aux revues d’architecture et aux ateliers d’amélioration
Qualité & conformité • Application des bonnes pratiques (sécurité, gouvernance, GDPR)
• Mise en place de tests automatisés et de monitoring des flux
Innovation Cloud • Exploitation de Databricks / PySpark sur Azure, AWS ou GCP
• Participation à la construction de data‑lakes & data‑warehouses

👤 Profil recherché

Compétence Niveau attendu
Formation Bac +5 : Ingénieur·e en informatique, data‑science ou équivalent
Langues Anglais professionnel (écrit & oral)
Data‑Virtualisation Expertise avérée sur Denodo (modélisation, performances, sécurité)
BI & Visualisation Maîtrise de Tableau Software et/ou Power BI
Programmation SQL avancé + Python (pandas, PySpark)
Big Data / Cloud Expérience avec Databricks, Azure, AWS ou GCP
Intégration Connaissance des outils ETL/ELT (Informatica, Talend, Azure Data Factory…)
Qualité & gouvernance Bonnes pratiques de data‑governance, sécurité, conformité (GDPR, ISO 27001)
Soft skills Esprit d’équipe, autonomie, capacité à gérer les priorités en contexte industriel

🌟 Pourquoi nous rejoindre ?

Thème Avantages
Qualité de vie Télétravail (France & à l’international), horaires flexibles, politique parentalité, mobilité durable
Développement professionnel Accès libre à certifications & formations, accompagnement par un career manager, parcours d’intégration de 9 mois
Avantages groupe & CSE Plan d’actionnariat, tarifs préférentiels sur activités, remboursement partiel des vacances, prise en charge d’abonnements sportifs ou culturels
Valeurs & engagements Culture inclusive & multiculturelle, environnement handi‑accueillant, initiatives solidaires, ambition de réduire l’impact environnemental du groupe

📄 Comment postuler ?

  1. Préparez votre CV en mettant en avant vos projets Denodo, Databricks/PySpark, et vos réalisations autour de data‑lakes / data‑warehouses.
  2. Rédigez une lettre de motivation qui illustre :
    • Votre expérience en environnement industriel pharmaceutique (ou similaire)
    • Votre capacité à travailler en mode support & amélioration continue
    • Votre appétence pour les technologies cloud et la data‑virtualisation
  3. Envoyez votre candidature à l’adresse : recrutement.digitalengineering@capgemini.com (ou via le portail interne Capgemini).

Capgemini s’engage à créer un environnement de travail où chaque talent peut s’épanouir, quels que soient son origine, son genre ou son handicap. Rejoignez‑nous pour contribuer à la transformation digitale d’un secteur stratégique tout en développant vos compétences au cœur d’une communauté internationale.

#LI-UC1


Besoin d’aide pour peaufiner votre CV ou votre lettre de motivation ?
N’hésitez pas à me le dire ! Je peux vous proposer un modèle ciblé sur les compétences clés de ce poste.

Requirements

  • Vous avez une expertise avérée avec Denodo, Tableau Software, et des outils dintégration de données.
  • Vous maîtrisez la programmation SQL et connaissez les principes de larchitecture des données ainsi que les bonnes pratiques en matière de gestion des données.
  • Vous avez une expertise avérée avec Databricks, PySpark et PowerBI, et avez une experience dans la conception et l'implémentation de data lakes et data warehouse
  • Vous maîtrisez la programmation Python et SQL, et connaissez des principes de l'architecture des données et des bonnes pratiques en matière de gestion des données
  • Vous êtes familiers avec les environnements cloud (Azure, AWS ou GCP)

Responsibilities

  • Support aux incidents en phase dindustrialisation et en phase de production.
  • Intégration de nouvelles solutions dans lenvironnement existant.
  • Maintenance corrective et évolutive des systèmes en place.
  • Conception et développement de pipelines de données robustes et scalables.
  • Mise en place et optimisation des vues et des intégrations avec Denodo.
  • Collaboration étroite avec les équipes Data Science et BI pour optimiser les flux de données.
  • Garantie de la qualité, sécurité et conformité des données traitées.

Benefits

certificationsformationsplan actionnariatactivités à tarifs préférentielsremboursement partiel vacancesremboursement de votre abonnement sportif ou culturel

Skills

AWSAzureDatabricksDenodoGCPPowerBIPythonPySparkSQLTableau Software

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free