Skip to content
mimi

Data Engineer en alternance

Courir

Grenoble · Hybrid Internship Entry Level Today

About the role

🎯 Votre candidature « Data Engineer » – Courir (alternance, 2026)

Voici un kit complet que vous pouvez adapter immédiatement :

  • Une lettre de motivation percutante (1 page)
  • Un modèle de CV orienté Data Engineering (format chronologique)
  • 5 questions d’entretien typiques + réponses structurées
  • Une checklist pour la vidéo Visiotalent

Astuce : chaque document doit être personnalisé avec le nom du recruteur (Responsable Domaine BI) et les mots‑clés du descriptif (GCP, pipelines, monitoring, industrialisation, rigueur, curiosité).


1️⃣ Lettre de motivation (max 1 page)

Structure conseillée : 4 paragraphes – accroche, pourquoi Courir, pourquoi vous, appel à l’action.

[Prénom NOM]
[Adresse] • [Téléphone] • [E‑mail] • LinkedIn / GitHub
Grenoble, le [date]

Monsieur/Madame [Nom du Responsable],
Responsable Domaine BI
Groupe Courir
[Adresse du siège]

Objet : Candidature – Alternance Data Engineer (septembre 2026)

Madame, Monsieur,

Passionné(e) par les données depuis mon premier projet d’analyse de logs en Python, je suis actuellement étudiant(e) en Master Data Engineering à [Nom de votre école] (Bac+4). L’opportunité de rejoindre le Pôle Data & App Lab de Courir, leader français de la sneaker et pionnier d’une mode plus responsable, représente pour moi le cadre idéal pour mettre en pratique mes compétences techniques tout en contribuant à une ambition sociétale forte.

Ce qui m’attire particulièrement chez Courir, c’est la mise en place d’une **nouvelle plateforme data sur Google Cloud Platform**. Au cours de mon stage chez [Nom de l’entreprise] j’ai conçu et déployé des pipelines ETL sous **Apache Beam** et **Cloud Dataflow**, automatisé le monitoring via **Stackdriver** et assuré la qualité des données avec **Great Expectations**. Cette expérience m’a permis de maîtriser le cycle complet : ingestion, transformation, contrôle et mise en production, exactement les missions que vous décrivez (run & build).  

En parallèle, j’ai développé une solide expertise en **Python (pandas, sqlalchemy, airflow)** et en **SQL (BigQuery, PostgreSQL)**, ainsi qu’une bonne connaissance des bonnes pratiques d’industrialisation (CI/CD, tests unitaires, documentation). Curieux(se) et rigoureux(se), je suis habitué(e) à diagnostiquer rapidement les incidents, à proposer des actions correctives et à documenter chaque étape pour garantir la traçabilité et la scalabilité des pipelines.  

Intégrer Courir, c’est aussi rejoindre une équipe dynamique où l’innovation se conjugue avec la responsabilité (recyclage de sneakers, Octobre Rose). Je suis convaincu(e) que mon profil technique, mon goût pour le challenge et mon envie d’apprendre feront de moi un atout pour accélérer le déploiement de votre plateforme data et soutenir les futurs cas d’usage analytiques et IA.

Je serais ravi(e) de pouvoir vous exposer plus en détail ma motivation lors d’un entretien. Vous trouverez ci‑joint mon CV ainsi que le lien vers mon portfolio GitHub où sont disponibles plusieurs projets de pipelines GCP.  

Je vous remercie de l’attention portée à ma candidature et vous prie d’agréer, Madame, Monsieur, l’expression de mes salutations distinguées.

[Signature manuscrite (si envoi papier)]

[Prénom NOM]

À personnaliser :

  • Nom du responsable (si vous le connaissez).
  • Nom de votre école et de votre stage précédent.
  • Lien GitHub/portfolio (ex. https://github.com/nomutilisateur/data‑engineer‑projects).

2️⃣ Modèle de CV – Data Engineer (alternance)

Section Contenu recommandé (exemple)
En‑tête Prénom NOM – Adresse – Téléphone – E‑mail – LinkedIn – GitHub
Titre Alternant Data Engineer – GCP / Python / SQL
Formation Master Data Engineering – [École / Université], Grenoble – 2024‑2026 (prévu)
Matières clés : Cloud Computing, Big Data, Machine Learning, Architecture de données.
Licence Informatique – [Université], 2021‑2024
Expériences Stagiaire Data Engineer – [Nom de l’entreprise] – 6 mois (2025)
• Conception d’un pipeline d’ingestion de logs (Python + Cloud Pub/Sub → Dataflow → BigQuery).
• Mise en place du monitoring (Stackdriver) et alerting.
• Tests de qualité avec Great Expectations (coverage > 95 %).
Projet académique – “Analyse de ventes sneaker” – 3 mois (2024)
• Extraction de données depuis API Shopify, transformation sous pandas, chargement dans BigQuery.
• Tableau de bord Power BI pour le suivi des KPI.
Compétences techniques Langages : Python (pandas, airflow, sqlalchemy), SQL (BigQuery, PostgreSQL)
Cloud : GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub, Composer)
Outils : Git, Docker, CI/CD (GitHub Actions), Airflow, dbt, Great Expectations, Tableau/Power BI
Méthodes : ETL/ELT, Data Modeling, CI/CD, Monitoring, Documentation (Markdown, Confluence)
Projets personnels Pipeline open‑source – ingestion de données météo (Python + Airflow + BigQuery) – disponible sur GitHub.
Analyse de sentiment – tweets sneakers (Python + NLTK) – visualisation avec Streamlit.
Langues Français : langue maternelle
Anglais : professionnel (TOEIC = 860)
Centres d’intérêt Sneaker culture, sport (running), recyclage textile, hackathons data (Kaggle)
Références Disponible sur demande (ex. : Responsable stage – [Nom] – [Mail])

Conseils de mise en forme :

  • 1 page (max 2 si vous avez déjà plusieurs expériences).
  • Police claire (Calibri 11 ou Arial 10).
  • Utilisez des puces action‑résultat (ex. : “Réduit le temps de traitement de 30 % grâce à la parallélisation”).
  • Ajoutez un QR‑code vers votre portfolio GitHub (facultatif mais très moderne).

3️⃣ 5 questions d’entretien & réponses structurées (méthode STAR)

Question Réponse (exemple)
1. Pouvez‑vous nous parler d’un pipeline que vous avez construit et des défis rencontrés ? Situation : Stage chez [Nom] – besoin d’ingérer 10 M de logs journaliers.
Tâche : Concevoir un pipeline fiable et scalable.
Action : Utilisation de Cloud Pub/Sub pour la collecte, Dataflow (Apache Beam) pour la transformation, BigQuery pour le stockage. Mise en place du monitoring via Stackdriver et alertes sur les latences.
Résultat : Temps de latence passé de 45 min à 12 min, coût réduit de 20 % grâce à la mise en batch.
2. Comment assurez‑vous la qualité des données dans vos pipelines ? J’applique la triade : (1) Validation à l’entrée (schémas JSON, contraintes de type). (2) Tests de qualité avec Great Expectations (null‑checks, uniques, ranges). (3) Monitoring des métriques de qualité (taux d’erreurs, % de valeurs manquantes) et alertes automatisées.
3. Pourquoi le cloud (et plus précisément GCP) ? GCP offre une intégration native entre les services (Pub/Sub, Dataflow, BigQuery) qui simplifie l’orchestration. La facturation à la seconde et les options serverless permettent de scaler sans gestion d’infrastructure, idéal pour un environnement en forte croissance comme Courir.
4. Comment gérez‑vous un incident en production ? 1️⃣ Détection via alertes Stackdriver.
2️⃣ Analyse du log d’erreur et reproduction en environnement de test.
3️⃣ Correction (ex. : mise à jour du schéma, rollback).
4️⃣ Documentation de l’incident (cause, action, prévention).
5️⃣ Post‑mortem partagé avec l’équipe pour améliorer les SOP.
5. Quels sont vos objectifs d’apprentissage pendant cette alternance ? Maîtriser l’architecture data lake‑warehouse sur GCP, approfondir Airflow/Composer pour l’orchestration, développer des compétences en MLOps (déploiement de modèles IA) et contribuer à la culture data‑driven de Courir (ex. : automatiser les KPI de ventes).

4️⃣ Checklist vidéo Visiotalent (2 minutes)

Étape Détails
Pré‑production • Testez votre micro et webcam (lumière frontale, arrière‑plan neutre).
• Préparez un script de 150‑180 mots (≈ 2 min).
Structure 1️⃣ Intro : nom, formation, spécialité (Data Engineering).
2️⃣ Motivation : pourquoi Courir & GCP.
3️⃣ Compétences clés : Python, SQL, pipelines, monitoring.
4️⃣ Valeur ajoutée : projet concret + résultat chiffré.
5️⃣ Conclusion : enthousiasme, disponibilité, remerciements.
Ton & langage corporel • Souriez, regardez la caméra.
• Parlez clairement, rythme modéré.
• Gestes naturels, posture droite.
Post‑production • Revoyez la vidéo (pas de bruits de fond, bonne luminosité).
• Renommez le fichier : Prenom_Nom_Visiotalent.mp4.
Envoi • Suivez exactement les consignes de la plateforme (taille < 100 Mo, format MP4).
• Conservez une copie locale.

5️⃣ Derniers conseils avant l’envoi

  1. Mots‑clés : GCP, pipelines, monitoring, industrialisation, Python, SQL, rigueur, curiosité – assurez‑vous qu’ils apparaissent dans le CV et la lettre.
  2. Personnalisation : chaque phrase doit montrer que vous avez compris la mission (run & build) et la culture Courir (mode responsable, sneaker culture).
  3. Portfolio : ajoutez au moins 2 projets pertinents (pipeline GCP, data quality) avec README détaillé.
  4. Relisez : orthographe, ponctuation, cohérence des dates. Faites‑le relire par un pair ou un conseiller d’orientation.
  5. Suivi : 1 semaine après l’envoi, envoyez un mail de relance poli (objet : “Suivi candidature – Alternance Data Engineer”).

🎉 Vous êtes maintenant prêt(e) !

  • Copiez‑collez le modèle de lettre, remplissez vos infos, adaptez le CV.
  • Enregistrez votre vidéo Visiotalent en suivant la checklist.
  • Soumettez le tout via le portail de recrutement Courir et préparez les entretiens avec les réponses ci‑dessus.

Bonne chance ! Vous avez toutes les cartes en main pour convaincre le Responsable Domaine BI de Courir que vous êtes le futur Data Engineer qui fera décoller leur plateforme GCP. 🚀

Si vous avez besoin d’un relecture supplémentaire ou d’un exemple de projet GitHub à mettre en avant, n’hésitez pas à me le demander.

Requirements

  • Vous êtes étudiant(e) en Master Data / Informatique / Ingénierie (Bac+4/5).
  • Vous disposez de solides bases en Python et SQL.
  • Vous avez un fort intérêt pour les architectures data, le cloud et l’industrialisation des pipelines.
  • Vous faites preuve de rigueur, d’esprit analytique, de curiosité et d’une réelle envie d’apprendre, qualités clés du métier de Data Engineer.
  • Vous justifiez idéalement d’une première expérience (stage ou projet) en data engineering ou développement.

Responsibilities

  • Assurer le monitoring des pipelines et des traitements data.
  • Analyser et diagnostiquer les incidents, proposer des actions correctives.
  • Participer au debuggage, à la résolution des anomalies et à l’amélioration continue.
  • Contribuer au suivi de production et à la maintenance des flux et bases de données.
  • Construire et maintenir des pipelines de données.
  • Développer des traitements d’ingestion, transformation et qualité des données.
  • Participer à l’industrialisation des processus data et à l’automatisation des workflows.
  • Contribuer à la mise en place d’une architecture data scalable et robuste au sein de l’équipe Data (IT) en intégrant des bonnes pratiques de qualité et de documentation.

Benefits

formationsaccès illimité à notre plateforme e-learningtélétravailCarte Salarié qui offre -25%Carte Titre Restaurant SwilePaire de Sneakers de bienvenue offerte

Skills

GCPPythonSQL

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free