Skip to content
mimi

Data Engineer Python (IT)

Signe +

Lyon · Hybrid Contract Yesterday

About the role

Missions

  • Développer et maintenir des produits data avec des contrats clairement définis.
  • Concevoir et maintenir des pipelines de données batch et event-based.
  • Construire des pipelines Polars hautement performants.
  • Supporter et optimiser des workflows à grande échelle sur Databricks.
  • Mettre en place des processus robustes d'ingestion, de transformation et de validation des données, en visant performance, scalabilité et résilience.
  • Garantir une haute qualité de données grâce à des validations et des tests automatisés.
  • Gérer les composants de stockage et data lake de Azure Cloud conformément aux standards internes.
  • Contribuer à l'automatisation CI/CD GitLab et assurer une haute qualité du code Python produit.

Compétences

  • Forte expertise en Python (clean architecture, performance, tests).
  • Expérience dans la création de data pipelines en Python.
  • Expérience avec des bibliothèques de traitement de données : Polars, Pandas, Databricks, DBT, etc.
  • Maîtrise d'outils d'orchestration de workflows : Prefect, Airflow, Dagster.
  • Solide compréhension du data modeling et du design de schémas.
  • Connaissance des bonnes pratiques d'ingénierie logicielle : CI/CD, code review, tests automatisés.

Soft skills

  • Excellentes compétences en résolution de problèmes, autonomie, envie d'apprendre.
  • Forte attention portée à la qualité et à la fiabilité des données.
  • Aisance dans des environnements d'ingénierie collaboratifs.
  • Capacité à documenter et communiquer clairement des concepts techniques.

Les compétences techniques priment sur le nombre d'années d'expérience.

2J TT/semaine

Compétences techniques requises

  • Python
  • Azure Databricks
  • CICD
  • Pandas
  • GitLab

Profil candidat

Missions

  • Développer et maintenir des produits data avec des contrats clairement définis.
  • Concevoir et maintenir des pipelines de données batch et event-based.
  • Construire des pipelines Polars hautement performants.
  • Supporter et optimiser des workflows à grande échelle sur Databricks.
  • Mettre en place des processus robustes d'ingestion, de transformation et de validation des données, en visant performance, scalabilité et résilience.
  • Garantir une haute qualité de données grâce à des validations et des tests automatisés.
  • Gérer les composants de stockage et data lake de Azure Cloud conformément aux standards internes.
  • Contribuer à l'automatisation CI/CD GitLab et assurer une haute qualité du code Python produit.

Compétences

  • Forte expertise en Python (clean architecture, performance, tests).
  • Expérience dans la création de data pipelines en Python.
  • Expérience avec des bibliothèques de traitement de données : Polars, Pandas, Databricks, DBT, etc.
  • Maîtrise d'outils d'orchestration de workflows : Prefect, Airflow, Dagster.
  • Solide compréhension du data modeling et du design de schémas.
  • Connaissance des bonnes pratiques d'ingénierie logicielle : CI/CD, code review, tests automatisés.

Soft skills

  • Excellentes compétences en résolution de problèmes, autonomie, envie d'apprendre.
  • Forte attention portée à la qualité et à la fiabilité des données.
  • Aisance dans des environnements d'ingénierie collaboratifs.
  • Capacité à documenter et communiquer clairement des concepts techniques.

Les compétences techniques priment sur le nombre d'années d'expérience.

2J TT/semaine

Compétences techniques requises

  • Python
  • Azure Databricks
  • CICD
  • Pandas
  • GitLab

Skills

AirflowAzure DatabricksCI/CDDagsterDatabricksDBTGitLabPandasPolarsPrefectPython

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free