Skip to content
mimi

DataOps & DevOps Engineer - Confirmé·e

JAKALA

Paris · On-site Contract 1w ago

About the role

À propos du poste

Au sein de notre practice Data & AI et en tant que Data Ops Engineer, tu joues un rôle clé dans la fiabilité, l’automatisation et la performance des pipelines de données.
Tu fais le lien entre les équipes Data Engineering, DevOps et les métiers pour assurer un accès fluide, sécurisé et optimisé aux données.
Tu joues un rôle crucial dans le succès de nos clients et dans le développement de notre culture en France. Tu contribues à renforcer notre réputation en tant qu’experts.

Ensemble, nous relèverons les plus grands défis de nos clients, anticiperons les tendances futures et créerons des solutions innovantes à l’échelle globale !

Missions

  • Déploiement et maintien des pipelines de données robustes (ETL/ELT) et environnements (intégration, recette, production)
  • Supervision de la qualité, la sécurité et la disponibilité des données dans les environnements Cloud (AWS / GCP / Azure)
  • Automatisation du déploiement des traitements et des modèles de données (CI/CD)
  • Monitoring et le support des jobs de production
  • Participation à la définition et au suivi des standards DataOps (versioning, tests, documentation, etc.)
  • Collaboration avec les équipes Data Engineering, Data Science et IT pour garantir la scalabilité et la performance des solutions déployées
  • Optimisation des coûts d’infrastructure liés à la donnée
  • Documentation des procédures, flux de données et configurations

Compétences requises

Techniques

  • Déploiement en environnement Cloud (GCP, AWS, Azure), en particulier des Datawarehouses tels que BigQuery, Snowflake ou Databricks
  • Principes CI/CD (Github action, Gitlab CI, Azure Devops) et de l’Infrastructure as Code (Terraform, Ansible, Docker, Kubernetes)
  • Outils de monitoring (Prometheus, Grafana, etc.) et de gestion des logs (ELK, Datadog…)
  • Outils d’orchestrations Airflow, Azure Data Factory, GCP Composer, Databricks workflow …

Serait un plus

  • Connaissance des outils de traitement de données : dbt, Spark, Kafka, etc.
  • Compétences en SQL, Python

Fonctionnelles

  • Compréhension des problématiques métiers autour de la donnée (data quality, sécurité, gouvernance)
  • Capacité à collaborer avec des profils variés (techniques et non-techniques)

Requirements

  • Déploiement en environnement Cloud (GCP, AWS, Azure), en particulier des Datawarehouses tels que BigQuery, Snowflake ou Databricks.
  • Principes CI/CD (Github action, Gitlab CI, Azure Devops) et de l’Infrastructure as Code (Terraform, Ansible, Docker, Kubernetes).
  • Outils de monitoring (Prometheus, Grafana, etc.) et de gestion des logs (ELK, Datadog…).
  • Outils d’orchestrations Airflow, Azure Data Factory, GCP Composer, Databricks workflow …
  • Connaissance des outils de traitement de données : dbt, Spark, Kafka, etc.
  • Compétences en SQL, Python
  • Compréhension des problématiques métiers autour de la donnée (data quality, sécurité, gouvernance).
  • Capacité à collaborer avec des profils variés (techniques et non-techniques).

Responsibilities

  • Déploiement et maintien des pipelines de données robustes (ETL/ELT) et environnements (intégration, recette, production)
  • Supervision de la qualité, la sécurité et la disponibilité des données dans les environnements Cloud (AWS / GCP / Azure).
  • Automatisation du déploiement des traitements et des modèles de données (CI/CD).
  • Monitoring et le support des jobs de production.
  • Participation à la définition et au suivi des standards DataOps (versioning, tests, documentation, etc.).
  • Collaboration avec les équipes Data Engineering, Data Science et IT pour garantir la scalabilité et la performance des solutions déployées.
  • Optimisation des coûts d’infrastructure liés à la donnée.
  • Documentation des procédures, flux de données et configurations.

Skills

AirflowAnsibleAzure Data FactoryAzure DevopsBigQueryDatabricksDatadogdbtDockerELKGCP ComposerGrafanaKafkaKubernetesPrometheusPythonSQLSparkSnowflakeTerraform

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free