Skip to content
mimi

Data Engineer - Senior Consultant

JAKALA

Paris · On-site Contract Senior Today

About the role

À propos du poste

Au sein de notre practice Data & AI, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE/MLOps engineer déjà en poste et tu es impliqué.e dans la prise de décisions liée aux solutions Data et à son évolution.

Missions principales

  • Contribuer au développement de notre offre Data et à l’industrialisation de plateformes data pour nos clients
  • Comprendre, analyser et proposer des solutions techniques répondant aux besoins des Plateformes digitales et des projets internes
  • Définir l’architecture logiciel ETL / ELT en collaboration avec vos pairs
  • Travailler la donnée sous toutes ses formes (stockage, élaboration de modèles, structuration, nettoyage)
  • Rédiger de la documentation technique (diagrammes UML, documentation d’API, …)
  • Partager votre savoir-faire entre les différents membres de l’équipe
  • Concevoir et développer des connecteurs entre les sources de données (internes et/ou externes) et la plateforme
  • Concevoir et développer des pipelines de traitements de données (batch et/ou temps réel) dans un environnement Big Data
  • Assurer une veille technologique et savoir mener à bien un projet de R&D

Missions en autonomie (interne ou chez nos clients grands comptes)

  • Cartographier des données et des flux de données
  • Implémenter des algorithmes d’analyse de données pour l’industrialisation
  • Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)
  • Développer et automatiser des flux de données et leurs visualisations en dashboards, reporting
  • S’assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme
  • Analyser les données web pour répondre aux questions métiers et participer à la construction de l’architecture Big Data
  • Mettre en place du séquencement et de la supervision des flux précitées en gérant les cas limites

Compétences attendues

  • Bon niveau en développement: :
  • De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake)
  • De script ETL : DBT (ex. Snowflake, PostgreSQL)
  • Connaissance conception et administration d’entrepôt de données : Snowflake, Big Query, PostgreSQL
  • LakeHouse : Delta LakeConnaissance message broker, RabbitMQ, Kafka
  • Compétences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform)
  • Expérience d’architecture et de dimensionnement d’une architecture cloud via des services managés
  • Cartographie des données

Requirements

  • Bon niveau en développement
  • De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake)
  • De script ETL : DBT (ex. Snowflake, PostgreSQL)
  • Connaissance conception et administration d’entrepôt de données : Snowflake, Big Query, PostgreSQL
  • LakeHouse : Delta Lake
  • Connaissance message broker, RabbitMQ, Kafka
  • Compétences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform)
  • Expérience d’architecture et de dimensionnement d’une architecture cloud via des services managés
  • Cartographie des données

Responsibilities

  • Contribuer au développement de notre offre Data et à l’industrialisation de plateformes data pour nos clients
  • Comprendre, analyser et proposer des solutions techniques répondant aux besoins des Plateformes digitales et des projets internes
  • Définir l’architecture logiciel ETL / ELT en collaboration avec vos pairs
  • Travailler la donnée sous toutes ses formes (stockage, élaboration de modèles, structuration, nettoyage)
  • Rédiger de la documentation technique (diagrammes UML, documentation d’API, …)
  • Partager votre savoir-faire entre les différents membres de l’équipe
  • Concevoir et développer des connecteurs entre les sources de données (internes et/ou externes) et la plateforme
  • Concevoir et développer des pipelines de traitements de données (batch et/ou temps réel) dans un environnement Big Data
  • Assurer une veille technologique et savoir mener à bien un projet de R&D
  • Cartographier des données et des flux de données
  • Implémenter des algorithmes d’analyse de données pour l’industrialisation
  • Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)
  • Développer et automatiser des flux de données et leurs visualisations en dashboards, reporting
  • S’assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme
  • Analyser les données web pour répondre aux questions métiers et participer à la construction de l’architecture Big Data
  • Mettre en place du séquencement et de la supervision des flux précitées en gérant les cas limites

Skills

AWSAPI RestAzureBig DataConteneurisationDatabricksData WarehousesDBTDelta LakeFaaSGCPInfrastructure As CodeJavaKafkaKafka ConnectKubernetesLakeHousePandasPostgreSQLPythonPySparkRabbitMQSparkSnowflakeSOAPTerraform

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free