G_
Data Engineer Big Data (Java / Spark)
GEC _ Global Experts Consulting
France · On-site Contract Mid Level Yesterday
About the role
About
Notre client recherche un Data Engineer Big Data (Java / Spark) afin de renforcer ses équipes au sein de la DSI d’un grand groupe du secteur bancaire. La mission s’inscrit dans le cadre de l’évolution d’un socle data hybride, combinant un DataLake on‑premise et cloud Azure, avec pour objectif de répondre aux besoins métiers liés à l’analyse, à la valorisation et à l’exposition des données.
Responsibilities
- Intégration et traitement des données dans un DataLake (on‑premise et Azure)
- Analyse et valorisation des données
- Exposition des données via API, cubes ou interfaces
- Support et maintien en condition opérationnelle
- Participation aux phases de tests, UAT et mises en production
- Rédaction de la documentation technique
- Gestion des releases et suivi des déploiements
Technical Environment
- Langages & Data : Java, Spark
- Orchestration : Airflow
- Cloud : Azure
- Data & BI : SQL Server (SSIS, SSAS, SSRS)
- DevOps : Docker, Kubernetes
- Outils : Jenkins, GitHub, Sonar
Desired Expertise
Compétences techniques
- Expérience en Data Engineering (4 à 8 ans)
- Très bonne maîtrise de Java et Spark (critère indispensable)
- Bonne connaissance des environnements Big Data
- Sensibilité aux problématiques de qualité et de performance
Compétences organisationnelles
- Expérience en environnement agile
- Capacité à évoluer dans un contexte exigeant
Profil
- Bon niveau d’anglais
- Autonomie et rigueur
- Capacité d’analyse et de résolution de problèmes
- Bon relationnel et esprit d’équipe
Mobility
- 4 jours de présence sur site (92 ou 94)
Requirements
- Expérience en Data Engineering (4 à 8 ans)
- Très bonne maîtrise de Java et Spark
- Bonne connaissance des environnements Big Data
- Sensibilité aux problématiques de qualité et de performance
- Expérience en environnement agile
- Capacité à évoluer dans un contexte exigeant
- Bon niveau d’anglais
- Autonomie et rigueur
- Capacité d’analyse et de résolution de problèmes
- Bon relationnel et esprit d’équipe
Responsibilities
- Intégration et traitement des données dans un DataLake (on-premise et Azure)
- Analyse et valorisation des données
- Exposition des données via API, cubes ou interfaces
- Support et maintien en condition opérationnelle
- Participation aux phases de tests, UAT et mises en production
- Rédaction de la documentation technique
- Gestion des releases et suivi des déploiements
Skills
AirflowAzureDockerGitHubJavaJenkinsKubernetesSQL ServerSparkSSASSSISSSRSSonar
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free