TR
Senior data ingénieur AWS Databricks
Tenth Revolution Group
Paris · On-site Contract Senior Today
About the role
About the role
Dans le cadre d’une croissance de ses activités Data & IA, je recrute pour un cabinet de conseil reconnu pour son expertise Databricks & AWS.
Vous interviendrez sur la conception et la mise en œuvre de plateformes data modernes pour des clients grands comptes et scale‑ups, avec un fort niveau d’exigence technique et d’innovation.
L’environnement est orienté cloud‑native, architecture moderne et industrialisation des pipelines data.
🎯 Vos missions
- concevoir et développer des data pipelines scalables
- travailler sur des architectures Data Lake / Lakehouse
- développer des traitements distribués avec Spark / Databricks
- contribuer à l’industrialisation des workflows data (DataOps / CI/CD)
- participer à la conception d’architectures cloud (AWS)
- optimiser performance, qualité et fiabilité des traitements data
- collaborer avec des équipes Data, ML et Architecture
🧠 Stack technique
- Cloud : AWS
- Data Engineering : Databricks, Spark
- Langages : Python, SQL (Scala apprécié)
- Data Lake / Lakehouse
- DevOps : Git, Terraform, Jenkins
- Containerisation : Docker, Kubernetes
- bonnes pratiques DataOps
👤 Profil recherché
- 4 à 8 ans d’expérience en Data Engineering
- expérience significative sur Databricks
- environnement AWS
- anglais professionnel (B2 minimum)
- background conseil ou ESN apprécié
- sensibilité architecture data moderne
- intérêt pour les sujets IA / ML est un plus
💡 Pourquoi rejoindre ce projet ?
- cabinet reconnu sur les sujets Databricks & AWS
- projets data modernes (plateformes cloud, ML, IA)
- forte croissance = perspectives d’évolution rapides
- environnement technique exigeant
- missions à forte valeur ajoutée
Requirements
- expérience significative sur Databricks
- environnement AWS
- anglais professionnel (B2 minimum)
- background conseil ou ESN apprécié
- sensibilité architecture data moderne
- intérêt pour les sujets IA / ML est un plus
Responsibilities
- concevoir et développer des data pipelines scalables
- travailler sur des architectures Data Lake / Lakehouse
- développer des traitements distribués avec Spark / Databricks
- contribuer à l’industrialisation des workflows data (DataOps / CI/CD)
- participer à la conception d’architectures cloud (AWS)
- optimiser performance, qualité et fiabilité des traitements data
- collaborer avec des équipes Data, ML et Architecture
Skills
AWSCI/CDDatabricksDataOpsDockerGitJenkinsKubernetesMLPythonSQLScalaSparkTerraform
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free