Skip to content
mimi

Architecte et Développeur(se) Big Data

Davidson consulting

Bordeaux · On-site Full-time Yesterday

About the role

À propos de Davidson

Rejoindre Davidson, ce n’est pas seulement intégrer un groupe de 3000 consultants dans 6 pays et 2 continents, c’est intégrer LA société qui a été élue par ses salariés Great Place To Work France et Europe pendant 4 ans mais aussi une des plus grandes B Corp de France, nommée Best of the World dans la catégorie “collaborateurs” en 2022 !

Parce que notre développement repose sur des principes forts :

  • Un profond respect de l’ensemble de nos parties prenantes : consultant(e)s, clients et fournisseurs.
  • Une égalité des chances dans le traitement de nos candidatures et dans la gestion de carrière de nos salarié(e)s.
  • Une empreinte environnementale minimale, et sociétale maximale. C’est pourquoi, au-delà des missions que vous réaliserez, vous pourrez également contribuer à des projets que Davidson soutient : missions de solidarité internationale (avec Planète Urgence), bénévolat auprès d’associations (chaque Davidsonien(ne) dispose de 3 jours par an pour intervenir à leurs côtés), accompagnement d’étudiant(e)s issus de milieux peu favorisés (avec Article 1), investissement dans des startups développant des solutions innovantes, actions collectives et individuelles pour la réduction de notre impact carbone…
  • Un Management adhocratique basé sur la mise en œuvre des principes de “l’entreprise horizontale” et du “management tribal”.

Nous encourageons les candidatures de personnes en situation de handicap, et nous nous engageons à répondre au mieux à leurs besoins spécifiques.

Profil / Mission

Dans le cadre de projets Big Data menés par Davidson pour ses clients dans des secteurs variés (Gaming, Luxe, Télécoms, Finance, etc.), tu interviendras en tant qu’architecte et développeur(se) pour travailler sur des plateformes existantes ou en cours de construction.

Tes activités porteront sur des sujets variés tels que :

  • Veille et préconisation de technologies et outils
  • Conception et mise en œuvre de plateformes
  • Installation et déploiement de clusters logiciels
  • Conception et mise en œuvre de flux (mode batch ou temps réel) de données structurées/non structurées
  • Optimisation technique en termes de performance
  • Mise en œuvre du DevOps
  • Support à l’exploitation (sauvegardes, récupération, upgrades SW)
  • Capitalisation et animation de formation

Compétences requises ou à acquérir

  • Hadoop, Cloudera, HDFS, Pig, Hive, Flume, Spark, Elasticsearch, bases de données SQL et NoSQL (Cassandra …)
  • Un ou plusieurs langages parmi : Scala, Python, Java, etc
  • Docker et Kubernetes

Il te manque quelques-unes de ces compétences ? Pas grave : tu pourras apprendre aux côtés de nos Tech Leaders.

Aptitudes / Savoir-être

  • Esprit d’équipe et de partage
  • Curiosité
  • Rigueur
  • Anglais

Description du pôle Métiers de la donnée

La donnée est aujourd’hui un actif stratégique au cœur de la transformation digitale des entreprises et à la base de la création de multiples nouveaux services. Davidson dispose d’une expertise unique autour de la donnée qui lui permet d’intervenir de bout-en-bout pour ses clients, qu’ils soient data-driven ou cherchent « simplement » à valoriser leurs données.

Nos Métiers

  • Accompagnement à la mise en place d’une stratégie données
  • Architecture Big Data
  • Data visualisation
  • Data science

Notre Environnement Technique

  • Infrastructures & Stockage : Cloud (AWS, Azure, Google Cloud Platform), Cloudera,
  • MapReduce, Hortonworks, mongoDB, Hadoop, Cassandra, Splunk, Redis, CouchDB
  • Traitement de données : Spark, Scala, Kafka, Logstach, Elasticsearch, Hive, Storm, Flink
  • Analytics : R, Python, SPSS&SAS, TensorFlow, Sickit learn
  • Dataviz : grafana, dataiku, kibana, Tableau, Qlik, Outil propre JS
  • Devops & containers : Docker, puppet, Jenkins, Sonar, Openshift, Kubernetes, Ansible
  • Domaines : Machine Learning, Deep Learning

Skills

AWSAzureCassandraClouderaCouchDBDockerElasticsearchFlinkGCPGrafanaHadoopHiveJavaJenkinsKibanaKubernetesKafkaLogstashMapReduceMongoDBOpenshiftPuppetPythonQlikRRedisScalaSickit learnSparkSplunkSPSS&SASSQLTableauTensorFlowdataiku

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free