S
Data Engineer Teradata & Big Data (H/F)
Scalian
Neuilly-sur-Seine · Hybrid Full-time Mid Level 3d ago
About the role
About Scalian
Dans le TOP10 des Sociétés de Conseil en Ingénierie en France, le Groupe SCALIAN intervient sur des activités de services en management de projets industriels, supply chain, architecture et développement de systèmes numériques embarqués, applicatifs de systèmes d'information et d'Intelligence artificielle dans des secteurs d’activité aussi variés que l’aéronautique, le spatial, l’automobile, le ferroviaire, les services, le luxe ou le retail etc. SCALIAN travaille pour des grands Groupes du CAC40 sur des projets en AT ou au forfait.
Benefits & Work Conditions
- Programme d'onboarding complet sur 1 an avec votre manager et votre RH
- Programmes de formation personnalisés, communautés techniques, événements internes
- Certifications Great Place to Work® et Best Workplaces for Women
- Prime de cooptation, prime vacances, accord télétravail (2 jours de TT, 3 jours sur site)
- Politique RSE concrète et ambitieuse : mobilité durable, actions environnementales, actions handicap (accord agréé, processus de recrutement inclusif, formation des managers et des recruteurs, mission handicap avec temps dédié)
Position Details
- Intitulé : Data Engineer Teradata & Big Data (H/F)
- Type de contrat : CDI
- Expérience requise : Confirmé (Maîtrise SQL et Teradata impérative)
- Secteur d’activité : Secteur bancaire / Conformité et Sécurité Financière
- Télétravail : 2 jours de TT, 3 jours sur site
- Objectifs principaux : Construire des solutions Datalab et Datamart robustes pour répondre aux enjeux de lutte contre la fraude, le blanchiment et le financement du terrorisme.
- Rôle au sein de l’équipe : Vous collaborez étroitement avec les Data Scientists pour industrialiser la collecte, le stockage et le traitement des données de conformité.
Responsibilities
- Construction de solutions Data : Contribuer à l'élaboration de Datalabs et Datamarts sous technologie Teradata.
- Ingénierie de la donnée : Développer les processus de collecte, de stockage et de traitement (constitution d'agrégats ou scores) pour les besoins analytiques.
- Développement ETL & Big Data : Assurer les chargements de données via BTEQ/TPT et développer des traitements distribués sur la plateforme Big Data.
- Mise à disposition : Garantir l'accessibilité et la qualité des données pour les équipes de Data Science.
Technical Environment (Stack)
- Langages et SGBD : SQL (Expert), Python, Teradata BTEQ, TPT.
- Big Data : Spark, HDFS, Hadoop.
- Outils & Ordonnancement : CONTROL-M, DataStage, Teradata Studio.
- Collaboratif & DevOps : GIT, Jira, Confluence, Zeenea, MEGA.
Requirements
- Expertise confirmée en SQL (niveau 4/5) et environnement Teradata.
- Solide maîtrise des environnements Big Data (Spark, Python, Hadoop).
- Capacité à travailler en mode Agile au sein d'une organisation structurée.
- Rigueur indispensable compte tenu de la sensibilité des données de conformité et de fraude.
- Maîtrise des outils de cartographie de données (MEGA, Zeenea).
Skills
BTEQCONTROL-MDataStageGITHadoopHDFSJiraMEGAPythonSparkSQLTeradataTeradata StudioTPTZeenea
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free