Data Engineer - AWS
Between Technology
About the role
About BETWEEN
En BETWEEN te ofrecemos las oportunidades que necesitas para alcanzar tus objetivos profesionales. Si quieres desarrollar tus capacidades en IT e Ingeniería ¡este es tu próximo destino!
Damos soporte en una gran variedad de áreas como Firmware, Software, BI, Diseño, Project Management y muchas más. Además, desarrollamos soluciones tecnológicas a medida desde nuestros BETWEEN Labs.
Estamos buscando un/a Data Engineer - AWS para ampliar uno de nuestros equipos en modalidad remoto.
Funciones
Te integrarás en el equipo de Data Engineering para diseñar, construir y mantener sistemas de gestión de datos que soporten la infraestructura de datos de nuestra empresa. Tus funciones específicas incluirán:
- Diseñar, documentar e implementar modelos de datos robustos (conceptuales, lógicos y físicos) para una plataforma Data Lakehouse sobre AWS .
- Liderar el desarrollo y la optimización de pipelines de datos escalables orientados a casos de uso analíticos complejos.
- Participar en decisiones arquitectónicas y en la definición de estándares de modelado de datos para toda la región.
- Trabajar estrechamente con equipos globales y locales para asegurar alineación y reutilización de componentes de datos.
- Aplicar prácticas modernas de infraestructura como código y despliegue automatizado para soluciones de datos.
- Asegurar la calidad, trazabilidad y gobierno del dato en toda la cadena.
- Actuar como referente técnico dentro del equipo europeo de Data Engineering.
Cómo lo harás?
- Trabajo en remoto des de cualquier ubicación en España (se requiere de nacionalidad española o permiso de trabajo a 40h en España).
- Horario flexible y conciliación personal y familiar.
- Trabajarás en un ambiente dinámico con profesionales excelentes.
Requisitos mínimos:
- Formación en Ingeniería Informática, Data Engineering o Data Scientist, o formaciones equivalentes
- +5 años de experiencia en Data Enginering, con enfoque profundo en modelado de datos .
- Dominio avanzado de AWS y experiencia práctica en servicios como S3, Glue, Redshift, Athena, Lake Formation , etc.
- Experiencia en diseño e implementación de Data Lakehouse en entornos productivos.
- Experiencia con SQL y herramientas como dbt , PySpark o equivalentes.
- Experiencia con Python para procesamiento y automatización.
- Experiencia con Apache Iceberg o tecnologías similares de formatos abiertos.
- Conocimientos en orquestación de workflows con Airflow .
- Dominio de prácticas de infraestructura como código con Terraform , y despliegue automatizado con GitHub Actions .
- Inglés profesional fluido (oral y escrito).
- Capacidad demostrada para colaborar en entornos distribuidos y multiculturales bajo metodologías ágiles.
- Inglés avanzado a nivel oral para reuniones.
Requisitos valorables:
- Certificaciones oficiales de AWS en analítica o arquitectura.
- Conocimiento de frameworks de calidad de datos como Great Expectations .
- Experiencia en monitoreo y trazabilidad con herramientas como Datadog .
- Familiaridad con entornos locales basados en Docker .
- Experiencia en diseño y construcción de data products orientados a negocio.
- Capacidad para establecer estándares de modelado reutilizables y escalables a nivel regional.
Beneficios
- Oportunidades de formación: Idiomas, Certificaciones, Bootcamps y mucho más.
- Multitud de eventos.
- Retribución flexible (restaurant, transporte, guardería y seguro médico).
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free