Databricks DevOps Engineer – Freelance / P.IVA
S2E | Business Technology Consultants
About the role
S2E è un’azienda italiana di consulenza in ambito Business Technology, all’avanguardia nell’innovazione tecnologica nei settori Fintech, Insurtech e Cybertech. Con oltre 400 collaboratori, sede principale a Milano e uffici a Roma, Lecce, Lussemburgo, riprogetta, personalizza e sviluppa soluzioni digitali per il business delle imprese che operano in particolare nei settori finance, telecom, retail, energy and oil, industry.
S2E è un’azienda attenta alle pari opportunità. Celebriamo la diversità e ci impegniamo a creare un ambiente inclusivo per tutti i dipendenti.
Siamo alla ricerca di un/una DevOps Engineer con solida esperienza su Databricks per entrare a far parte del nostro team Data & Analytics. La figura sarà responsabile della gestione, dell'ottimizzazione e dell'automazione dell'intera piattaforma dati basata su Databricks, collaborando strettamente con i team di data engineering e data science.
Responsabilità: • Gestione e ottimizzazione dell'infrastruttura Databricks (workspace, cluster, job, Unity Catalog) • Progettazione e mantenimento di pipeline CI/CD per il deploy automatizzato di notebook, job e workflow Databricks • Integrazione di Databricks con servizi cloud (Azure Data Factory, AWS Glue, GCP Dataproc) e strumenti di orchestrazione • Implementazione e gestione di MLflow per il tracking degli esperimenti e il deploy di modelli ML in produzione • Monitoraggio delle performance dei job Spark e ottimizzazione dei costi cloud • Definizione di standard DevOps, best practice e documentazione tecnica • Supporto al team nella risoluzione di problemi infrastrutturali e nella migrazione di workload • Collaborazione con il team presales per la definizione di architetture e stime di effort
Competenze richieste: • 3–5 anni di esperienza in ruoli DevOps o Data Engineering • Esperienza comprovata con Databricks: cluster management, job scheduling, Databricks Asset Bundles o dbx • Conoscenza approfondita di Apache Spark (tuning, ottimizzazione query, gestione risorse) • Esperienza con pipeline CI/CD: GitLab CI o GitHub Actions applicati a progetti dati/Databricks • Buona conoscenza di almeno uno dei principali cloud provider: Azure (preferito), AWS o GCP • Esperienza con MLflow: experiment tracking, model registry, deployment • Familiarità con Infrastructure as Code (Terraform o Pulumi) • Conoscenza di Python a livello script/automazione
Gradite • Certificazione Databricks (Certified Associate Developer o superiore) • Esperienza con Delta Lake e Lakehouse architecture • Conoscenza di strumenti di orchestrazione (Apache Airflow, Prefect, Dagster) • Esperienza con container (Docker, Kubernetes) • Familiarità con strumenti di monitoring (Datadog, Grafana, Elastic) • Esperienza in contesti di consulenza o progetti multi-cliente
COSA SIGNIFICA FAR PARTE DEL TEAM S2E • Lasciare il segno! Farai parte di un team collaborativo e intraprendente • Crescere professionalmente perché seguiamo un processo continuo di scouting tecnologico e di miglioramento individuale ed un continuo training on the job • Work-life balance : Diamo valore agli obiettivi raggiunti e ci impegniamo per creare un ambiente di lavoro sereno • Essere proattivi ed orientati al problem solving
COSA TROVERAI IN S2E • Team di lavoro friendly, open-minded e collaborativi • Progetti in crescita, innovativi e sfidanti su tutti gli ambiti applicativi • Scouting di nuove tecnologie
IL TUO RAPPORTO DI LAVORO CON S2E • Disponibilità a collaborare in regime di Partita IVA . • Formazione hard e soft skills online • Orario flessibile , in base alle esigenze di progetto e/o di servizio
SEDE DI LAVORO • Full Remote
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free