Descripción de la oferta
Senior Cloud Architect – ML Platform
Chi siamo
GANIGA è una startup deeptech italiana che sviluppa smart bins capaci di riconoscere e differenziare automaticamente i rifiuti. Combiniamo robotica, visione artificiale, AI e design industriale per creare prodotti robusti, scalabili e user-friendly, con l’obiettivo di rivoluzionare la raccolta differenziata e promuovere l’economia circolare.
Siamo un team giovane e dinamico, con mentalità startup: flessibili, veloci e orientati a creare impatto reale nel mondo.
Perché questo ruolo è importante
Cerchiamo un Senior Cloud Architect che diventi il punto di riferimento tecnico per l’intera infrastruttura di GANIGA, progettando un’architettura cloud-native su Google Cloud Platform capace di far scalare la nostra flotta di smart bins e le pipeline di visione artificiale. Sarai responsabile di implementare sistemi a microservizi ed event‑driven che permettano di addestrare e distribuire modelli AI in modo sicuro e veloce, garantendo osservabilità end‑to‑end e trasformando dati complessi in intelligenza operativa. Per noi GCP non è un semplice strumento ma il cuore pulsante del progetto, per questo cerchiamo un esperto che conosca la piattaforma nativamente e sappia governare l’intero ciclo di vita dei dati e dei modelli per supportare la nostra crescita tecnologica.
Responsabilità principali
Design e Governo Architetturale : Definire e governare i blueprint architetturali, focalizzandosi su microservizi, architetture event‑driven, data governance e principi di security‑by‑design.
Design e Implementazione MLOps : Progettare e implementare architetture per l’addestramento continuo (Continuous Training), il versioning e la distribuzione sicura dei modelli AI / Visione Artificiale in produzione (sia in cloud che Edge).
Pipeline Dati e Ingestione IoT : Costruire architetture cloud scalabili per l’ingestione, l’elaborazione e lo storage di grandi volumi di dati IoT / telemetria e, in particolare, i dati necessari per il training AI (immagini, metadati) tramite servizi event‑driven (es. Pub/Sub).
Stack Tecnologico GCP : Scelta, integrazione e supervisione dell’intero stack tecnologico in ambiente Google Cloud Platform (GCP), inclusi componenti di orchestrazione container (GKE) e soluzioni serverless.
Infrastruttura as Code (IaC) : Progettare e automatizzare l’infrastruttura tramite strumenti IaC (es. Terraform, Bicep, CloudFormation / CDK) per il provisioning e la gestione delle risorse, con particolare attenzione agli ambienti di calcolo ad alte prestazioni (GPU, TPU).
Sicurezza e Compliance : Definire e implementare le politiche di sicurezza (IAM, networking) per proteggere l’infrastruttura ML, i dataset sensibili e l’applicazione (OWASP best practice), garantendo autenticazione e protocolli sicuri.
Resilienza e Osservabilità : Collaborare con i team SRE / DevSecOps per garantire resilienza, performance, logging, monitoraggio robusto delle pipeline ML e osservabilità end‑to‑end. Definire i criteri di Business Continuity e i livelli di RTO / RPO.
Collaborazione Tecnica : Lavorare a stretto contatto con i Data Scientist e gli Ingegneri Software per supportare le loro esigenze infrastrutturali specifiche dell’AI e supportare il miglioramento continuo dei processi di rilascio, documentazione e knowledge transfer.
Ottimizzazione Costi : Ottimizzare continuamente i costi delle risorse di calcolo e storage in ambiente GCP.
Requisiti minimi
Esperienza : Solida esperienza (minimo 5 anni) nella progettazione e gestione di architetture cloud complesse, distribuite e in produzione.
Cloud : Competenza approfondita e documentata in Google Cloud Platform (GCP).
Architetture Distribuite : Ottima conoscenza dei pattern per microservizi, architetture multi‑tenant, architetture event‑driven e principi API‑first.
Containerizzazione e Orchestrazione : Comprensione solida e pratica di containerizzazione (Docker) e orchestrazione (Kubernetes / GKE).
IaC / Automazione : Esperienza pratica e padronanza nell’uso di strumenti IaC (Terraform) e scripting / programmazione per l’automazione (es. Python, Bash).
MLOps e Data Pipeline : Esperienza nella creazione o gestione di pipeline di dati e di Machine Learning (MLOps).
Sicurezza : Competenze solide su sicurezza applicativa, protocolli di autenticazione e best practice OWASP.
Lingua : Inglese fluente.
Plus / Preferenze (Forte interesse per GCP)
Certificazioni GCP : Certificazioni attive su Google Cloud Platform.
ML Compute : Esperienza specifica nell’allocazione e ottimizzazione di risorse di calcolo per l’addestramento di modelli di Deep Learning (GPU / TPU).
Strumenti MLOps : Esperienza con strumenti specifici di MLOps (es. Kubeflow, MLflow, DVC) e nell’integrazione di servizi LLM all’interno dell’ecosistema tecnologico.
IoT Cloud : Competenza in soluzioni IoT Cloud (es. Google Cloud IoT Core).
Soft skills & Mentalità
Mentalità da Startup : Flessibilità, adattabilità e capacità di prendere decisioni architetturali rapide ma informate.
Visione Strategica : Capacità di bilanciare le esigenze immediate del Data Science con la scalabilità a lungo termine della piattaforma.
Ownership : Forte ownership e responsabilità sull’affidabilità e la sicurezza dell’infrastruttura.
Comunicazione : Ottime capacità comunicative per spiegare architetture complesse a team multidisciplinari.
Proattività : Approccio proattivo al problem solving e al miglioramento continuo.
Lavoro ibrido : 3 giorni in ufficio 2 in smart (non siamo fiscali, vige il buon senso)
RAL 70k - 80k commisurati all’esperienza
#J-18808-Ljbffr