Google ha presentato una serie di avanzamenti nella ricerca robotica, introducendo AutoRT, SARA-RT e RT-Trajectory. AutoRT utilizza modelli linguistici per addestrare i robot, e include una "Costituzione Robotica" ispirata alle Leggi della Robotica di Asimov. In sette mesi di test, 53 robot AutoRT sono stati impiegati con successo in ambienti dove erano presenti anche esseri umani.
La "Costituzione Robotica" impedisce ai robot di intraprendere compiti che coinvolgono umani, animali, oggetti appuntiti e apparecchi elettrici. Ulteriori misure di sicurezza includono uno stop automatico in caso di eccessiva forza sulle articolazioni e un interruttore di “arresto umano”. Questo sistema mira a garantire che i robot siano sicuri e rispettino standard etici.
L’idea è di realizzare robot che si possano utilizzare in ambienti lavorativi (ma non solo), ma con la sicurezza che la macchina non costituisca un pericolo per le persone. Nessuno vuole un aiuto cuoco che potrebbe ferirti perché non capisce che deve fermarsi se c’è un rischio. Non è difficile immaginare situazioni possibili, come per esempio robot che riempiono gli scaffali di un supermercato in orario di apertura, con i clienti che fanno la spesa.
SARA-RT rende i modelli Transformer di Google più efficienti, migliorando la velocità e la precisione. La sua innovativa tecnica di "up-training" riduce la complessità computazionale, aumentando la velocità della decisione senza compromettere la qualità. Questo approccio può essere applicato su vasta scala, potenzialmente rivoluzionando l'uso della tecnologia Transformer.
RT-Trajectory aggiunge outline 2D per migliorare le prestazioni dei robot in specifici compiti fisici, come pulire un tavolo. Utilizzando dati di allenamento arricchiti da queste traiettorie, il modello RT-Trajectory ha superato significativamente le performance dei modelli esistenti in compiti non visti precedentemente.
AutoRT, SARA-RT e RT-Trajectory, insieme, promettono di creare robot più intelligenti, sicuri ed efficienti. La finalità è quella di avere macchine che possono comprendere ed eseguire una varietà di comandi complessi, come “pulisci la casa” o “prepara il pranzo”. Allo stesso tempo, la "Costituzione Robotica" serve e fissare il limiti d’azione delle macchine, per assicurarsi che non siano pericolosi. Uno stratagemma che vuole aprire la strada a una nuova era di automazione responsabile.
Leggi e autoregolamentazione
Quello di Google è un chiaro tentativo di autoregolamentazione, qualcosa che si può vedere come un modo per andare oltre i limiti di leggi come l’AI Act Europeo (anche altri paesi stanno sviluppando regole sul tema).
Sicuramente ci sono dettagli che le leggi non riescono a coprire, perché per loro natura arrivano dopo una nuova tecnologia, ed è molto raro che una legge possa in qualche modo giungere in anticipo rispetto a una novità tecnologica.
D’altra parte esistente una separazione abbastanza netta autoregolamentazione e leggi: spesso e volentieri si invoca la prima per evitare le seconde. Anche nella storia recente, il dogma dell’autoregolamentazione è stato un trucchetto per evitare regole serie.
Finché si trattava di fiscalità o norme sul lavoro, siamo stati spesso pronti ad accettare il compromesso in nome della libertà delle aziende. Ma forse ora sta succedendo qualcosa di diverso: se è necessario stabilire standard etici e morali, che sostengano le fondamenta della sicurezza robotica, allora forse si sollevano dubbi riguardanti l'efficacia di tali norme nell'ambito di interessi commerciali.
Nella natura delle corporation come Google c’è la ricerca di profitto, e rispetto ad essa tutto è secondario - compresa la sicurezza. Per questo sono necessarie regole esterne che rimettano nel giusto ordine le priorità.
Bene dunque che Google abbia la sua Costituzione Robotica. Sicuramente può aggiungere un tassello al difficile mosaico che stiamo cercando di realizzare intorno all'Intelligenza Artificiale. Ma non potrà mai sostituire delle vere leggi, che vanno approvate e fatte rispettare per la sicurezza di tutti noi.
La sfida consiste nel trovare un equilibrio tra l'autonomia delle aziende nella definizione delle proprie regole e la necessità di standard globali vincolanti. Questo richiede un dialogo aperto tra il settore privato, il pubblico e le istituzioni normative. Solo attraverso una collaborazione trasparente e una governance responsabile sarà possibile plasmare un futuro in cui la sicurezza delle IA e dei robot si sposa armoniosamente con le esigenze etiche della società. In questo contesto, l'autoregolamentazione può diventare uno strumento significativo solo se integrata in un quadro normativo più ampio, garantendo che gli interessi collettivi prevalgano sulle prospettive individuali.