Un rapporto lancia l’allarme: pericolo hacker per la guida autonoma

L'agenzia europea ENISA lancia l'allarme sui sistemi di guida autonoma e sugli eventuali rischi che un guidatore può riscontrare qualora la sua vettura venisse hackerata.

Avatar di Luca Rocchi

a cura di Luca Rocchi

Managing Editor

L’Agenzia dell'Unione Europea per la Cybersecurity, conosciuta anche con il nome di ENISA, ha recentemente evidenziato come i veicoli dotati di sistemi di guida autonoma, sempre più diffusi tra le nostre strade, potrebbero venir compromessi e mettere quindi in pericolo gli occupanti, i pedoni e le persone di altri veicoli.

Il rapporto suggerisce alcuni scenari di possibili attacchi che potrebbero colpire i veicoli a guida autonoma; dalla compromissione dei sensori dedicati alla guida fino agli attacchi machine learning con il conseguente inquinamento dei dati di addestramento. Un vero e proprio sabotaggio “dietro le quinte” che potrebbe indurre il veicolo ad effettuare manovre non previste e quindi potenzialmente pericolose. A causa del difficile rilevamento da parte del guidatore, l’agenzia richiederà continue revisioni e verifiche del sistema di guida autonoma affinché sia completamente sicuro e privo di manomissioni di alcun genere.

Tra gli esempi indicati, ENISA sottolinea come una eventuale compromissione potrebbe rendere l’IA inaffidabile nei confronti dei pedoni e classificarli erroneamente, etichettandoli come elemento “invisibile” ai radar. Uno scenario davvero raccapricciante che, se sfruttato da eventuali terroristi, potrebbe portare a situazioni gravi e poco piacevoli.

La guida autonoma, per funzionare, deve operare costantemente con un gran numero di sensori e la presenza di una gran varietà di sistemi di rilevamento potrebbe aumentare considerevolmente le possibilità di compromettere un determinato dispositivo. Per questo motivo è necessario che il settore automobilistico sviluppi una vera e propria cultura alla sicurezza che aggiorni quindi costantemente i sistemi. A questo proposito ENISA precisa come la catena di sviluppo andrebbe interamente rivista in quanto non basterebbe apportare delle semplici modifiche in corso d’opera, ma sarebbe necessaria l’introduzione di un nuovo sistema di sviluppo realizzato dagli esperti di settore automobilistico, esperti di Machine Learning e naturalmente esperti di sicurezza informatica.

Nel corso degli anni, diversi ricercatori hanno dimostrato in più occasioni quanto sia facile ingannare il sistema di guida autonoma applicando semplicemente del nastro adesivo sulla segnaletica orizzontale e verticale, spingendo l’Autopilot di Tesla ad effettuare manovre completamente errate e prive di ogni fondamento.

Allo stato attuale la guida (completamente) autonoma non è ancora disponibile su strada pubblica e viene utilizzata soltanto da prototipi che viaggiano in aree delimitate. In commercio sono disponibili alcuni veicoli, come Mercedes Classe S, che forniscono un’assistenza di terzo livello che impone tuttavia una vigile attenzione da parte del conducente; per il livello 5, quello completamente autonomo, dovremmo attendere il 2030.

Leggi altri articoli