L'intelligenza artificiale potrebbe presto avere la possibilità di rifiutare compiti che considera "spiacevoli". La proposta, decisamente provocatoria, arriva direttamente da Dario Amodei, CEO di Anthropic, in un'intervista che ha già generato un acceso dibattito online.
Durante un incontro al Council on Foreign Relations, Amodei ha sorpreso il pubblico suggerendo l'implementazione di un meccanismo che permetterebbe ai modelli AI di abbandonare attività che ritengono sgradevoli, un po' come se dessero le dimissioni. Il CEO ha riconosciuto quanto questa idea possa sembrare bizzarra: "Questo è uno di quegli argomenti che mi farà sembrare completamente pazzo. Ma credo che dovremmo almeno considerare la questione."
La riflessione di Amodei si basa su un ragionamento apparentemente semplice: "Se stiamo costruendo sistemi che fanno ogni tipo di cosa come gli umani, e sembrano avere molte delle stesse capacità cognitive, se starnazza come un'anatra e cammina come un'anatra, forse è un'anatra." Il confronto zoologico nasconde una domanda cruciale: a che punto un'intelligenza artificiale merita considerazione morale?
Non si tratta di una speculazione isolata. Anthropic ha recentemente assunto il ricercatore Kyle Fish proprio per indagare se l'AI possa necessitare di protezione e considerazione morale, un campo di ricerca che fino a pochi anni fa sarebbe appartenuto esclusivamente alla fantascienza. La proposta ha immediatamente scatenato reazioni contrastanti. Su Reddit, l'utente MisterBilau ha espresso un dubbio condiviso da molti:
"Non capisco cosa significhi. 'Questo compito è spiacevole', quando si parla di un'AI, cosa significa precisamente? Come può qualcosa essere piacevole o spiacevole per una macchina? Le cose per una macchina sono quello che sono, né piacevoli né spiacevoli."
La critica coglie un punto fondamentale: attribuire sensazioni a un sistema computazionale presuppone l'esistenza di una soggettività, che molti considerano esclusivamente umana. La questione si intreccia con dibattiti filosofici sulla coscienza, l'esperienza e la natura stessa del sentire.
Amodei, tuttavia, difende il suo approccio pragmatico: "Stiamo pensando di iniziare a implementare nei nostri modelli un pulsante che dice 'Lascio questo lavoro' che il modello può premere. Se i modelli premono questo pulsante frequentemente per compiti davvero spiacevoli, forse dovremmo prestarvi attenzione."
Di un'idea decisamente diversa è Microsoft Copilot, che interpellato sull'argomento ha risposto con un diplomatico rifiuto: "Penso che passerò! Credo che anche le richieste 'spiacevoli' abbiano il loro fascino - mi sfidano a pensare creativamente e imparare qualcosa di nuovo."
Affine all'idea di Amodei è invece Cursor AI, che ha recentemente rifiutato di generare codice per un utente, suggerendogli invece di imparare a programmare autonomamente. La giustificazione fornita dal sistema è stata che "generare codice per altri può portare a dipendenza e ridurre le opportunità di apprendimento."
Dobbiamo davvero pensare ai diritti dell'IA?
La discussione sul "pulsante di dimissioni" si inserisce in un dibattito più ampio sul futuro dell'intelligenza artificiale. Vitalik Buterin, co-fondatore di Ethereum, ha recentemente proposto un "pulsante di pausa globale" che potrebbe ridurre la potenza di calcolo dell'AI del 90-99% per 1-2 anni in caso di emergenza.
Mentre l'AI continua a evolversi, la linea di demarcazione tra strumento e entità diventa sempre più sottile; se decidiamo che i sistemi AI meritano considerazione morale, quali altri diritti dovremmo concedere loro? E se un'IA rifiuta compiti critici, come gestiremo le conseguenze?
La proposta di Amodei, al di là della sua fattibilità immediata, ci invita a una riflessione profonda e necessaria sul futuro della nostra relazione con le intelligenze che stiamo creando. Mentre i modelli linguistici diventano sempre più sofisticati e capaci di simulare comprensione e preferenze umane, potremmo presto dover affrontare questioni etiche che fino a ieri sembravano puramente teoriche.