Che robot e intelligenze artificiali ci sostituiranno prima o poi al lavoro è ormai assodato ed è solo una questione di tempo, ma solitamente si è portati a pensare che questo accadrà soprattutto per i lavori manuali e non per quelli più "alti" o di concetto. Almeno fino ad oggi. Open AI, una startup non profit di ricerca nel campo dell'intelligenza artificiale, finanziata tra gli altri anche da Elon Musk ha infatti annunciato di aver messo a punto un'IA così brava a scrivere testi credibili per coerenza contenutistica e formale, da aver deciso di non pubblicare lo studio come invece fa solitamente, per paura che i risultati possano essere impiegati nella maniera sbagliata.
GPT2, questo il nome dell'IA, riesce infatti a produrre testi che sembrano scritti da un essere umano, a partire semplicemente da poche righe di un testo reale, che sia un articolo del Guardian sulla Brexit o 1984 di Orwell.
Dal punto di vista della ricerca pura, GPT2 è all'avanguardia per almeno due motivi. Uno per le sue dimensioni: come spiega infatti il direttore della ricerca di Open AI, Dario Amodei, "i modelli usati sono 12 volte più grandi, e il dataset 15 volte più grande e molto più ampio" rispetto allo stato dell'arte dei modelli precedenti. L'IA infatti è stata addestrata con un dataset di circa 10 milioni di articoli, selezionati scegliendo i link con più di tre voti presenti su Reddit. Una collezione così vasta da occupare circa 40 GB, sufficienti ad ospitare ad esempio circa 35.000 copie di Moby Dick.
Ovviamente poi tale quantità ha anche portato a un livello qualitativo del risultato mai raggiunto prima, tanto appunto da spingere i ricercatori a tenere sostanzialmente segreti i dettagli della ricerca, almeno fino a quando non si saranno fatti tutti gli esperimenti possibili per capire cosa si può e cosa non si può fare con questo strumento. Sono in molti infatti potenzialmente a poter utilizzare le capacità di questa IA in modo sbagliato, sfruttandola ad esempio per realizzare false recensioni e giudizi positivi di un prodotto o di un locale, ma anche produrre spam e fake news.
Ovviamente non bisogna fraintendere: serviranno ancora anni, forse decenni, prima che le IA siano in grado di scrivere interi libri, e non soltanto perché è difficile mantenere una certa coerenza di stile e contenuti per testi lunghi, ma anche perché in quel caso subentra la creatività umana e la capacità di creare metafore, ossia livelli di discorso gerarchizzati dove il primo rimanda a quello più ampio e profondo. Tuttavia la strada ormai è aperta e i ricercatori fanno bene e volerne investigare prima tutte le possibili implicazioni.