I rilevatori di testi scritti da IA sono tutt'altro che affidabili

Per identificare i testi scritti dall'IA, molti si stanno fidando a dei rilevatori automatici, ma questi strumenti sono tutt'altro che affidabili.

Avatar di Marina Londei

a cura di Marina Londei

Editor

Fin da quando ChatGPT è arrivato sul mercato, molte realtà si sono poste il problema di riuscire a individuare i contenuti, in particolare testi, generati dall'intelligenza artificiale.

Il problema è emerso non solo in ambito scolastico, accademico o di ricerca, ma in tutti quei settori in cui la generazione di testi rischia di poter essere relegata all'IA per velocizzare le attività. 

Tanti quindi hanno cominciato a utilizzare i rilevatori di IA, strumenti in grado di capire se un testo è stato scritto da un chatbot o da un umano. Ma ne sono davvero capaci?

A quanto pare, secondo quanto riportato da Jodie Cook, fondatrice di Coahvox AI, questi strumenti sono ben lontani dallo svolgere correttamente il proprio lavoro e stanno continuando a commettere errori grossolani a dir poco. 

Tra i risultati più assurdi dei detector c'è quello che ha decretato che la Dichiarazione di Indipendenza degli Stati Uniti è stata scritta per il 98,51% dall'intelligenza artificiale, per non parlare della Bibbia che, secondo diversi rilevatori, è per il 98,9% scritta da IA. 

Se questi strumenti non riescono a capire che un testo è stato scritto da esseri umani, allora non possiamo ritenerli affidabili neanche quando gli sottoponiamo un testo effettivamente generato da IA. 

Al momento, secondo molti esperti di tecnologia e content creator, non è possibile usare i detector per capire con certezza l'origine di un contenuto, e il modo più sicuro è valutarlo in prima persona. Come? Facendo attenzione alla presenza di errori logici o di conoscenza, ma non solo: i generatori di testi tendono a inserire introduzioni eccessivamente lunghe, a ripetere i concetti e a inserirne di generici, oppure a usare espressioni strane e non di uso comune.

Giovana Penatti, content creator, ritiene che "L'IA dovrebbe essere usata come uno strumento per produrre contenuti di alta qualità, ma non deve essere responsabile dell'intero processo creativo", supportando l'idea che questa tecnologia dovrebbe essere un complemento delle capacità umane, senza sostituirle.

Se è vero che oggi siamo in grado di capire se un contenuto è generato da IA, nei prossimi anni potrebbe non essere così semplice: se la tecnologia continuerà a migliorare al passo attuale, i testi generati potrebbero diventare indistinguibili da quelli scritti da umani.

Secondo Cook e molti altri, man mano che gli strumenti di IA generativa creeranno contenuti sempre più di qualità, non sarà più importante sapere se i testi sono generati da IA; l'importante è che non contengano errori e siano in grado di spiegare, persuadere o intrattenere, qualsiasi sia lo scopo iniziale di chi ha scritto il prompt.

A prescindere da come la si pensi, una cosa è certa: i testi generati dovranno essere sempre indicati in modo chiaro come tali e dovranno citare l'autore o gli autori dei contenuti da cui hanno preso spunto per tutelare la proprietà intellettuale. 

 

Leggi altri articoli