L'integrità del sistema educativo è a rischio: quasi nessun docente riconosce testi scritti con l'IA

ChatGPT sta minando l'integrità del sistema educativo, con un impatto devastante sulle scuole e le università. Cosa si può fare?

Avatar di Andrea Riviera

a cura di Andrea Riviera

Managing Editor

ChatGPT sta minando l'integrità del sistema educativo, con un impatto devastante sulle scuole e le università. A due anni dal suo debutto pubblico, l'intelligenza artificiale viene ampiamente utilizzata dagli studenti per svolgere compiti e esami al posto loro, compromettendo il valore dei diplomi e delle lauree.

Questo fenomeno non può che sollevare serie preoccupazioni sulla preparazione effettiva di molti neolaureati che entrano nel mondo del lavoro in settori cruciali come l'infermieristica o l'ingegneria. Nonostante la gravità del problema, la maggior parte delle istituzioni educative non sta dando priorità al contrasto delle frodi accademiche basate sull'IA.

Paradossalmente, alcune scuole stanno addirittura facilitando l'uso improprio dell'IA, consentendone l'impiego ma vietando i software in grado di rilevarla. Questa scelta si sta rivelando un grave errore di valutazione, come confermato da una recente ricerca britannica che dimostra l'incapacità degli insegnanti di individuare autonomamente i testi generati dall'IA.

Lo studio condotto dall'Università di Reading ha analizzato cosa accade quando vengono creati profili fittizi di studenti e vengono sottoposti ai docenti elaborati generati dall'IA, senza che questi ne siano a conoscenza. I risultati sono allarmanti:

Il 97% degli elaborati prodotti dall'IA non è stato rilevato come tale dai docenti. Solo nel 6% dei casi i testi sono stati segnalati come sospetti, ma questa percentuale probabilmente sovrastima la capacità di individuare l'uso dell'IA in condizioni reali.

Non è la prima volta che emerge l'incapacità umana di distinguere i testi artificiali. Nel 2022 uno studio dell'Università della Florida del Sud aveva già concluso che nemmeno i linguisti riescono a differenziare in modo affidabile i testi creati dall'IA da quelli umani. 

Lo studio condotto dall'Università di Reading ha analizzato cosa accade quando vengono creati profili fittizi di studenti

La ricerca britannica ha inoltre rilevato che gli elaborati prodotti dall'IA ottengono in media valutazioni migliori rispetto a quelli degli studenti:

"Nell'83,4% dei casi, i voti ottenuti dalle sottomissioni dell'IA erano superiori a quelli di un campione casuale dello stesso numero di elaborati degli studenti", afferma il rapporto.

Ciò significa che uno studente che utilizza l'IA in modo basilare, senza alcuna revisione, ha l'83% di probabilità di ottenere un voto più alto rispetto ai compagni che svolgono effettivamente il lavoro, con solo il 6% di possibilità di essere segnalato se i docenti non utilizzano software di rilevamento.

La situazione attuale rende l'uso dell'IA per barare estremamente vantaggioso e privo di rischi, specialmente nelle classi online dove i docenti non conoscono personalmente gli studenti. Alcune possibili soluzioni tecnologiche includono: L'utilizzo di software di rilevamento dell'IA, il monitoraggio degli esami, l'impiego di ambienti di scrittura che tracciano modifiche e revisioni.

Tuttavia, molte scuole sono riluttanti ad adottare queste misure per motivi di costi e complessità. Di conseguenza, le frodi accademiche dilagano, in gran parte perché le istituzioni non sembrano interessate al rilevamento e alle conseguenze.

A due anni dal suo arrivo, l'IA è ormai una realtà nel mondo accademico. La volontà di limitarne il potere corrosivo deve ancora manifestarsi in modo concreto da parte delle istituzioni educative e siamo certi sarà un percorso lungo e tortuoso. 

Leggi altri articoli