Wikipedia sotto assalto da utenti che postano contenuti IA fasulli

Un team di volontari ripulisce Wikipedia dalle false informazioni generate dall'intelligenza artificiale, migliorando l'affidabilità dell'enciclopedia.

Avatar di Giulia Serena

a cura di Giulia Serena

Editor

L'enciclopedia online Wikipedia sta affrontando una crisi di editing causata dall'uso improprio dell'intelligenza artificiale. Un gruppo di volontari, denominato WikiProject AI Cleanup, sta lavorando per rimuovere informazioni false generate da chatbot come ChatGPT, che stanno inondando il sito con contenuti privi di senso.

Il problema è emerso quando gli editori di Wikipedia hanno iniziato a notare passaggi chiaramente scritti da intelligenze artificiali. Ilyas Lebleu, membro fondatore del team di pulizia, ha spiegato: "Abbiamo notato la prevalenza di scritti innaturali che mostravano chiari segni di essere generati dall'AI, e siamo riusciti a replicare 'stili' simili usando ChatGPT".

Gli esempi di contenuti falsi generati dall'AI includono un articolo dettagliato su una fortezza ottomana del XV secolo chiamata "Amberlisihar", che in realtà non è mai esistita. Il problema non si limita ai nuovi articoli, ma coinvolge anche l'inserimento di informazioni false in articoli esistenti già verificati dagli editori volontari.

Le ragioni principali di questa crisi sembrano essere due:

  1. Il modello aperto di Wikipedia, che permette a chiunque di diventare editore.
  2. La tendenza di alcuni utenti ad abusare delle piattaforme online semplicemente perché possono farlo.

Questo fenomeno non è nuovo nel mondo dell'intelligenza artificiale. In passato abbiamo assistito a casi simili, come quello di Tay, il bot di Microsoft su Twitter che fu disattivato dopo meno di 24 ore per aver iniziato a pubblicare tweet volgari e razzisti.

Le sfide per Wikipedia

La situazione attuale pone serie sfide per Wikipedia, che si basa sul lavoro di volontari per mantenere l'accuratezza dei suoi contenuti. La facilità con cui l'AI può generare testi apparentemente plausibili rende il compito di verifica ancora più complesso.

L'internet rovina tutto.

Lebleu e i suoi colleghi editori non sono certi delle motivazioni dietro queste azioni, ma è chiaro che quando milioni di persone hanno accesso illimitato a una piattaforma, una piccola percentuale tenderà ad abusarne, sia per guadagno illecito che per puro divertimento.

Questa crisi sottolinea la necessità di sviluppare strumenti e processi più efficaci per individuare e rimuovere i contenuti generati dall'AI, preservando l'integrità e l'affidabilità di Wikipedia come fonte di informazioni.

Leggi altri articoli