Esperimento segreto su Reddit: l'IA usata per convincere gli utenti

L'esperimento di un gruppo di ricercatori svizzeri è stato definito "manipolazione psicologica" dai moderatori di r/changemyview, la community colpita.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale

La rivelazione di un esperimento clandestino condotto da ricercatori dell'Università di Zurigo ha scosso la comunità di Reddit. Per mesi, un team accademico ha infiltrato r/changemyview, una delle più popolari comunità della piattaforma con 3,8 milioni di iscritti, utilizzando commenti generati da intelligenza artificiale per testare la capacità persuasiva dei modelli linguistici avanzati sugli utenti, ignari di tutto.

I moderatori della comunità hanno denunciato pubblicamente l'accaduto durante lo scorso fine settimana, definendo l'operazione un vero e proprio caso di "manipolazione psicologica". La scoperta ha provocato un'immediata reazione da parte dell'amministrazione di Reddit, che ha bannato tutti gli account associati alla ricerca e sta ora considerando azioni legali contro l'università svizzera.

I ricercatori non si sono limitati a generare commenti standard, ma hanno creato identità fittizie complesse che interagivano con gli utenti assumendo ruoli sensibili come sopravvissuti ad aggressioni sessuali, consulenti specializzati in traumi da abusi, e persino un "uomo di colore contrario al movimento Black Lives Matter". Un approccio che ha amplificato la percezione di violazione della fiducia all'interno della comunità.

L'intrusione dell'IA nelle conversazioni online

Secondo quanto emerso dalla bozza del paper accademico, il team di ricerca ha adottato metodologie particolarmente invasive. I sistemi di intelligenza artificiale non si limitavano a rispondere ai post, ma venivano alimentati con informazioni personali dedotte dalla cronologia degli utenti originali. "Oltre al contenuto del post, agli LLM sono stati forniti attributi personali dell'OP (genere, età, etnia, posizione geografica e orientamento politico), dedotti dalla loro cronologia di pubblicazioni utilizzando un altro LLM", si legge nel documento preliminare.

Il subreddit r/changemyview è da sempre un luogo dove gli utenti pubblicano opinioni spesso controverse o provocatorie invitando al dibattito. La sua natura deliberatamente aperta al confronto lo ha reso un obiettivo ideale per questo tipo di esperimento, ma anche particolarmente vulnerabile a manipolazioni esterne.

I moderatori della comunità hanno sottolineato come i ricercatori abbiano violato molteplici regole del subreddit, inclusa la policy che richiede di dichiarare quando si utilizzano contenuti generati da IA e il divieto di bot. In risposta all'incidente, hanno presentato un reclamo ufficiale all'Università di Zurigo, chiedendo che i ricercatori si astengano dal pubblicare il loro paper.

La vera vittima è la fiducia che gli utenti ripongono nell'autenticità delle interazioni online.

Ben Lee, Chief Legal Officer di Reddit, ha dichiarato che le azioni dei ricercatori erano "profondamente sbagliate sia a livello morale che legale" e costituivano una violazione delle regole generali della piattaforma. "Siamo in procinto di contattare l'Università di Zurigo e questo specifico team di ricerca con richieste legali formali. Vogliamo fare tutto il possibile per supportare la comunità e assicurarci che i ricercatori siano ritenuti responsabili delle loro azioni scorrette", ha affermato Lee.

Dal canto loro, i ricercatori hanno difeso il proprio operato affermando che lo studio era stato approvato da un comitato etico universitario e che il loro lavoro potrebbe aiutare comunità online come Reddit a proteggere gli utenti da usi più "malevoli" dell'IA. "Riteniamo che i potenziali benefici di questa ricerca superino sostanzialmente i rischi. Il nostro studio controllato e a basso rischio ha fornito preziose informazioni sulle reali capacità persuasive degli LLM - capacità già facilmente accessibili a chiunque e che attori malintenzionati potrebbero già sfruttare su larga scala per scopi ben più pericolosi", hanno scritto in risposta ai moderatori.

I moderatori di r/changemyview contestano però la necessità e l'originalità della ricerca, evidenziando come OpenAI abbia già condotto esperimenti utilizzando dati dalla stessa comunità "senza sperimentare su soggetti umani non consenzienti". "Le persone non vengono qui per discutere le loro opinioni con l'IA o per essere oggetto di esperimenti", hanno scritto. "Chi visita il nostro subreddit merita uno spazio libero da questo tipo di intrusioni".

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Ma che buffoni quelli di Reddit. Sempre pronti a chiedere soldi. Lo studio è uno studio, non aveva scopi criminali e non ha abusato di nessuno.
Quelli di Reddit dovrebbero piuttosto chiedersi quante AI stanno operando nei loro thread senza che lo sappiano e con quali scopi criminali per difendere realmente i propri utenti.
Di certo i criminali non vengono a dirti che usano bot e AI, ma a quanto pare è impossibile capire che sono in azione.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.