Meta addestra l'IA sui tuoi dati senza consenso

Meta promette agli utenti di poter bloccare l'uso dei loro contenuti per l'AI, ma lo strumento di opt-out non funziona, vanificando ogni promessa.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

1

Meta sfida la privacy degli utenti sui social. Numerosi utenti di Facebook e Instagram si stanno ritrovando in una situazione paradossale: l'azienda li informa dell'utilizzo dei loro contenuti per l'addestramento dell'intelligenza artificiale, ma quando tentano di opporsi attraverso gli strumenti ufficiali, si scontrano con un sistema apparentemente difettoso.

La questione è emersa con particolare evidenza dopo la segnalazione di Nate Hake, editore e fondatore di Travel Lemming, che ha ricevuto una comunicazione da Meta riguardante l'utilizzo dei suoi contenuti social per l'addestramento AI, ma il link al modulo di opt-out fornito dall'azienda risulta inutilizzabile.

Il caso si complica ulteriormente considerando che Meta aveva recentemente assicurato che avrebbe rispettato la scelta degli utenti che non desiderano vedere i propri dati utilizzati per l'addestramento dell'intelligenza artificiale. Hake sostiene che Meta non intenda dare seguito alla sua richiesta. In risposta al suo tentativo, l'azienda avrebbe comunicato di "non poter intraprendere ulteriori azioni" riguardo alla sua volontà di esclusione.

Questa situazione solleva interrogativi profondi sulla sincerità degli impegni presi dal colosso tecnologico in materia di trasparenza e rispetto delle scelte degli utenti, specialmente in un contesto normativo come quello europeo, particolarmente attento alle questioni di privacy.

La fame di dati di Meta non è certamente una novità recente. Già nel 2018, quando l'azienda operava ancora sotto il nome di Facebook, aveva rivelato di utilizzare milioni di immagini condivise su Instagram per addestrare algoritmi di intelligenza artificiale. All'epoca, i modelli Meta AI e Llama non esistevano ancora, ma questi primi passi rappresentavano già un chiaro presagio degli sviluppi futuri.

Guardando alla situazione attuale, ci troviamo di fronte a un gigante dei social media che scommette tutto sull'intelligenza artificiale, tecnologia notoriamente affamata di potenza di calcolo e dati di addestramento. Gli utenti delle piattaforme Meta stanno ora scoprendo che i loro contenuti alimentano sistemi di AI, mentre gli strumenti di opt-out disponibili solo in determinate regioni sembrano non funzionare correttamente.

Meta ha addestrato i suoi sistemi utilizzando contenuti condivisi dagli utenti per anni, ma le incertezze legate al copyright e alla privacy degli utenti hanno portato a crescenti pressioni normative. Nel giugno dello scorso anno, l'azienda aveva annunciato di voler sospendere i piani per addestrare i propri sistemi AI sui dati social degli utenti residenti nell'Unione Europea.

Meno di un anno dopo, tuttavia, Meta ha rivelato l'intenzione di iniziare a raccogliere contenuti degli utenti come foto, video, commenti e conversazioni con Meta AI da utenti residenti nell'UE e nel Regno Unito. La giustificazione fornita è che questa sarebbe una pratica standard che l'azienda segue da anni in tutto il mondo.

"Stiamo seguendo l'esempio di altri, tra cui Google e OpenAI, che hanno già utilizzato dati degli utenti europei per addestrare i loro modelli di intelligenza artificiale", ha dichiarato l'azienda in un post ufficiale sul blog, cercando di normalizzare una pratica che solleva legittime preoccupazioni.

A metà aprile di quest'anno, Meta aveva annunciato che avrebbe iniziato a informare gli utenti dell'UE e del Regno Unito riguardo al cambiamento della politica di addestramento dell'intelligenza artificiale. L'azienda aveva specificato che avrebbe comunicato attraverso notifiche in-app e sollecitazioni via email.

"Queste notifiche includeranno anche un link a un modulo dove le persone potranno opporsi all'utilizzo dei loro dati in questo modo in qualsiasi momento", aveva promesso l'azienda. Meta aveva assicurato che il modulo di obiezione sarebbe stato facilmente individuabile per gli utenti di Instagram e Facebook e avrebbe fornito tutte le informazioni necessarie in un linguaggio semplice.

Secondo quanto riportato da Hake e confermato da numerosi altri utenti, il link di opt-out fornito da Meta non funziona. Molti utenti che hanno risposto al suo post hanno menzionato situazioni analoghe, criticando duramente Meta per questa condotta poco trasparente. Non è chiaro se il malfunzionamento del modulo di opt-out sia un semplice errore tecnico o qualcosa di più problematico.

Hake, tuttavia, evidenzia il totale disprezzo per la scelta degli utenti e l'apparente inversione di rotta dell'azienda. Solo una settimana fa, Meta aveva promesso che avrebbe "onorato tutti i moduli di obiezione già ricevuti, così come quelli di nuova presentazione."

Secondo Hake, quando ha contattato Meta riguardo alla sua richiesta e al problema del modulo di opt-out, un rappresentante dell'azienda ha risposto che non avrebbero intrapreso ulteriori azioni in merito alla sua richiesta. Meta afferma di essere orgogliosa del proprio approccio trasparente all'utilizzo dei contenuti social per l'addestramento dell'intelligenza artificiale, ma sembra che l'azienda non stia monitorando adeguatamente se stia mantenendo questi impegni in modo equo.

La situazione risulta particolarmente preoccupante perché mette in discussione non solo la capacità di Meta di onorare le promesse fatte agli utenti, ma anche la sincerità stessa di queste promesse, in un contesto di crescente tensione tra gli interessi commerciali dell'azienda e il diritto alla privacy degli utilizzatori delle piattaforme.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

1 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


0
è arrivata anche a me la letterina. Oppormi? Non cambierebbe nulla. Loro possono anche far finta di recepire il mio diniego ma poi fanno comunque quel che vogliono. Nessuno potrà verificare e dire altrimenti, nessuno, se pure potesse (e non può) si prenderebbe la briga di vigilare sul rispetto delle informazioni già condivise spontaneamente nel corso di molti anni, in un sito aperto a chiunque.
Cosa cambia ora? L'IA si addestra tanto sul pensiero delle persone "normali" quanto su quello dei più completi imbecilli. Si spera che nel corso del suo autoapprendimento terrà conto delle differenze fra giusto e sbagliato. Tra sporco e pulito, sano e malato, saggio e stupido, normale e perverso e via dicendo.
Vedremo in seguito cosa arriverà e anche poi, che la cosa ci piaccia o meno non farà alcuna differenza.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.