Secondo il leader di Microsoft AI rubare contenuti dall'open web è accettabile

Mustafa Suleyman, ha recentemente suscitato parecchio clamore per via della sua interpretazione della proprietà intellettuale nell'era del web aperto.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Mustafa Suleyman, capo della divisione dedicata all'intelligenza artificiale di Microsoft, ha recentemente suscitato parecchio clamore per via della sua interpretazione della proprietà intellettuale nell'era del web aperto.

Durante un'intervista con CNBC, condotta da Andrew Ross Sorkin, Suleyman ha espresso la convinzione che una volta pubblicato un contenuto sul web aperto, esso diventi di fatto "freeware", ovvero libero da qualsiasi vincolo di copyright, rendendolo liberamente copiabile e utilizzabile da chiunque.

La sua affermazione ha sollevato questioni correlate alla legalità dell'uso dei dati da parte delle aziende dedicate all'intelligenza artificiale, in particolare riguardo alla formazione dei modelli di AI generativa.

Microsoft, insieme alla sua partner OpenAI, è attualmente oggetto di multiple cause legali che accusano le due aziende di utilizzare contenuti protetti da copyright per addestrare i loro modelli di AI. Di fronte a tali contestazioni, le dichiarazioni di Suleyman possono apparire come una difesa delle pratiche aziendali.

Nel diritto statunitense, la creazione di un lavoro comporta automaticamente la protezione attraverso il copyright, la quale non viene annullata dalla semplice pubblicazione online.

In realtà, è così complicato rinunciare a tali diritti che sono state create delle licenze web speciali per facilitare la gestione di questi contenuti. Il concetto di "uso lecito" o fair use, per esempio, non è determinato da un "contratto sociale", ma viene stabilito da una corte, che valuta vari aspetti come la natura del materiale copiato, il motivo della copia, la quantità di contenuto utilizzato e l'eventuale danno all’autore originale.

Suleyman ha anche fatto riferimento, nel corso dell'intervista, all'idea dei robots.txt come metodo per indicare agli algoritmi di scraping di non utilizzare i dati di un sito. Questi file .txt servono a comunicare quali bot possono o non possono eseguire lo scraping delle informazioni di un sito web. Tuttavia, i files robots.txt non hanno valore legale, ma rappresentano piuttosto un accordo di cortesia presente sul web fin dagli anni '90.

La questione dei diritti di utilizzo dei contenuti pubblicati online, e delle normative che regolano l'IA, sono temi complessi e attualmente oggetto di numerosi dibattiti e procedimenti giudiziari.

L'approccio delle aziende di IA, la loro interpretazione delle leggi e il loro impatto sulle proprietà intellettuali continueranno a essere questioni centrali nel dibattito sull'evoluzione della tecnologia e della normativa in merito.

Leggi altri articoli