OpenAI ha recentemente annunciato il rinvio del lancio di Media Manager, uno strumento presentato nel maggio 2023. Questo tool era progettato per consentire ai creatori di contenuti di monitorare e gestire l'uso delle loro opere nell'addestramento dei modelli di intelligenza artificiale dell'azienda. A sette mesi dall'annuncio iniziale, il software non è ancora stato rilasciato, nonostante le aspettative fissate per la fine del 2024.
Indice dei contenuti
La funzione di Media Manager e le aspettative
Media Manager avrebbe dovuto dotare i creatori di contenuti di un modo per identificare e gestire diritti su testi, immagini, audio e video protetti da copyright. L'intento era quello di garantire che le preferenze dei creatori venissero rispettate, utilizzando informazioni provenienti da diverse fonti. Questo approccio mirava ad affrontare le critiche mosse a OpenAI riguardo al suo uso di materiali protetti, offrendo così una protezione potenziale contro le crescenti sfide legali legate alla proprietà intellettuale.
In effetti, le polemiche sono aumentate negli ultimi mesi, con un numero crescente di artisti e autori che si sono espressi contro l'uso delle loro opere senza consenso. OpenAI ha cercato di arginare le critiche istituendo diverse modalità di "rinuncia" all'addestramento della sua intelligenza artificiale. Tuttavia, secondo alcune fonti, Media Manager non è mai stato considerato una priorità all’interno dell’azienda. Un ex dipendente ha affermato che non ricordava alcun progresso significativo in merito.
I modelli di intelligenza artificiale, inclusi quelli sviluppati da OpenAI, apprendono attraverso analisi di ampi set di dati. Questo processo consente loro di assimilare schemi e dinamiche del mondo circostante. Tuttavia, c'è un problema evidente: a volte questi modelli possono riprodurre copie quasi identiche dei dati utilizzati per l'addestramento, il che suscita giustificate preoccupazioni tra i creatori.
Le cause legali contro OpenAI
Attualmente, OpenAI si trova ad affrontare diverse cause intentate da artisti, scrittori, e diversi gruppi del settore, inclusi YouTuber e organizzazioni giornalistiche, che accusano l'azienda di aver utilizzato il loro materiale senza autorizzazione. Per tentare di risolvere questa situazione, OpenAI ha introdotto un modulo specifico per consentire agli artisti di segnalare le loro opere che desiderano vengano escluse dai futuri set di addestramento. Inoltre, l'azienda permette da tempo ai webmaster di bloccare i suoi bot dall’accesso ai loro contenuti. Tuttavia, molti esperti e critici considerano questi tentativi come approcci insufficienti e poco strutturati.
Anche se Media Manager dovesse arrivare sul mercato, ci sono dubbi su quanto questo strumento possa realmente alleviare le preoccupazioni legate ai diritti d'autore. Le opinioni di esperti giuridici come Adrian Cyhan pongono l'accento su come la realizzazione di un sistema del genere presenti piccole e grandi sfide per conformarsi agli obblighi legali previsti per la protezione della proprietà intellettuale. Infatti, Cyhan ha sottolineato che il progetto di Media Manager è un'impresa complessa, impreziosita da potenziali requisiti di compensazione.
Critiche verso i sistemi di opt-out
Le critiche sull'idea di Media Manager non si limitano solo alla fattibilità legale. Ed Newton-Rex, fondatore di Fairly Trained, ha espresso preoccupazione sul fatto che il sistema di gestione del consenso sposterebbe in modo ingiusto il peso del controllo sull’addestramento dell'IA sui creatori stessi. Molti di loro, secondo Newton-Rex, potrebbero non essere neanche a conoscenza della sua esistenza, figuriamoci utilizzarlo.
In particolare, esperti del settore mettono in risalto che i sistemi di opt-out non sempre considerano le variazioni che un'opera potrebbe subire nel corso dell’addestramento, come nel caso di immagini ridimensionate. Allo stesso modo, esistono preoccupazioni riguardo alla proliferazione di contenuti su piattaforme di terze parti, dove potrebbero esserci copie delle opere originali dei creatori senza una chiara tracciabilità.
Le attuali misure adottate da OpenAI
Nonostante l'assenza di Media Manager, l'azienda ha messo in atto diverse restrizioni per limitare la riproduzione di opere protette dai suoi modelli. Nelle attuali cause legali, OpenAI continua a sostenere la protezione del fair use, affermando che i suoi modelli producono contenuti trasformativi piuttosto che semplici repliche di opere già esistenti.
La questione del copyright e dell'uso delle opere protette dall'intelligenza artificiale rimane tuttavia un territorio in gran parte inesplorato, e OpenAI sta affrontando un rischio significativo. Se i tribunali dovessero stabilire che l'IA dell'azienda ha uno "scopo trasformativo", le implicazioni legali potrebbero essere enormi. Tuttavia, l'azienda ha affermato che è "impossibile" sviluppare modelli competitivi senza ricorrere a materiali protetti da copyright.
Rimane quindi da vedere se OpenAI potrà vincere queste battaglie legali e quali saranno le future decisioni in merito a Media Manager e ai diritti d'autore nell'epoca dell'intelligenza artificiale. Le incertezze circa la direzione futura di questo progetto persistono, rendendo molto difficile prevedere le conseguenze per i diritti dei creatori e per il mercato stesso.