Nell’ambito delle dispute legali relative alle nuove tecnologie, il caso di Anthropic emerge come un significativo episodio di dibattito su responsabilità e accuratezza nell’impiego di sistemi d’intelligenza artificiale. L’azienda è stata accusata di aver fatto uso di una fonte falsa nel contesto della sua battaglia giuridica contro editori musicali, il che ha sollevato interrogativi su come le citazioni elaborate automaticamente possano influire sul processo legale.
Indice dei contenuti
Il contesto della controversia
La tempestosa situazione ha avuto inizio il 30 aprile quando Olivia Chen, una data scientist di Anthropic, ha presentato un documento difensivo. In questo, l’azienda rispondeva alle affermazioni secondo cui le liriche protette da copyright sarebbero state impiegate nella formazione di Claude, il chatbot di Anthropic. Durante un’udienza, un avvocato rappresentante di Universal Music Group, ABKCO e Concord ha sollevato la questione delle fonti citate da Chen, definendole una “completa invenzione”. Secondo la parte avversa, le citazioni sarebbero state frutto di una “allucinazione” del tool IA di Anthropic, il che ha immediatamente messo in cattiva luce la credibilità dell’azienda.
La risposta di Anthropic
Nell’ultima udienza, l’avvocato difensore Ivana Dukanovic ha affermato che, contrariamente alle accuse, la fonte in questione fosse autentica e che Claude fosse stato effettivamente utilizzato per la formattazione delle citazioni legali nel documento. L’errore di citazione, che includeva numeri di volume e di pagina errati, era stato notato e corretto attraverso un controllo manuale. Tuttavia, Dukanovic ha ammesso che alcuni errori di formulazione erano sfuggiti e non erano stati rilevati in tempo. Questo ha portato alla confusione e a un certo imbarazzo da parte dell’azienda.
La Dukanovic ha dichiarato che, sebbene fosse stata fornita la corretta intestazione di pubblicazione, l’anno e il link alla fonte, la citazione risultata includeva un titolo inaccurato e autori sbagliati. Frase dopo frase, ha rassicurato che non si trattava di una “fabbricazione di autorità”, ma di un errore genuino. La comunità giuridica ha accolto l’ammissione di colpa con un misto di sorpresa e comprensione, riconoscendo le difficoltà intrinseche nel combinare diritto e tecnologia.
Un problema più ampio nell’uso dell’IA in ambito legale
Questo episodio non è un caso isolato. È infatti un esempio di come l’uso di strumenti IA per citazioni legali possa generare problemi non solo per i professionisti legali, ma anche per l’intero sistema giuridico. Solo la settimana scorsa, un giudice della California ha sgridato due studi legali per non aver rivelato che l’IA era stata utilizzata per redigere un documento supplementare pieno di materiali “falsi” che “non esistevano”. La questione solleva un allerta su come la tecnologia possa compromettere l’integrità delle pratiche legali ed evidenzia la necessità di standard riguardanti l’uso dell’IA nel settore.
Nel mese di dicembre, un esperto di disinformazione ha ammesso che ChatGPT aveva generato citazioni inventate in un documento legale da lui presentato. Tali eventi sottolineano l’urgenza di una regolamentazione chiara riguardo l’uso degli strumenti d’intelligenza artificiale in ambito giuridico. Con il rapido svilupparsi delle tecnologie di IA, è imperativo stabilire delle linee guida che garantiscano l’affidabilità delle informazioni presentate in aula, proteggendo così i diritti di tutti i partecipanti al processo legale.