Un giudice della California ha preso una posizione decisa contro due studi legali, infliggendo sanzioni per l’uso non dichiarato di intelligenza artificiale nella preparazione di documenti legali. La questione è emersa dopo che il magistrato ha ricevuto un documento supplementare caratterizzato da “numerosi riferimenti legali falsi, imprecisi e fuorvianti”. La decisione è stata comunicata la scorsa settimana dal giudice Michael Wilner, il quale ha stabilito una multa di 31.000 dollari per le parti coinvolte, evidenziando come “nessun avvocato ragionevolmente competente dovrebbe esternalizzare la ricerca e la scrittura” all’AI, come sottolineato dai professori di diritto Eric Goldman e Blake Reid su Bluesky.
Indice dei contenuti
Riconoscendo le incongruenze legali
Analizzando il documento, il giudice ha notato che molte delle fonti citate non esistevano affatto. Nella sua dichiarazione, scrisse: “Ho letto il loro documento e sono stato persuaso dalle autorità che hanno citato. Ho cercato le decisioni per saperne di più, solo per scoprire che non esistevano”. Questa rivelazione ha sollevato preoccupazioni riguardo alla credibilità delle informazioni legali prodotte tramite AI. Secondo il magistrato, includere tali materiali inventati in un’ordinanza giuridica sarebbe stato “spaventoso”, sottolineando il rischio di compromettere l’integrità del sistema giuridico.
La responsabilità degli avvocati
Il caso è emerso da una causa civile contro State Farm, in cui un avvocato della parte ricorrente ha utilizzato l’AI per generare un cerchio di contorni per un breve supplemento. Questo schema conteneva “ricerche fuorvianti generate dall’AI” che è state poi inviate a un altro studio legale, K&L Gates, che non ha verificato le informazioni prima di integrarle nel documento finale. Come riportato dal giudice Milner, “Nessun avvocato o membro del personale presso i due studi ha apparentemente controllato queste citazioni prima di depositare il documento”. La scoperta di questi errori ha suscitato domande sulla responsabilità professionale degli avvocati e sull’importanza della due diligence nella redazione legale.
Interventi e chiarimenti
Quando il giudice Milner ha esaminato il documento, ha riscontrato che “almeno due delle autorità citate non esistono affatto”. Dopo aver chiesto chiarimenti a K&L Gates, lo studio ha presentato nuovamente il documento, ma il giudice ha rilevato “considerabilmente più citazioni inventate oltre ai due errori iniziali”. In risposta a questa situazione, Milner ha emesso un “Ordine di Giustificazione”, che ha portato i legali a fornire dichiarazioni giurate confermando l’uso di AI. L’avvocato che aveva creato l’outline ha ammesso di aver utilizzato Google Gemini, insieme agli strumenti di ricerca legale AI di Westlaw Precision con CoCounsel.
Precedenti nell’uso dell’AI in ambito legale
Questa non è la prima volta che avvocati sono stati trovati a usare AI in contesti legali. In un episodio simile, l’ex avvocato di Trump, Michael Cohen, ha citato casi giudiziari inventati in un documento legale dopo aver scambiato Google Gemini, precedentemente noto come Bard, per “un motore di ricerca super potenziato” piuttosto che per un chatbot AI. Anche in un caso legale che coinvolgeva una compagnia aerea colombiana, è stato scoperto che gli avvocati avevano incluso una serie di casi falsi generati da ChatGPT nel loro documento.
Il giudice Milner ha chiarito che “l’uso iniziale e non dichiarato di prodotti AI per generare la prima bozza del brief è stato semplicemente sbagliato”. Il fatto di inviare quel materiale ad altri avvocati senza rivelare le sue origini problematiche ha, di fatto, messo a rischio i professionisti coinvolti. Questo episodio mette in evidenza le conseguenze potenzialmente gravi dell’uso indiscriminato di AI nel campo legale e l’importanza della verifica accurata delle fonti.