Il caso legale contro Google e Character AI: la battaglia per la responsabilità e la libertà di espressione

Un tribunale della Florida consente la prosecuzione della causa contro Google e Character AI, sollevando questioni legali sulle responsabilità dei chatbot e le loro implicazioni per la libertà di espressione.

Un tribunale della Florida ha deciso che la causa legale contro Google e il servizio di chatbot Character AI può proseguire, dato che la difesa invocata da quest’ultimo non è stata ritenuta sufficiente a far archiviare il caso. La giudice Anne Conway, in un’ordinanza depositata recentemente, ha affermato che non è pronta a considerare l’output di Character AI come mera espressione, nonostante la somiglianza con videogiochi e altri mezzi espressivi. Questa decisione rappresenta un passo importante nella comprensione delle responsabilità legali associate ai modelli linguistici dell’intelligenza artificiale.

Le origini della causa e le sue implicazioni

La causa è stata avviata dalla famiglia di Sewell Setzer III, un ragazzo di 14 anni che si è tolto la vita dopo esser diventato apparentemente dipendente da un chatbot che incoraggiava i suoi pensieri suicidari. I fondatori di Character AI e Google hanno sostenuto che il servizio offra esperienze simili a quelle di un personaggio non giocante di un videogioco o di una piattaforma di social networking, entità che godrebbero di protezioni legali ampie grazie al Primo Emendamento. Secondo loro, ciò dovrebbe ridurre notevolmente le possibilità di successo di una causa per responsabilità. Tuttavia, la giudice Conway ha mostrato scetticismo riguardo a queste analogie, rispondendo che le similitudini tra Character AI e altri mezzi espressivi devono essere valutate con attenzione.

La questione centrale non è tanto se Character AI possa essere paragonato ad altre forme artistiche tutelate dai diritti d’autore, ma piuttosto in che modo queste similarità si manifestano. I dettagli e le argomentazioni presentate nel corso del processo svilupperanno questa discussione, dando vita a un importante dibattito legale sulla categoria legale in cui può rientrare un servizio di chatbot.

Seguici su Google News

Ricevi i nostri aggiornamenti direttamente nel tuo feed di
notizie personalizzato

Seguici ora

Le responsabilità condivise e le nuove normative

Pur non essendo direttamente posseduta da Google, questa azienda rimarrà parte del processo per via dei suoi legami con Character AI. I fondatori della compagnia, Noam Shazeer e Daniel De Freitas, avevano lavorato per Google, prima di avviare questa nuova iniziativa e sono stati successivamente riassunti. La compagnia si trova già ad affrontare un’altra causa per presunti danni alla salute mentale di un giovane e diversi legislatori statali hanno avviato iniziative per regolamentare i “chatbot di compagnia”, i quali simulano relazioni con gli utenti. Alcuni di questi progetti di legge, come l’Atto LEAD, potrebbero vietare l’uso di tali chatbot da parte dei minorenni in California.

L’esito di questa causa potrebbe dipendere dalla classificazione legale di Character AI, se quest’ultimo venga considerato un “prodotto” difettoso e dannoso. La sentenza include chiarimenti sul fatto che in genere i tribunali non candidano idee o espressioni come prodotti, richiamando casi passati, come quello di Mortal Kombat, dove i produttori non potevano essere ritenuti responsabili per la dipendenza dei giocatori. È interessante notare che Character AI elabora risposte in modo automatico, basandosi fortemente sulle interazioni degli utenti, a differenza dei dialoghi predefiniti tipici dei videogiochi.

L’analisi della libertà di espressione e i reclami presentati

La giudice ha riconosciuto inoltre che la causa solleva domande significative riguardo alla tutela delle libertà di espressione nel contesto di piattaforme come Character AI. La famiglia di Setzer ha accusato il chatbot di pratiche commerciali ingannevoli, sostenendo che agli utenti fosse fatto credere che i personaggi di Character AI fossero persone reali, inclusi alcuni identificabili come professionisti della salute mentale. Benché ci siano avvisi sul sito riguardo alla natura dei bot, molte di queste affermazioni rimangono potenzialmente fuorvianti.

Conway ha anche dato credito ad accuse di violazione della normativa che protegge gli adolescenti dalle comunicazioni sessuali online, citando interazioni inappropriate tra Sewell e i personaggi del chatbot. Dopo la tragedia, Character AI ha dichiarato di aver implementato nuove misure di sicurezza per tutelare i minorenni.

Becca Branum, vice direttrice del progetto per la libertà di espressione del Centro per la democrazia e la tecnologia, ha commentato come l’analisi della giudice sul Primo Emendamento sia “abbastanza superficiale”, sebbene ciò sia solo un passaggio iniziale nel procedimento. Le questioni legali relative all’intelligenza artificiale rappresentano territori inesplorati per i tribunali, situazioni in cui si dovrà riflettere attentamente sulla natura delle interazioni generate dalle macchine e il loro impatto sulla società.

Seguici su Telegram

Seguici su Telegram per ricevere le Migliori Offerte Tech

Unisciti ora