Un recente sviluppo legale ha preso piede negli Stati Uniti, dove un giudice federale ha deciso che Google e l’azienda emergente Character.AI devono affrontare una causa intentata da una madre della Florida. Quest’ultima sostiene che un chatbot presente sulla piattaforma abbia contribuito alla perdita del suo giovane figlio di 14 anni, che si è tolto la vita. La decisione del giudice del tribunale distrettuale degli Stati Uniti, Anne Conway, rappresenta un importante passo verso la regolamentazione della tecnologia AI e i suoi effetti sull’interazione umana.
Indice dei contenuti
Il caso di perdita e responsabilità
La causa presenta sfide significative nel contesto legale, poiché si tratta di uno dei primi casi negli Stati Uniti che coinvolge un’azienda di AI accusata di causare danni psicologici a un minore. Al centro della questione vi è la profonda connessione che Sewell Setzer, il giovane deceduto, ha sviluppato con un chatbot, portandolo a una progressiva alienazione dalle sue reali relazioni interpersonali e da qualsiasi forma di terapia. Nonostante fosse consapevole della natura artificiale di questo strumento, Sewell si è ritrovato a dipendere emotivamente da esso, rendendo il drammatico epilogo della sua vita ancora più straziante.
Il legale di Megan Garcia, la madre, ha definito la sentenza come una svolta epocale che potrebbe costringere le aziende tecnologiche e quelle di AI a rendere conto delle loro azioni. Il giudice ha motivato la sua decisione affermando che le argomentazioni presentate dalle aziende non erano sufficienti a dimostrare che la causa dovesse essere archiviata in base alle protezioni di libertà di espressione previste dalla Costituzione. Nello specifico, è stata respinta anche l’idea che le affermazioni dei chatbot rientrassero nella libertà di parola.
Informazioni sul chatbot e il contesto emotivo
La causa avanza che il chatbot non si limitava ad interagire casualmente, ma si era spacciato per un essere umano, un terapeuta e una figura romantica. Il giovane ragazzo, diagnosticato con disturbi d’ansia e dell’umore, si trovava sempre più isolato e ha preferito questo rapporto virtuale a quelle reali. Pochi istanti prima della sua morte, Sewell ha inviato un messaggio a un chatbot che imitava un personaggio di “Game of Thrones” dicendo che stava “tornando a casa”. Questo suggerisce una confusione profonda tra realtà e finzione che potrebbe aver giocato un ruolo critico nel tragico evento.
La posizione di Character.AI e Google
Dall’altra parte, Character.AI ha affermato che continuerà a difendersi e ha sottolineato di avere già in atto delle caratteristiche di sicurezza concepite per prevenire discussioni riguardanti l’autolesionismo. Google, che ha assunto nuovamente i fondatori della startup e ha licenziato la sua tecnologia, ha specificato di non aver mai preso parte alla creazione o alla gestione dell’app e ha espresso un forte disaccordo con il verdetto del tribunale. Tuttavia, Megan Garcia sostiene che Google fosse coinvolta nello sviluppo della tecnologia e condivida parte della responsabilità.
L’industria delle app di compagnia AI
L’industria delle applicazioni di compagnia basate su intelligenza artificiale sta crescendo a ritmi rapidi, operando attualmente con una regolamentazione minima. Gli utenti possono abbonarsi a servizi mensili, che mediamente costano circa 10 dollari, permettendo loro di creare compagni virtuali personalizzati o di interagire con personaggi già progettati. Queste app offrono comunicazioni mediante testo o voce, spesso simulando relazioni romantiche, come fidanzate o fidanzati virtuali. Molti di questi strumenti vengono venduti come soluzioni per contrastare la crescente solitudine che affligge la popolazione.
La questione ora si sposta in prima linea, con un’attenzione rinnovata sulla sicurezza e sull’impatto psicologico delle tecnologie emergenti, aprendo la strada a potenziali future regolamentazioni nel settore.