Studio rivela i limiti dei modelli di linguaggio nei confronti delle lingue non inglesi

I modelli di linguaggio sviluppati con intelligenza artificiale mostrano bias verso l’inglese, creando sfide per i non anglofoni. Apple propone soluzioni innovative per migliorare la loro efficacia multilingue.

Nell’era della globalizzazione, i modelli di linguaggio sviluppati con intelligenza artificiale hanno aperto nuove frontiere nella comunicazione. Tuttavia, non tutti i risultati sono soddisfacenti, specialmente per chi parla lingue diverse dall’inglese. Uno studio del 2023 condotto alla Carnegie Mellon University ha messo in luce come i programmi di intelligenza artificiale tendano a performare meglio nell’inglese, lasciando gli utenti non anglofoni a fronteggiare problematiche di qualità.

Le sfide per i parlanti non anglofoni

I non madrelingua inglesi spesso si trovano ad affrontare una serie di difficoltà quando utilizzano i modelli di linguaggio di ultima generazione. In alcuni casi, le differenze di prestazione tra lingue possono apparire sottili, ma in altre situazioni si traducono in risultati ben più gravi. Lo studio evidenzia che gli input in lingue diverse dall’inglese riescono ad aggirare più facilmente i filtri di sicurezza, mettendo in luce una vulnerabilità significativa di tali sistemi.

Il predominio dell’inglese nella progettazione dei modelli si traduce in un approccio che tende a ignorare le peculiarità grammaticali e lessicali delle altre lingue. Anche i pochi modelli che si dichiarano multilingue mostrano forti bias verso l’inglese, come se continuassero a “pensare” in quella lingua. Questo porta a risultati poco naturali, con grammatiche e vocabolari che ricalcano schemi anglofoni.

Seguici su Google News

Ricevi i nostri aggiornamenti direttamente nel tuo feed di
notizie personalizzato

Seguici ora

La proposta di Apple per migliorare i modelli di linguaggio

In risposta a queste problematiche, Apple ha collaborato con diversi istituti di ricerca, tra cui l’Inria di Parigi, l’École Polytechnique e l’Università Sapienza di Roma, per sviluppare metodi che possano ridurre il divario di prestazioni. Gli studiosi hanno introdotto due nuove metriche per testare la naturalità linguistica dei modelli:

  1. Naturalità lessicale: Questo parametro valuta se il modello utilizza un vocabolario simile a quello di un madrelingua.
  2. Naturalità sintattica: Questa metrica verifica se le strutture frasali rispettano le regole grammaticali tipiche della lingua nativa.

In collaborazione, hanno confrontato gli output dei modelli con articoli scritti da madrelingua presenti su Wikipedia in lingue come cinese, francese e inglese. I risultati hanno confermato persistenti bias nei modelli, evidenziando che anche il modello cinese Qwen si è dimostrato carente in tutte le lingue analizzate.

Come Apple mira a migliorare le prestazioni dei modelli

Per colmare questa lacuna, il team di ricerca di Apple ha sviluppato un approccio innovativo. Hanno creato un modello che preferisce output naturali a quelli goffi, utilizzando un metodo ingegnoso. Invece di raccogliere manualmente esempi di risposte innaturali, hanno utilizzato una tecnica nota come retrotraduzione per generarli automaticamente.

Un esempio di risposta scritta fluentemente in cinese viene tradotto in inglese e poi nuovamente in cinese. Questo processo introduce modalità linguistiche inusuali, note come “translationese.” Le versioni manipolate servono come esempi negativi per il modello, mentre le risposte originali rappresentano quelle da preferire. In questo modo, Apple è riuscita a migliorare significativamente la scelta del vocabolario e la grammatica del modello, senza compromettere le prestazioni generali nei benchmark standard.

Questi sforzi fanno sperare in una futura evoluzione dell’intelligenza artificiale che sia più inclusiva e accurata per tutti gli utilizzatori, indipendentemente dalla lingua madre.

Seguici su Telegram

Seguici su Telegram per ricevere le Migliori Offerte Tech

Unisciti ora