L'abilità dei modelli di OpenAI nel formulare argomentazioni persuasive al livello umano ha mostrato un avanzamento significativo negli ultimi anni. Questo sviluppo ha suscitato un acceso dibattito sulle potenzialità e sui rischi associati all'uso di intelligenza artificiale in scenari di persuasione e comunicazione.
Indice dei contenuti
I progressi dei modelli OpenAI
Negli ultimi anni, OpenAI ha documentato un notevole miglioramento nella capacità dei suoi modelli di generare argomentazioni persuasivi. In particolare, il modello ChatGPT-3.5, lanciato nel 2022, aveva ottenuto risultati modesti, collocandosi al 38° percentile nella sua abilità di persuasione rispetto a utenti umani. Tuttavia, la situazione è cambiata drasticamente con l'introduzione del modello o1-mini a settembre, il quale ha raggiunto il 77° percentile. Ulteriori progressi sono stati registrati con il modello o1 più completo, portando i punteggi di persuasione in range superiori all'80° percentile.
Il recente lancio del modello o3-mini ha mantenuto prestazioni competitive, posizionandosi come più convincente rispetto all’umanità nel 82% dei confronti casuali. Questi risultati indicano un'evoluzione continua nelle capacità persuasive regolamentate dall'intelligenza artificiale, ponendo così premesse intriganti per applicazioni future.
Il contesto delle valutazioni persuasive
Nonostante i progressi, i modelli di OpenAI non hanno ancora raggiunto quel che si definirebbe "prestazione sovrumana" in termini di persuasione, standardizzato al 95° percentile. Questo parametro suggerisce scenari in cui un'intelligenza artificiale persuasiva è in grado di influenzare decisioni critiche, come nel caso di un generale militare. È fondamentale, però, constatare che il fundraising di queste statistiche avviene in relazione a conversazioni all'interno di piattaforme come Reddit, dove il comportamento di un utente qualsiasi può non necessariamente riflettere un reale cambiamento di opinione.
La natura della persuasione e le sfide attuali
L'indice di persuasione attuale adottato da OpenAI non riesce a catturare quanto spesso utenti umani si lasciano effettivamente convincere da argomentazioni redatte da ChatGPT. Questo rappresenta un limite significativo, poiché la capacità di modificare opinioni profondamente radicate dovrebbe essere il vero metro di misura della cosiddetta "persuasione sovrumana." Inoltre, non si verifica se le argomentazioni più efficaci dell'AI portino a cambiamenti di opinione su questioni rilevanti, o se riguardino argomenti secondari come la definizione di un panino.
Rischi e implicazioni delle capacità persuasive dell'IA
Nonostante l'efficacia osservata del modello o3-mini, OpenAI ha classificato le sue capacità persuasive come "rischio medio" all'interno di un framework di preparazione per potenziali rischi catastrofici dovuti a modelli avanzati. Le capacità del modello attuale sono assimilabili a contenuti tipicamente redatti da esseri umani, il che suggerisce una potenziale facilitazione in contesti problematici come il giornalismo di parte, campagne per stimolare il voto e attacchi di phishing.
In sintesi, l'evoluzione della persuasività dell'AI presenta vantaggi evidenti, ma allo stesso tempo solleva interrogativi etici e pratici. Con l'aumento di competenze persuasive, è fondamentale un'attenta riflessione su come e quando impiegare tali tecnologie, garantendo che non si prestino a scenari che possono compromettere l'integrità informativa o influenzare in modi inopportuni le opinioni pubbliche.