Negli ultimi tempi, Google ha lanciato una nuova funzionalità chiamata AI Overviews all’interno del suo motore di ricerca. Questa tecnologia, basata sull’intelligenza artificiale, ha sollevato molte polemiche per la sua tendenza a generare definizioni errate di espressioni completamente inventate dagli utenti. Le implicazioni su fiducia e accuratezza dei risultati di ricerca sono drastiche e meritano un’analisi approfondita.
Indice dei contenuti
L’AI di Google e la sua diffusione
L’introduzione dell’intelligenza artificiale ha trasformato numerosi aspetti delle nostre vite quotidiane, e Google sta investendo notevolmente in questo campo. Con il lancio di Gemini Advanced e l’integrazione di AI Overviews nel motore di ricerca, Google sta esplorando nuove modalità per rendere le informazioni più accessibili. Tuttavia, il rovescio della medaglia è rappresentato dai fenomeni di “hallucination” dell’AI, che porta a creare contenuti falsi con un’impressionante sicurezza.
Questi “errori” non sono semplicemente innocui; l’AI può produrre fatti inesistenti e contestualizzarli con una certezza disarmante, confondendo gli utenti e alimentando la diffusione di informazioni errate. AI Overviews, in particolare, è stata protagonista di episodi in cui frasi sconclusionate digitati dagli utenti hanno ricevuto spiegazioni dettagliate, ma completamente inventate.
L’esperimento di Greg Jenner su Bluesky
Un utente di Bluesky, Greg Jenner, ha messo alla prova AI Overviews creando espressioni insensate e affiancandole al termine “significato”. His experiment revealed that even totally made-up idioms received professional-level explanations. Ad esempio, uno dei suoi tentativi includeva la frase “you can’t lick a badger twice”, alla quale Google ha risposto con una definizione che affermava che il termine significasse non poter ingannare qualcuno due volte, inclusa una spiegazione convincente del funzionamento dell’idioma, nonostante fosse semplicemente frutto della fantasia di Jenner. Questo episodio ha messo in luce non solo la potenza, ma anche la pericolosità di affidarsi a risultati di ricerca automatizzati che, sebbene tecnicamente precisi, possono veicolare informazioni completamente errate.
Errori di fiducia e implicazioni per gli utenti
Quando si utilizza Google per cercare informazioni, si presume un certo grado di affidabilità. Tuttavia, le recenti evoluzioni della tecnologia AI hanno sollevato interrogativi sulla validità di tale fiducia. Con frasi costruite ad hoc, come quelle menzionate, gli utenti rischiano di trovarsi di fronte a informazioni infondate spacciate per verità.
A dispetto di un avviso sulla pagina dei risultati che indica “l’AI generativa è sperimentale”, il messaggio potrebbe non essere sufficiente a prevenire la confusione tra verità e falsità. Le “hallucinations” dell’AI pongono una seria sfida per Google, poiché compromettono la capacità degli utenti di discriminare tra fatti verificabili e affermazioni ingannevoli. Le ricerche su argomenti di rilevanza, come citazioni o dati storici, potrebbero essere influenzate negativamente da questi errori, conducendo gli utenti a trarre conclusioni errate e a condividere informazioni non verificate.
Risposte e futuri sviluppi
Abbiamo contattato Google per avere un chiarimento riguardo a queste problematiche legate all’AI Overviews. Rimaniamo in attesa di una risposta ufficiale rispetto a questa situazione critica. La questione solleva interrogativi non solo su come la tecnologia AI possa essere implementata, ma anche su come le aziende di tecnologia, inclusa Google, gestiranno la fiducia degli utenti nell’era dell’informazione automatizzata.
Hai provato a utilizzare AI Overviews? Quali espressioni inventate hai testato e quali sono state le risposte di Google? Raccontaci le tue esperienze nei commenti!