Project Astra, lanciato originariamente durante il Google I/O 2024, sta emergendo come un vero e proprio laboratorio d’ideazione per le aspirazioni nell’assistenza AI del gigante tecnologico. Questo bot multimodale, capace di “vedere” e “ascoltare”, non è un prodotto destinato ai consumatori e non sarà accessibile in tempi brevi al grande pubblico, essendo riservato a un gruppo selezionato di tester. Ciò che rappresenta Astra è una sintesi dei sogni più ambiziosi di Google riguardo a cosa l’intelligenza artificiale potrebbe realizzare per le persone in un futuro prossimo. Come afferma Greg Wayne, direttore della ricerca di Google DeepMind, “Astra è un po’ come una concept car per un assistente AI universale.”
Indice dei contenuti
L’evoluzione delle funzionalità di Astra
Nel corso del tempo, le funzionalità che emergono da Astra vengono integrate in Gemini e altre applicazioni. Già, il team ha implementato diverse soluzioni per l’emissione vocale, la memoria e alcune funzioni basilari per l’utilizzo di computer. Man mano che queste caratteristiche diventano strumenti comuni, il team di Astra si impegna a sviluppare nuove idee.
Durante l’ultima edizione della conferenza degli sviluppatori I/O, Google ha svelato ulteriori funzionalità per Astra, dimostrando come l’azienda stia ridefinendo la figura del suo assistente AI e la visione evoluta delle sue potenzialità. In aggiunta alla semplice risposta a domande o alla capacità di utilizzare la fotocamera dello smartphone per ricordare dove sono stati lasciati occhiali, Astra ha ora la capacità di completare compiti per conto dell’utente, addirittura senza alcuna richiesta da parte di quest’ultimo.
Proattività: la nuova frontiera di Astra
La vera novità che ha catturato l’attenzione è la proattività di Astra. “Astra può decidere quando parlare in base agli eventi che osserva,” spiega Wayne. Questo rappresenta una modifica sostanziale: invece di dover puntare il telefono verso un oggetto e porre una domanda all’assistente AI, Astra intende avere una sorveglianza costante, ascoltando e osservando in attesa del momento ideale per intervenire. I progettisti stanno considerando una vasta gamma di dispositivi all’interno dei quali i prodotti simili ad Astra potrebbero funzionare, concentrandosi attualmente su smartphone e occhiali intelligenti. Quest’ultimo esempio potrebbe dimostrarsi particolarmente utile per un assistente capace di vedere e sentire.
Immagina che mentre stai facendo i compiti, Astra possa notare un errore e indicarti dove hai sbagliato, piuttosto che aspettare che tu finisci per chiedere un controllo. Se stai seguendo un regime di digiuno intermittente, Astra potrebbe avvisarti quando è l’ora di mangiare, o chiederti se realmente sia il momento giusto di mangiare, considerando la tua diet plan.
La sfida dell’autonomia di Astra
Secondo Demis Hassabis, CEO di DeepMind, insegnare ad Astra ad agire di propria iniziativa è parte integrante del progetto sin dall’inizio. Definita “lettura della stanza”, questa capacità rappresenta una sfida complessa: comunicare quando intervenire, quali toni usare e come fornire aiuto, è qualcosa che gli esseri umani fanno relativamente bene ma che risulta difficile da quantificare e studiare. “Se il prodotto non funziona e inizia a intervenire senza essere sollecitato, nessuno lo userà,” avverte Hassabis.
Sebbene un assistente davvero proattivo sia ancora lontano, il fulcro del funzionamento di Astra risiede in una notevole quantità di informazioni personali, accessibili recententemente. Infatti, l’assistente ora può accedere a dati dal web e da altri prodotti Google, come il calendario per indicare orari di partenza o le email per recuperare informazioni necessarie in tempo reale. Tuttavia, garantire un funzionamento affidabile richiederà tempo.
Nuove funzionalità e utilizzo dell’Android
Un importante passo avanti per Astra è l’apprendimento dell’uso del telefono Android. Bibo Xiu, manager di prodotto del team DeepMind, ha mostrato una demo in cui mirava la fotocamera del suo smartphone a una coppia di cuffie Sony, chiedendo di identificarle. Astra ha risposto con precisione e Xiu ha quindi chiesto all’assistente di trovare il manuale e spiegare come connetterle al suo telefono. Con sorprendente efficacia, Astra ha effettuato questi compiti autonomamente.
Sebbene il processo non fosse completamente fluido — poiché Xiu ha dovuto attivare manualmente una funzionalità per consentire ad Astra di accedere allo schermo — il team sta lavorando per rendere questo passaggio automatico. Entrambi i colossi tecnologici, Google e Apple, ambiscono a creare assistenti in grado di navigare tra le app, modificare impostazioni, rispondere ai messaggi e persino giocare senza la necessità di interazione diretta da parte dell’utente. Tuttavia, sviluppare questa tecnologia comporta sfide notevoli. La demo di Xiu, pur impressionante, ha evidenziato quanto il compito fosse comunque semplice, ma i progressi di Astra sono promettenti.
Attualmente, la maggior parte delle AI “agenti” non funziona in modo ottimale; richiedono all’utente di intervenire continuamente per fornire contesto e informazioni necessarie. L’obiettivo di Google è ridurre al minimo questo carico di lavoro, rendendo Astra capace di sapere quando e come intervenire, e quale informazione utilizzare per completare i compiti. Ogni fase di questo processo richiederà progressi tecnologici, gran parte dei quali ancora da realizzare, oltre a dover affrontare complicate questioni riguardanti l’interfaccia utente, la privacy e ulteriori problematiche.