Negli ultimi anni, i modelli di linguaggio di grandi dimensioni, come ChatGPT, hanno dimostrato notevoli capacità conversationali. Tuttavia, la loro comprensione delle parole è superficiale. Questi sistemi operano principalmente attraverso l'interazione con i dati estratti dal mondo reale, senza una vera connessione con esso. Gli esseri umani, invece, collegano il linguaggio alle esperienze vissute. Per esempio, comprendiamo il significato di "caldo" grazie alle esperienze dirette del calore. Ma è possibile per un'intelligenza artificiale raggiungere un'intelligibilità simile a quella umana nel campo del linguaggio?
Un passo verso la comprensione del linguaggio
Un team di ricercatori presso l'Istituto di Scienza e Tecnologia di Okinawa ha intrapreso un progetto ambizioso: sviluppare un modello di intelligenza artificiale ispirato al cervello e composto da diversi network neurali. Questo nuovo AI ha però delle limitazioni: è capace di apprendere solo cinque nomi e otto verbi. Nonostante ciò, i ricercatori affermano che il loro modello ha assimilato molto di più rispetto a una semplice lista di vocaboli; ha infatti afferrato i concetti che si celano dietro le parole.
L'apprendimento ispirato alla psicologia dello sviluppo
Prasanna Vijayaraghavan, ricercatore all'Istituto di Scienza e Tecnologia di Okinawa e autore principale dello studio, ha spiegato come l'idea alla base di questo modello prenda ispirazione dalla psicologia dello sviluppo. L'approccio mira a emulare il modo in cui i neonati apprendono e sviluppano il linguaggio. Sebbene concetti come questo non siano del tutto nuovi, il team ha applicato l'idea a un modello di rete neurale standard, cercando di associare le parole con rappresentazioni visive.
In oltre, i ricercatori hanno tentato di addestrare un'intelligenza artificiale utilizzando un feed video da una GoPro indossata da un neonato. Tuttavia, il problema principale è che i bambini non si limitano a associare oggetti a parole durante il loro processo di apprendimento; essi interagiscono con tutto ciò che li circonda. I neonati toccano, afferrano, manipolano e lanciano oggetti, imparando così a pensare e pianificare azioni in relazione al linguaggio. Gli AI astratti, dunque, non avrebbero potuto replicare queste esperienze.
Un'esperienza immersiva per l’AI
Per superare questa limitazione, il team di Vijayaraghavan ha introdotto un'esperienza incarnata. Infatti, l'intelligenza artificiale è stata addestrata in un robot fisico in grado di interagire con il mondo reale. Attraverso questa interazione pratica, il robot ha potuto toccare, muovere e lanciare oggetti, permettendo così all'intelligenza artificiale di apprendere non solo la terminologia, ma anche le dinamiche e le interrelazioni comportamentali che si trovano dietro le parole.
L'esperimento ha dunque avuto come obiettivo non solo l'assimilazione di vocaboli, ma anche la comprensione del contesto e delle funzioni linguistiche. Si tratta di un passo significativo nel tentativo di colmare il divario tra l'intelligenza artificiale e l'intelligenza umana, portando a interrogativi più complessi sul futuro dello sviluppo linguistico nelle macchine.