In una scoperta sorprendente, l'IA mostra una formazione della memoria simile a quella umana.

21 Dicembre 2023 2358
Share Tweet

Un team interdisciplinare ha scoperto che i modelli di intelligenza artificiale, in particolare il Transformer, processano la memoria in modo simile all'ippocampo del cervello umano. Questa scoperta rivoluzionaria suggerisce che l'applicazione dei principi della neuroscienza, come quelli del recettore NMDA, all'intelligenza artificiale può migliorare le funzioni di memoria, avanzando così nel campo dell'IA e offrendo nuove intuizioni sul funzionamento del cervello umano. Credit: SciTechDaily.com

I ricercatori hanno scoperto che i processi di consolidamento della memoria dell'IA assomigliano a quelli del cervello umano, in particolare dell'ippocampo, offrendo potenzialità per progressi nell'ambito dell'IA e una comprensione più profonda dei meccanismi di memoria umani.

Un team interdisciplinare composto da ricercatori del Center for Cognition and Sociality e del Data Science Group dell'Istituto per la Scienza di Base (IBS) ha rivelato una sorprendente somiglianza tra il processo di elaborazione della memoria dei modelli di intelligenza artificiale (IA) e l'ippocampo del cervello umano. Questa nuova scoperta fornisce una prospettiva innovativa sulla consolidazione della memoria, un processo che trasforma le memorie a breve termine in memorie a lungo termine, nei sistemi di intelligenza artificiale.

Nella corsa verso lo sviluppo dell'Intelligenza Artificiale Generale (AGI), con entità influenti come OpenAI e Google DeepMind in prima linea, capire e replicare l'intelligenza simile a quella umana è diventato un importante interesse di ricerca. Al centro di questi progressi tecnologici si trova il modello Transformer [Figura 1], i cui principi fondamentali vengono ora esplorati in maniera approfondita.

Figura 1. (a) Diagramma che illustra l'attività dei canali ionici nei neuroni postsinaptici. I recettori AMPA sono coinvolti nell'attivazione dei neuroni postsinaptici, mentre i recettori NMDA sono bloccati da ioni di magnesio (Mg²⁺) ma inducono la plasticità sinaptica attraverso l'ingresso di ioni di calcio (Ca²⁺) quando il neurone postsinaptico è sufficientemente attivato. (b) Diagramma di flusso che rappresenta il processo computazionale all'interno del modello di intelligenza artificiale Transformer. Le informazioni vengono elaborate sequenzialmente attraverso fasi come strati di feed-forward, normalizzazione di livello e strati di autoattenzione. Il grafico che rappresenta la relazione corrente-tensione dei recettori NMDA è molto simile alla non linearità dello strato di feed-forward. Il grafico input-output, basato sulla concentrazione di magnesio (α), mostra i cambiamenti nella non linearità dei recettori NMDA. Credit: Istituto per la Scienza di Base

La chiave per potenti sistemi di intelligenza artificiale è capire come imparano e ricordano le informazioni. Il team ha applicato i principi dell'apprendimento del cervello umano, concentrandosi specificamente sulla consolidazione della memoria attraverso il recettore NMDA nell'ippocampo, ai modelli di intelligenza artificiale.

Il recettore NMDA è come una porta intelligente nel tuo cervello che facilita l'apprendimento e la formazione della memoria. Quando una sostanza chimica chiamata glutammato è presente, la cellula nervosa subisce eccitazione. D'altra parte, un ione di magnesio agisce come un piccolo guardiano che blocca la porta. Solo quando questo guardiano ionico si sposta, le sostanze possono fluire nella cellula. Questo è il processo che consente al cervello di creare e mantenere i ricordi, e il ruolo del guardiano (l'ione di magnesio) in tutto il processo è piuttosto specifico.

Il team ha fatto una scoperta affascinante: il modello Transformer sembra utilizzare un processo di guardia simile al recettore NMDA del cervello [vedi Figura 1]. Questa rivelazione ha spinto i ricercatori a indagare se la consolidazione della memoria del Transformer possa essere controllata da un meccanismo simile al processo di guardia del recettore NMDA.

Nel cervello animale, un basso livello di magnesio è noto per indebolire la funzione di memoria. I ricercatori hanno scoperto che la memoria a lungo termine nel Transformer può essere migliorata imitando il recettore NMDA. Proprio come nel cervello, dove i cambiamenti dei livelli di magnesio influenzano la forza della memoria, l'aggiustamento dei parametri del Transformer per riflettere l'azione di controllo del recettore NMDA ha portato a una memoria potenziata nel modello di intelligenza artificiale. Questa scoperta rivoluzionaria suggerisce che il modo in cui i modelli di intelligenza artificiale imparano può essere spiegato con conoscenze consolidate in neuroscienze.

C. Justin LEE, neuroscienziato direttore dell'istituto, ha dichiarato: "Questa ricerca rappresenta un passo cruciale nell'avanzamento dell'intelligenza artificiale e delle neuroscienze. Ci consente di approfondire i principi operativi del cervello e sviluppare sistemi di intelligenza artificiale più avanzati basati su queste intuizioni".

CHA Meeyoung, data scientist nel team e presso il KAIST, osserva: "Il cervello umano è notevole nel modo in cui opera con un consumo energetico minimo, a differenza dei grandi modelli di intelligenza artificiale che richiedono immense risorse. Il nostro lavoro apre nuove possibilità per sistemi di intelligenza artificiale a basso costo e ad alte prestazioni che imparano e ricordano le informazioni come gli esseri umani".

What sets this study apart is its initiative to incorporate brain-inspired nonlinearity into an AI construct, signifying a significant advancement in simulating human-like memory consolidation. The convergence of human cognitive mechanisms and AI design not only holds promise for creating low-cost, high-performance AI systems but also provides valuable insights into the workings of the brain through AI models.


ARTICOLI CORRELATI