In einer beeindruckenden Entdeckung zeigt AI die Bildung von menschenähnlichem Gedächtnis.
Ein interdisziplinäres Team hat herausgefunden, dass KI-Modelle, insbesondere der Transformer, das Gedächtnis auf ähnliche Weise nutzen wie der Hippocampus des menschlichen Gehirns. Diese bedeutende Entdeckung legt nahe, dass die Anwendung neurowissenschaftlicher Prinzipien, wie die Funktionsweise des NMDA-Rezeptors, auf die KI das Gedächtnis verbessern, das KI-Feld voranbringen und Einblicke in die Funktion des menschlichen Gehirns liefern könnte. Bildnachweis: SciTechDaily.com
Wissenschaftler haben Parallelen zwischen KI-Gedächtniskonsolidierungsprozessen und denen des menschlichen Gehirns, insbesondere im Hippocampus, identifiziert. Dies bietet Möglichkeiten für Entwicklungen in der KI und ein tieferes Verständnis der menschlichen Gedächtnismechanismen.
Ein Forschungsteam, bestehend aus Forschern des Center for Cognition and Sociality und der Data Science Group am Institute for Basic Science (IBS), hat eine bemerkenswerte Ähnlichkeit zwischen der Art und Weise festgestellt, wie KI-Modelle und das menschliche Gehirn, insbesondere der Hippocampus, das Gedächtnis verarbeiten. Diese neuartige Perspektive beleuchtet die Gedächtniskonsolidierung, den Prozess, der Kurzzeitgedächtnisse in Langzeitgedächtnisse in KI-Systemen umwandelt.
Während wir uns um die Entwicklung künstlicher allgemeiner Intelligenz (AGI) bemühen, die von führenden Unternehmen wie OpenAI und Google DeepMind vorangetrieben wird, ist das Verständnis und die Vervielfältigung menschenähnlicher Intelligenz zu einem wichtigen Forschungsschwerpunkt geworden. Im Mittelpunkt dieser Fortschritte steht das Transformer-Modell, das derzeit intensiv untersucht wird.
Abbildung 1. (a) Diagramm der Ionenkanalaktivität in postsynaptischen Neuronen. AMPA-Rezeptoren sind an der Aktivierung postsynaptischer Neuronen beteiligt, während NMDA-Rezeptoren durch Magnesiumionen (Mg²⁺) blockiert werden, aber die synaptische Plastizität durch den Zustrom von Kalziumionen (Ca²⁺) stimulieren, wenn das postsynaptische Neuron ausreichend stimuliert wird. (b) Flussdiagramm, das den Rechenprozess innerhalb des Transformer AI-Modells veranschaulicht. Informationen werden in aufeinanderfolgenden Stufen verarbeitet, z. B. Feed-Forward-Schichten, Schichtnormalisierungsschichten und Selbstaufmerksamkeitsschichten. Die Grafik, die die Strom-Spannungs-Beziehung der NMDA-Rezeptoren darstellt, ist der Nichtlinearität der Feed-Forward-Schicht unglaublich ähnlich. Das Input-Output-Diagramm zeigt entsprechend der Magnesiumdichte (α) die Änderungen in der Nichtlinearität der NMDA-Rezeptoren. Bildnachweis: Institut für Grundlagenwissenschaften.
Für robuste KI-Systeme ist es von entscheidender Bedeutung zu verstehen, wie sie Informationen verstehen und speichern. Das Team implementierte Lernprinzipien des menschlichen Gehirns, wobei der Schwerpunkt auf der Gedächtniskonsolidierung über den NMDA-Rezeptor im Hippocampus lag, auf KI-Modelle.
Der NMDA-Rezeptor funktioniert wie eine intelligente Tür in Ihrem Gehirn, die das Lernen und die Gedächtnisbildung fördert. Eine Nervenzelle erfährt Erregung, wenn eine Gehirnchemikalie namens Glutamat vorhanden ist. Umgekehrt dient ein Magnesiumion als Tür-blockierender Pförtner. Erst wenn dieser ionische Pförtner aus dem Weg geht, dürfen Stoffe in die Zelle gelangen. Dieser Mechanismus ermöglicht es dem Gehirn, Erinnerungen zu erzeugen und zu speichern, wobei der Gatekeeper von Magnesiumionen eine einzigartige Rolle spielt.
Die faszinierende Entdeckung des Teams ergab, dass das Transformer-Modell offenbar einen Gatekeeping-Mechanismus verwendet, der dem NMDA-Rezeptor des Gehirns ähnelt. Dies veranlasste die Forscher zu der Untersuchung, ob die Speicherkonsolidierung des Transformers durch ein System reguliert werden könnte, das mit dem Gating-Verfahren des NMDA-Rezeptors vergleichbar ist.
Es ist bekannt, dass niedrige Magnesiumspiegel im Gehirn von Tieren die Gedächtnisfunktion beeinträchtigen. Die Wissenschaftler stellten fest, dass durch die Nachahmung des NMDA-Rezeptors das Langzeitgedächtnis des Transformers verbessert wurde. Ähnlich wie veränderte Magnesiumkonzentrationen im Gehirn die Gedächtnisleistung beeinflussen, führte die Anpassung der Parameter des Transformers, um die Gating-Aktion des NMDA-Rezeptors widerzuspiegeln, zu einem verbesserten Gedächtnis im KI-Modell. Diese entscheidende Entdeckung zeigt, dass fundiertes neurowissenschaftliches Wissen klären kann, wie KI-Modelle lernen.
Der Neurowissenschaftler des Instituts, C. Justin LEE, sagte: „Diese Forschung stellt einen entscheidenden Schritt vorwärts bei der Weiterentwicklung von KI und Neurowissenschaften dar. Sie ermöglicht es uns, tiefer in die Betriebsregeln des Gehirns einzudringen und auf der Grundlage dieser Erkenntnisse ausgefeiltere KI-Systeme zu entwickeln.“
Der Datenwissenschaftler am KAIST und Teammitglied CHA Meeyoung erklärte: „Das menschliche Gehirn ist in seiner Fähigkeit, minimal zu funktionieren, außergewöhnlich, im Gegensatz zu umfangreichen KI-Modellen, die erhebliche Ressourcen erfordern. Unsere Erkenntnisse ebnen den Weg für kostengünstige, leistungsstarke KI-Systeme, die lernen.“ und Informationen ähnlich wie Menschen speichern.“
Was diese Studie auszeichnet, ist ihre Initiative, vom Gehirn inspirierte Nichtlinearität in ein KI-Konstrukt zu integrieren, was einen bedeutenden Fortschritt bei der Simulation der menschenähnlichen Gedächtniskonsolidierung darstellt. Die Konvergenz menschlicher kognitiver Mechanismen und KI-Design verspricht nicht nur die Schaffung kostengünstiger, leistungsstarker KI-Systeme, sondern liefert durch KI-Modelle auch wertvolle Einblicke in die Funktionsweise des Gehirns.