Revolution in AI: Neuer gehirnähnlicher Transistor ahmt menschliche Intelligenz nach
Forscher haben einen neuartigen synaptischen Transistor entwickelt, der die integrierte Verarbeitung und Speicherfähigkeit des menschlichen Gehirns nachahmt. Dieses Gerät arbeitet bei Raumtemperatur, ist energieeffizient und kann komplexe kognitive Aufgaben wie assoziatives Lernen durchführen, was einen signifikanten Fortschritt auf dem Gebiet der künstlichen Intelligenz darstellt. Bildnachweis: Xiaodong Yan/Northwestern University
Basierend auf den komplexen Funktionen des menschlichen Gehirns hat ein Team von Forschern der Northwestern University, Boston College und dem Massachusetts Institute of Technology (MIT) einen innovativen synaptischen Transistor entwickelt.
Dieses fortschrittliche Gerät verarbeitet nicht nur Informationen, sondern speichert sie auch, was die multifunktionale Natur des menschlichen Gehirns widerspiegelt. Aktuelle Experimente des Teams haben gezeigt, dass dieser Transistor über einfache maschinelles Lernen hinausgeht und Daten kategorisieren kann, wodurch er in der Lage ist, assoziatives Lernen durchzuführen.
Obwohl frühere Studien ähnliche Strategien genutzt haben, um gehirnähnliche Rechengeräte zu entwickeln, können diese Transistoren außerhalb von kryogenen Temperaturen nicht funktionieren. Im Gegensatz dazu ist das neue Gerät bei Raumtemperatur stabil. Es arbeitet auch mit hoher Geschwindigkeit, verbraucht sehr wenig Energie und behält gespeicherte Informationen sogar bei entfernter Stromzufuhr bei, was es ideal für den Einsatz in der realen Welt macht.
Die Studie wurde kürzlich in der Fachzeitschrift Nature veröffentlicht.
„Das Gehirn hat eine grundlegend andere Architektur als ein digitaler Computer“, sagte Mark C. Hersam von der Northwestern University, der die Forschung gemeinsam leitete. „Bei einem digitalen Computer bewegen sich Daten zwischen einem Mikroprozessor und dem Speicher hin und her, was viel Energie verbraucht und zu Engpässen führt, wenn gleichzeitig mehrere Aufgaben ausgeführt werden sollen. Im Gegensatz dazu sind Gedächtnis und Informationsverarbeitung im Gehirn an einem Ort vereint und vollständig integriert, was zu einer um Größenordnungen höheren Energieeffizienz führt. Unser synaptischer Transistor erreicht ähnlich wie das Gehirn eine gleichzeitige Speicher- und Informationsverarbeitungsfunktion, um das Gehirn besser nachahmen zu können.“
Hersam ist der Walter P. Murphy Professor für Materialwissenschaften und Ingenieurwesen an der McCormick School of Engineering der Northwestern University. Er ist auch Vorsitzender des Fachbereichs Materialwissenschaften und Ingenieurwesen, Direktor des Materials Research Science and Engineering Center und Mitglied des International Institute for Nanotechnology. Hersam leitete die Forschung zusammen mit Qiong Ma vom Boston College und Pablo Jarillo-Herrero vom MIT.
Jüngste Fortschritte in der künstlichen Intelligenz (KI) haben Forscher dazu motiviert, Computer zu entwickeln, die eher wie das menschliche Gehirn funktionieren. Herkömmliche, digitale Rechensysteme haben separate Verarbeitungs- und Speichereinheiten, wodurch datenintensive Aufgaben große Mengen an Energie verbrauchen. Da smarte Geräte kontinuierlich riesige Mengen an Daten sammeln, suchen Forscher fieberhaft nach neuen Möglichkeiten, diese Daten zu verarbeiten, ohne immer mehr Energie zu verbrauchen. Derzeit ist der Memristor die am weitesten entwickelte Technologie, die kombinierte Verarbeitungs- und Speicherfunktionen ausführen kann. Memristoren leiden jedoch immer noch unter energieaufwendigem Umschalten.
„Seit mehreren Jahrzehnten basiert die Elektronik-Paradigma darauf, alles aus Transistoren zu bauen und die gleiche Silizium-Architektur zu verwenden“, sagte Hersam. „Durch einfaches Verpacken immer mehr Transistoren in integrierte Schaltungen wurde bedeutender Fortschritt erzielt. Man kann den Erfolg dieser Strategie nicht leugnen, aber sie geht mit einem hohen Energieverbrauch einher, vor allem in der heutigen Ära von Big Data, wo die digitale Rechenleistung dazu neigt, das Stromnetz zu überlasten. Wir müssen unsere Ansichten über Hardware für das Computing neu überdenken, insbesondere für KI- und maschinelles Lernen-Aufgaben.“
Um dieses Paradigma zu überdenken, haben Hersam und sein Team neue Fortschritte in der Physik von Moiré-Mustern untersucht, eine Art geometrisches Design, das entsteht, wenn zwei Muster übereinander gelegt werden. Wenn zweidimensionale Materialien gestapelt werden, entstehen neue Eigenschaften, die allein in einer Schicht nicht existieren. Und wenn diese Schichten verdreht werden, um ein Moiré-Muster zu bilden, wird eine bisher unerreichte Einstellbarkeit der elektronischen Eigenschaften möglich.
Für das neue Gerät kombinierten die Forscher zwei verschiedene Arten von atomar dünnen Materialien: zweilagiges Graphen und hexagonales Bornitrid. Wenn sie gestapelt und gezielt verdreht wurden, bildeten die Materialien ein Moiré-Muster. Durch Drehung einer Schicht relativ zur anderen konnten die Forscher unterschiedliche elektronische Eigenschaften in jeder Graphen-Schicht erzielen, obwohl sie nur durch atomare Dimensionen voneinander getrennt sind. Mit der richtigen Wahl der Verdrehung nutzten die Forscher die Moiré-Physik für neuromorphe Funktionalität bei Raumtemperatur.
„Mit der Verdrehung als neuem Designparameter sind die Möglichkeiten vielfältig“, sagte Hersam. „Graphen und hexagonales Bornitrid ähneln sich strukturell sehr, sind aber gerade unterschiedlich genug, dass außergewöhnlich starke Moiré-Effekte auftreten.“
To test the transistor, Hersam and his team trained it to recognize similar — but not identical — patterns. Just earlier this month, Hersam introduced a new nanoelectronic device capable of analyzing and categorizing data in an energy-efficient manner, but his new synaptic transistor takes machine learning and AI one leap further.
“If AI is meant to mimic human thought, one of the lowest-level tasks would be to classify data, which is simply sorting into bins,” Hersam said. “Our goal is to advance AI technology in the direction of higher-level thinking. Real-world conditions are often more complicated than current AI algorithms can handle, so we tested our new devices under more complicated conditions to verify their advanced capabilities.”
First, the researchers showed the device one pattern: 000 (three zeros in a row). Then, they asked the AI to identify similar patterns, such as 111 or 101. “If we trained it to detect 000 and then gave it 111 and 101, it knows 111 is more similar to 000 than 101,” Hersam explained. “000 and 111 are not exactly the same, but both are three digits in a row. Recognizing that similarity is a higher-level form of cognition known as associative learning.”
In experiments, the new synaptic transistor successfully recognized similar patterns, displaying its associative memory. Even when the researchers threw curveballs — like giving it incomplete patterns — it still successfully demonstrated associative learning.
“Current AI can be easy to confuse, which can cause major problems in certain contexts,” Hersam said. “Imagine if you are using a self-driving vehicle, and the weather conditions deteriorate. The vehicle might not be able to interpret the more complicated sensor data as well as a human driver could. But even when we gave our transistor imperfect input, it could still identify the correct response.”