Révolution en IA: Le nouveau transistor simulant l'intelligence humaine
Des chercheurs ont développé un nouveau transistor synaptique qui imite les capacités de traitement et de mémoire intégrées du cerveau humain. Cet appareil fonctionne à température ambiante, est économe en énergie et peut effectuer des tâches cognitives complexes telles que l'apprentissage associatif, ce qui constitue une avancée significative dans le domaine de l'intelligence artificielle. Crédit : Xiaodong Yan/Université Northwestern
S'inspirant du fonctionnement complexe du cerveau humain, une équipe de chercheurs de l'Université Northwestern, du Boston College et du Massachusetts Institute of Technology (MIT) a créé un nouveau transistor synaptique innovant.
Ce dispositif avancé non seulement traite mais aussi stocke des informations, reflétant ainsi la nature multifonctionnelle du cerveau humain. Les expériences récentes de l'équipe ont montré que ce transistor va au-delà des simples tâches d'apprentissage automatique pour catégoriser les données et est capable d'effectuer un apprentissage associatif.
Bien que des études précédentes aient utilisé des stratégies similaires pour développer des dispositifs informatiques similaires au cerveau, ces transistors ne peuvent pas fonctionner à l'extérieur des températures cryogéniques. Le nouveau dispositif, en revanche, est stable à température ambiante. Il fonctionne également à grande vitesse, consomme très peu d'énergie et conserve les informations stockées même lorsqu'il est déconnecté de l'alimentation, ce qui le rend idéal pour les applications réelles.
L'étude a été récemment publiée dans la revue Nature.
« Le cerveau a une architecture fondamentalement différente d'un ordinateur numérique », explique Mark C. Hersam de l'Université Northwestern, co-responsable de la recherche. « Dans un ordinateur numérique, les données circulent entre un microprocesseur et une mémoire, ce qui consomme beaucoup d'énergie et crée un goulot d'étranglement lorsqu'il s'agit d'effectuer plusieurs tâches en même temps. En revanche, dans le cerveau, la mémoire et le traitement des informations sont situés au même endroit et entièrement intégrés, ce qui entraîne une efficacité énergétique bien supérieure. Notre transistor synaptique réalise de manière similaire une fonctionnalité de mémoire et de traitement des informations simultanée pour imiter plus fidèlement le cerveau. »
Hersam est le professeur Walter P. Murphy de science des matériaux et d'ingénierie à l'école d'ingénierie McCormick de l'Université Northwestern. Il est également directeur du département des sciences et de l'ingénierie des matériaux, directeur du Centre de recherche en sciences et en ingénierie des matériaux et membre de l'Institut international de nanotechnologie. Hersam a dirigé la recherche en collaboration avec Qiong Ma du Boston College et Pablo Jarillo-Herrero du MIT.
Les récents progrès de l'intelligence artificielle (IA) ont incité les chercheurs à développer des ordinateurs qui fonctionnent davantage comme le cerveau humain. Les systèmes informatiques conventionnels et numériques ont des unités de traitement et de stockage séparées, ce qui fait que les tâches intensives en données consomment de grandes quantités d'énergie. Avec les appareils intelligents collectant en continu d'énormes quantités de données, les chercheurs s'efforcent de trouver de nouvelles façons de les traiter sans consommer toujours plus d'énergie. Actuellement, la technologie la plus avancée en matière de fonctions de traitement et de mémoire combinées est le résistor de mémoire, ou "memristor". Cependant, les memristors souffrent encore d'une commutation énergivore.
« Pendant plusieurs décennies, le paradigme en électronique a consisté à tout construire à partir de transistors et à utiliser la même architecture en silicium », explique Hersam. « Des progrès significatifs ont été réalisés en ajoutant simplement de plus en plus de transistors dans les circuits intégrés. On ne peut nier le succès de cette stratégie, mais elle se fait au prix d'une consommation élevée d'énergie, surtout à une époque où les données volumineuses sont sur le point de submerger le réseau électrique. Nous devons repenser le matériel informatique, en particulier pour les tâches d'IA et d'apprentissage automatique. »
Pour repenser ce paradigme, Hersam et son équipe ont exploré de nouvelles avancées dans la physique des motifs de moiré, un type de dessin géométrique qui apparaît lorsque deux motifs sont superposés. Lorsque des matériaux bidimensionnels sont empilés, de nouvelles propriétés émergent qui n'existent pas dans une seule couche. Et lorsque ces couches sont tournées pour former un motif de moiré, une accordabilité sans précédent des propriétés électroniques devient possible.
Pour le nouveau dispositif, les chercheurs ont combiné deux types différents de matériaux atomiquement minces : le graphène à bicouche et le nitrure de bore hexagonal. Lorsqu'ils sont empilés et intentionnellement tournés, les matériaux forment un motif de moiré. En faisant tourner une couche par rapport à l'autre, les chercheurs ont pu obtenir différentes propriétés électroniques dans chaque couche de graphène, bien qu'elles soient séparées par des dimensions à l'échelle atomique. Avec le bon choix de torsion, les chercheurs ont exploité la physique des moirés pour obtenir une fonctionnalité neuromorphique à température ambiante.
« Avec la torsion en tant que nouveau paramètre de conception, le nombre de permutations est vaste », explique Hersam. « Le graphène et le nitrure de bore hexagonal sont très similaires du point de vue structurel mais suffisamment différents pour donner des effets de moiré exceptionnellement forts. »
To test the transistor, Hersam and his team trained it to recognize similar — but not identical — patterns. Just earlier this month, Hersam introduced a new nanoelectronic device capable of analyzing and categorizing data in an energy-efficient manner, but his new synaptic transistor takes machine learning and AI one leap further.
“If AI is meant to mimic human thought, one of the lowest-level tasks would be to classify data, which is simply sorting into bins,” Hersam said. “Our goal is to advance AI technology in the direction of higher-level thinking. Real-world conditions are often more complicated than current AI algorithms can handle, so we tested our new devices under more complicated conditions to verify their advanced capabilities.”
First, the researchers showed the device one pattern: 000 (three zeros in a row). Then, they asked the AI to identify similar patterns, such as 111 or 101. “If we trained it to detect 000 and then gave it 111 and 101, it knows 111 is more similar to 000 than 101,” Hersam explained. “000 and 111 are not exactly the same, but both are three digits in a row. Recognizing that similarity is a higher-level form of cognition known as associative learning.”
In experiments, the new synaptic transistor successfully recognized similar patterns, displaying its associative memory. Even when the researchers threw curveballs — like giving it incomplete patterns — it still successfully demonstrated associative learning.
“Current AI can be easy to confuse, which can cause major problems in certain contexts,” Hersam said. “Imagine if you are using a self-driving vehicle, and the weather conditions deteriorate. The vehicle might not be able to interpret the more complicated sensor data as well as a human driver could. But even when we gave our transistor imperfect input, it could still identify the correct response.”