Revolución en IA: Nuevo transistor de tipo cerebral imita la inteligencia humana.

27 Enero 2024 2065
Share Tweet

Investigadores han desarrollado un nuevo transistor sináptico que imita las capacidades de procesamiento integrado y memoria del cerebro humano. Este dispositivo opera a temperatura ambiente, es eficiente en términos de energía y puede realizar tareas cognitivas complejas como el aprendizaje asociativo, lo que representa un avance significativo en el campo de la inteligencia artificial. Crédito: Xiaodong Yan/Universidad Northwestern

Basándose en el intrincado funcionamiento del cerebro humano, un equipo de investigadores de la Universidad Northwestern, el Boston College y el Instituto de Tecnología de Massachusetts (MIT) ha creado un innovador transistor sináptico.

Este dispositivo avanzado no solo procesa, sino que también almacena información, reflejando la naturaleza multifuncional del cerebro humano. Experimentos recientes realizados por el equipo han demostrado que este transistor va más allá de las tareas simples de aprendizaje automático para categorizar datos y es capaz de realizar aprendizaje asociativo.

Aunque estudios anteriores han utilizado estrategias similares para desarrollar dispositivos informáticos similares al cerebro, esos transistores no pueden funcionar fuera de temperaturas criogénicas. Por el contrario, el nuevo dispositivo es estable a temperatura ambiente. También opera a velocidades rápidas, consume muy poca energía y retiene la información almacenada incluso cuando se quita la energía, lo que lo hace ideal para aplicaciones del mundo real.

El estudio fue publicado recientemente en la revista Nature.

"El cerebro tiene una arquitectura fundamentalmente diferente a la de una computadora digital", dijo Mark C. Hersam de la Universidad de Northwestern, quien co-lideró la investigación. "En una computadora digital, los datos se mueven de ida y vuelta entre un microprocesador y la memoria, lo que consume mucha energía y crea un cuello de botella al intentar realizar múltiples tareas al mismo tiempo. Por otro lado, en el cerebro, la memoria y el procesamiento de la información están ubicados en el mismo lugar y completamente integrados, lo que resulta en una eficiencia energética mucho mayor. Nuestro transistor sináptico logra de manera similar la funcionalidad de memoria y procesamiento de información simultáneos para imitar de manera más fiel el cerebro."

Hersam es profesor Walter P. Murphy de Ciencia e Ingeniería de Materiales en la Escuela de Ingeniería McCormick de la Universidad Northwestern. También es presidente del departamento de ciencia e ingeniería de materiales, director del Centro de Ciencia e Ingeniería de Materiales de Investigación y miembro del Instituto Internacional de Nanotecnología. Hersam co-lideró la investigación junto con Qiong Ma del Boston College y Pablo Jarillo-Herrero del MIT.

Los avances recientes en inteligencia artificial (IA) han motivado a los investigadores a desarrollar computadoras que funcionen más como el cerebro humano. Los sistemas de cómputo digitales convencionales tienen unidades de procesamiento y almacenamiento separadas, lo que hace que las tareas intensivas de datos consuman grandes cantidades de energía. Con los dispositivos inteligentes que recopilan continuamente vastas cantidades de datos, los investigadores se están apresurando para descubrir nuevas formas de procesar todo esto sin consumir una cantidad creciente de energía. Actualmente, el resistor de memoria, o "memristor", es la tecnología más desarrollada que puede realizar funciones de procesamiento y memoria combinadas. Sin embargo, los memristores todavía sufren de un costoso consumo de energía al cambiar.

"Durante varias décadas, el paradigma en electrónica ha sido construir todo a partir de transistores y usar la misma arquitectura de silicio", dijo Hersam. "Se ha logrado un progreso significativo simplemente empaquetando más y más transistores en circuitos integrados. No se puede negar el éxito de esa estrategia, pero se logra a costa de un alto consumo de energía, especialmente en la era actual de big data donde la computación digital está en camino de abrumar la red eléctrica. Tenemos que repensar el hardware de cómputo, especialmente para tareas de IA y aprendizaje automático."

Para repensar este paradigma, Hersam y su equipo exploraron nuevos avances en la física de los patrones de interferencia de Moiré, un tipo de diseño geométrico que surge cuando se superponen dos patrones. Cuando se apilan materiales bidimensionales, surgen nuevas propiedades que no existen en una sola capa. Y cuando esas capas se giran para formar un patrón de Moiré, se vuelve posible una sintonización sin precedentes de las propiedades electrónicas.

Para el nuevo dispositivo, los investigadores combinaron dos tipos diferentes de materiales delgados a escala atómica: grafeno de doble capa y nitruro de boro hexagonal. Cuando se apilan y se giran intencionadamente, los materiales formaron un patrón de Moiré. Al girar una capa en relación con la otra, los investigadores pudieron lograr diferentes propiedades electrónicas en cada capa de grafeno, aunque están separadas solo por dimensiones a escala atómica. Con la elección adecuada de giro, los investigadores aprovecharon la física de Moiré para lograr funcionalidad neuromórfica a temperatura ambiente.

"Con el giro como un nuevo parámetro de diseño, el número de permutaciones es vasto", dijo Hersam. "El grafeno y el nitruro de boro hexagonal son muy similares estructuralmente, pero lo suficientemente diferentes como para obtener efectos de Moiré excepcionalmente fuertes".

To test the transistor, Hersam and his team trained it to recognize similar — but not identical — patterns. Just earlier this month, Hersam introduced a new nanoelectronic device capable of analyzing and categorizing data in an energy-efficient manner, but his new synaptic transistor takes machine learning and AI one leap further.

“If AI is meant to mimic human thought, one of the lowest-level tasks would be to classify data, which is simply sorting into bins,” Hersam said. “Our goal is to advance AI technology in the direction of higher-level thinking. Real-world conditions are often more complicated than current AI algorithms can handle, so we tested our new devices under more complicated conditions to verify their advanced capabilities.”

First, the researchers showed the device one pattern: 000 (three zeros in a row). Then, they asked the AI to identify similar patterns, such as 111 or 101. “If we trained it to detect 000 and then gave it 111 and 101, it knows 111 is more similar to 000 than 101,” Hersam explained. “000 and 111 are not exactly the same, but both are three digits in a row. Recognizing that similarity is a higher-level form of cognition known as associative learning.”

In experiments, the new synaptic transistor successfully recognized similar patterns, displaying its associative memory. Even when the researchers threw curveballs — like giving it incomplete patterns — it still successfully demonstrated associative learning.

“Current AI can be easy to confuse, which can cause major problems in certain contexts,” Hersam said. “Imagine if you are using a self-driving vehicle, and the weather conditions deteriorate. The vehicle might not be able to interpret the more complicated sensor data as well as a human driver could. But even when we gave our transistor imperfect input, it could still identify the correct response.”

 


ARTÍCULOS RELACIONADOSL