La IA de Princeton desbloquea nuevos niveles de rendimiento en reactores de fusión

06 Junio 2024 2891
Share Tweet

Investigadores de Princeton y el Laboratorio de Física de Plasmas de Princeton han utilizado con éxito el aprendizaje automático para suprimir las ráfagas de energía en los bordes del plasma en los reactores de fusión, mejorando el rendimiento sin dañar. Crédito: SciTechDaily.com

Un equipo de Princeton ha desarrollado un método de aprendizaje automático para controlar las ráfagas de plasma en los reactores de fusión, logrando un alto rendimiento sin inestabilidades y reduciendo drásticamente los tiempos de cálculo para los ajustes del sistema en tiempo real.

Lograr una reacción de fusión sostenida es un acto de equilibrio complejo y delicado. Requiere un mar de partes móviles para mantener un plasma de alto rendimiento: uno que sea lo suficientemente denso, lo suficientemente caliente y confinado durante el tiempo suficiente para que tenga lugar la fusión.

Sin embargo, a medida que los investigadores presionan los límites del rendimiento del plasma, han encontrado nuevos desafíos para mantener el plasma bajo control, incluido uno que implica ráfagas de energía que escapan del borde de un plasma supercaliente. Estas explosiones de borde impactan negativamente en el rendimiento general y pueden incluso dañar los componentes que enfrentan el plasma en un reactor con el tiempo.

Ahora, un equipo de investigadores de fusión liderado por ingenieros de Princeton y el Departamento de Energía de los Estados Unidos. El Laboratorio de Física de Plasmas de Princeton (PPPL) ha desplegado con éxito métodos de aprendizaje automático para suprimir estas inestabilidades de borde perjudiciales, sin sacrificar el rendimiento del plasma.

Representación de un tokamak. Crédito: Bumper DeJesus, Centro Andlinger de Energía y Ambiente

Con su enfoque, que optimiza la respuesta de supresión del sistema en tiempo real, el equipo de investigación demostró el más alto rendimiento de fusión sin la presencia de explosiones de borde en dos instalaciones de fusión diferentes, cada una con su propio conjunto de parámetros de funcionamiento. Los investigadores informaron sus hallazgos el 11 de mayo en Nature Communications, subrayando el vasto potencial de los sistemas de aprendizaje automático y otras inteligencias artificiales para reprimir rápidamente las inestabilidades del plasma.

"No solo demostramos que nuestro enfoque fue capaz de mantener un plasma de alto rendimiento sin inestabilidades, sino que también demostramos que puede funcionar en dos instalaciones diferentes", dijo el líder de la investigación, Egemen Kolemen, profesor asociado de ingeniería mecánica y aeroespacial en el Centro Andlinger de Energía y el Medio Ambiente. "Demostramos que nuestro enfoque no es solo efectivo, sino también versátil".

Los investigadores han experimentado durante mucho tiempo con diversas formas de operar los reactores de fusión para lograr las condiciones necesarias para la fusión. Uno de los enfoques más prometedores implica operar un reactor en modo de alto confinamiento, un régimen caracterizado por la formación de un fuerte gradiente de presión en el borde del plasma que ofrece un mejor confinamiento del plasma.

Sin embargo, el modo de alto confinamiento históricamente ha venido de la mano con inestabilidades en los bordes del plasma, un desafío que ha requerido que los investigadores de fusión encuentren soluciones creativas.

Una solución implica el uso de las bobinas magnéticas que rodean un reactor de fusión para aplicar campos magnéticos al borde del plasma, rompiendo las estructuras que de otro modo podrían convertirse en una inestabilidad de borde en toda regla. Sin embargo, esta solución es imperfecta: si bien tiene éxito para estabilizar el plasma, la aplicación de estas perturbaciones magnéticas conduce, por lo general, a un menor rendimiento global.

"Tenemos una forma de controlar estas inestabilidades, pero a cambio, hemos tenido que sacrificar el rendimiento, que es una de las principales motivaciones para operar en el modo de alto confinamiento en primer lugar", dijo Kolemen, quien también es físico de investigación en PPPL.

La pérdida de rendimiento se debe en parte a la dificultad de optimizar la forma y la amplitud de las perturbaciones magnéticas aplicadas, lo cual proviene de la intensidad computacional de los enfoques de optimización basados en la física existentes. Estos métodos convencionales implican un conjunto de ecuaciones complejas y pueden llevar decenas de segundos para optimizar un solo punto en el tiempo, lejos de lo ideal cuando el comportamiento del plasma puede cambiar en milisegundos. En consecuencia, los investigadores de fusión han tenido que preestablecer la forma y la amplitud de las perturbaciones magnéticas antes de cada carrera de fusión, perdiendo la capacidad de hacer ajustes en tiempo real.

"En el pasado, todo tenía que estar preprogramado", dijo el coautor principal SangKyeun Kim, científico de investigación del PPPL y ex investigador postdoctoral en el grupo de Kolemen. "Esa limitación ha dificultado la verdadera optimización del sistema, porque significa que los parámetros no pueden cambiarse en tiempo real dependiendo de cómo se desarrollen las condiciones del plasma".

The Princeton-led team’s machine learning approach slashes the computation time from tens of seconds to the millisecond scale, opening the door for real-time optimization. The machine learning model, which is a more efficient surrogate for existing physics-based models, can monitor the plasma’s status from one millisecond to the next and alter the amplitude and shape of the magnetic perturbations as needed. This allows the controller to strike a balance between edge burst suppression and high fusion performance, without sacrificing one for the other.

“With our machine learning surrogate model, we reduced the calculation time of a code that we wanted to use by orders of magnitude,” said co-first author Ricardo Shousha, a postdoctoral researcher at PPPL and former graduate student in Kolemen’s group.

Because their approach is ultimately grounded in physics, the researchers said it would be straightforward to apply to different fusion devices around the world. In their paper, for instance, they demonstrated the success of their approach at both the KSTAR tokamak in South Korea and the DIII-D tokamak in San Diego. At both facilities, which each have a unique set of magnetic coils, the method achieved strong confinement and high fusion performance without harmful plasma edge bursts.

“Some machine learning approaches have been critiqued for being solely data-driven, meaning that they’re only as good as the amount of quality data they’re trained on,” Shousha said. “But since our model is a surrogate of a physics code, and the principles of physics apply equally everywhere, it’s easier to extrapolate our work to other contexts.”

The team is already working to refine their model to be compatible with other fusion devices, including planned future reactors such as ITER, which is currently under construction.

One active area of work in Kolemen’s group involves enhancing their model’s predictive capabilities. For instance, the current model still relies on encountering several edge bursts over the course of the optimization process before working effectively, posing unwanted risks to future reactors. If instead the researchers can improve the model’s ability to recognize the precursors to these harmful instabilities, it could be possible to optimize the system without encountering a single edge burst.

Kolemen said the current work is yet another example of the potential for AI to overcome longstanding bottlenecks in developing fusion power as a clean energy resource. Previously, researchers led by Kolemen successfully deployed a separate AI controller to predict and avoid another type of plasma instability in real time at the DIII-D tokamak.

“For many of the challenges we have faced with fusion, we’ve gotten to the point where we know how to approach a solution but have been limited in our ability to implement those solutions by the computational complexity of our traditional tools,” said Kolemen. “These machine learning approaches have unlocked new ways of approaching these well-known fusion challenges.”


ARTÍCULOS RELACIONADOSL