AI Princetona odblokowuje nowe poziomu wydajności w reaktorach fuzyjnych

06 Czerwiec 2024 2975
Share Tweet

Badacze z Princeton i Princeton Plasma Physics Laboratory skutecznie wykorzystali uczenie maszynowe do eliminowania nagłych przypływów energii na krańcach plazmy w reaktorach fuzyjnych, zwiększając wydajność bez uszkodzeń. Źródło: SciTechDaily.com

Zespół z Princeton opracował metodę uczenia maszynowego do sterowania nagłymi przepływami energii na krańcach plazmy w reaktorach fuzyjnych, osiągając wysoką wydajność bez zakłóceń i znacznie skracając czasy obliczeń dla natychmiastowych korekt systemu.

Osiągnięcie utrzymującej się reakcji fuzyjnej jest skomplikowane, ale delikatne. Wymaga ona, aby masa elementów ruchomych zgrała się razem, aby utrzymać plazmę o wysokiej wydajności: na tyle gęstą, na tyle gorącą i na tyle długo utrzymaną, aby doszło do fuzyjnej.

Jednak gdy badacze przesuwają granice wydajności plazmy, napotykają na nowe wyzwania dotyczące utrzymania plazmy pod kontrolą, w tym na jedno, które polega na nagłych przypływach energii uciekających z krawędzi supergorącej plazmy. Te nagłe przypływy negatywnie wpływają na ogólną wydajność i z czasem nawet uszkadzają komponenty reaktora stykające się z plazmą.

Teraz zespół badaczy fuzyjnych kierowany przez inżynierów z Princeton i Princeton Plasma Physics Laboratory (PPPL) Departamentu Energii USA z powodzeniem zastosował metody uczenia maszynowego do eliminowania tych szkodliwych niestabilności krawędzi - bez poświęcania wydajności plazmy.

Ilustracja tokamaku. Źródło: Bumper DeJesus, Andlinger Center for Energy and the Environment

Za pomocą swojego podejścia, które optymalizuje reakcję układu na eliminowanie tych niestabilności w czasie rzeczywistym, zespół badawczy zademonstrował najwyższą wydajność fuzyjną bez obecności nagłych przypływów na krawędziach plazmy w dwóch różnych urządzeniach fuzyjnych - każde z własnym zestawem parametrów operacyjnych. Badacze opublikowali swoje wyniki 11 maja w Nature Communications, co podkreśla ogromny potencjał uczenia maszynowego i innych systemów sztucznej inteligencji do szybkiego tłumienia niestabilności plazmy.

"Nie tylko wykazaliśmy, że nasze podejście jest w stanie utrzymać wydajną plazmę bez niestabilności, ale także pokazaliśmy, że może ono działać w dwóch różnych obiektach - powiedział przywódca badań Egemen Kolemen, profesor nadzwyczajny inżynierii mechanicznej i kosmicznej oraz Andlinger Center for Energy and the Environment. - Udowodniliśmy, że nasze podejście nie jest tylko skuteczne, ale także wszechstronne."

Badacze od dawna eksperymentują z różnymi sposobami pracy reaktorów fuzyjnych, aby osiągnąć warunki niezbędne dla fuzyjnej. Jednym z najbardziej obiecujących podejść jest pracowanie reaktora w trybie wysokiego uwięzienia, charakteryzującego się powstawaniem stromego gradientu ciśnienia na brzegu plazmy, co oferuje ulepszoną konfinację plazmy.

Jednak tryb wysokiego uwięzienia zawsze wiązał się z niestabilnościami na granicy plazmy, co stanowiło wyzwanie dla badaczy fuzyjnych, zmuszających ich do poszukiwania kreatywnych obejść.

Jednym z rozwiązań jest użycie cewek magnetycznych otaczających reaktor fuzyjny do nakładania na krawędź plazmy pól magnetycznych, które rozkładają struktury, które inaczej mogłyby się rozwinąć w pełnoprawną niestabilność krawędzi. Jednak to rozwiązanie jest niedoskonałe: choć skutecznie stabilizuje plazmę, stosowanie tych magnetycznych perturbacji zwykle prowadzi do obniżenia ogólnej wydajności.

"Mamy sposób na kontrolę tych niestabilności, ale z kolei musieliśmy poświęcić wydajność, która jest jednym z głównych motywów działania w trybie wysokiego uwięzienia" - powiedział Kolemen, który jest również badaczem fizyki w PPPL.

Spadek wydajności wynika częściowo z trudności z optymalizacją kształtu i amplitudy stosowanych perturbacji magnetycznych, co z kolei wynika z intensywności obliczeniowej istniejących metod optymalizacji opartych na fizyce. Te tradycyjne metody obejmują zestaw skomplikowanych równań i mogą zająć dziesiątki sekund na optymalizację pojedynczego punktu w czasie - daleko od ideału, gdy zachowanie plazmy może zmieniać się w ułamku sekundy. W rezultacie badacze fuzyjnych musieli z góry ustawić kształt i amplitudę perturbacji magnetycznych przed każdym uruchomieniem fuzji, tracąc możliwość dokonywania korekt w czasie rzeczywistym.

"W przeszłości wszystko musiało być zaprogramowane wcześniej"- powiedział współautor SangKyeun Kim, pracownik naukowy w PPPL i były pracownik na stanowisku postdoktora w grupie Kolemena. "To ograniczenie utrudniało prawdziwą optymalizację systemu, ponieważ oznaczało, że parametry nie mogą być zmieniane w czasie rzeczywistym w zależności od tego, jak rozwijają się warunki plazmy".

The Princeton-led team’s machine learning approach slashes the computation time from tens of seconds to the millisecond scale, opening the door for real-time optimization. The machine learning model, which is a more efficient surrogate for existing physics-based models, can monitor the plasma’s status from one millisecond to the next and alter the amplitude and shape of the magnetic perturbations as needed. This allows the controller to strike a balance between edge burst suppression and high fusion performance, without sacrificing one for the other.

“With our machine learning surrogate model, we reduced the calculation time of a code that we wanted to use by orders of magnitude,” said co-first author Ricardo Shousha, a postdoctoral researcher at PPPL and former graduate student in Kolemen’s group.

Because their approach is ultimately grounded in physics, the researchers said it would be straightforward to apply to different fusion devices around the world. In their paper, for instance, they demonstrated the success of their approach at both the KSTAR tokamak in South Korea and the DIII-D tokamak in San Diego. At both facilities, which each have a unique set of magnetic coils, the method achieved strong confinement and high fusion performance without harmful plasma edge bursts.

“Some machine learning approaches have been critiqued for being solely data-driven, meaning that they’re only as good as the amount of quality data they’re trained on,” Shousha said. “But since our model is a surrogate of a physics code, and the principles of physics apply equally everywhere, it’s easier to extrapolate our work to other contexts.”

The team is already working to refine their model to be compatible with other fusion devices, including planned future reactors such as ITER, which is currently under construction.

One active area of work in Kolemen’s group involves enhancing their model’s predictive capabilities. For instance, the current model still relies on encountering several edge bursts over the course of the optimization process before working effectively, posing unwanted risks to future reactors. If instead the researchers can improve the model’s ability to recognize the precursors to these harmful instabilities, it could be possible to optimize the system without encountering a single edge burst.

Kolemen said the current work is yet another example of the potential for AI to overcome longstanding bottlenecks in developing fusion power as a clean energy resource. Previously, researchers led by Kolemen successfully deployed a separate AI controller to predict and avoid another type of plasma instability in real time at the DIII-D tokamak.

“For many of the challenges we have faced with fusion, we’ve gotten to the point where we know how to approach a solution but have been limited in our ability to implement those solutions by the computational complexity of our traditional tools,” said Kolemen. “These machine learning approaches have unlocked new ways of approaching these well-known fusion challenges.”


POWIĄZANE ARTYKUŁY