Princetons KI erreicht neue Leistungsstufen in Fusionsreaktoren

06 Juni 2024 1597
Share Tweet

Forscher der Princeton University und des Princeton Plasma Physics Laboratory haben erfolgreich maschinelles Lernen eingesetzt, um Energieausbrüche am Rand von Plasma in Fusionsreaktoren zu unterdrücken, wodurch die Leistung verbessert wird, ohne Schaden zu verursachen. Quelle: SciTechDaily.com

Ein Team aus Princeton hat eine Methode des maschinellen Lernens entwickelt, um Plasma-Randausbrüche in Fusionsreaktoren zu steuern, hohe Leistung ohne Instabilitäten zu erreichen und die Rechenzeiten für Echtzeit-Systemanpassungen drastisch zu reduzieren.

Eine anhaltende Fusionsreaktion zu erreichen, ist ein komplexer, aber zugleich heikler Balanceakt. Es erfordert eine Flut von beweglichen Teilen, die zusammenarbeiten, um ein hochleistungsfähiges Plasma aufrechtzuerhalten: eins, das dicht genug, heiß genug und lange genug eingegrenzt ist, damit Fusion stattfinden kann.

Aber während Forscher die Grenzen der Plasma-Leistungsfähigkeit weiter austesten, stoßen sie auf neue Herausforderungen bei der Kontrolle des Plasmas. Darunter die, dass Energieausbrüche aus dem Rand eines superheißen Plasmas entweichen. Diese Randausbrüche beeinträchtigen die Gesamtleistung und können sogar die plasmaausgesetzten Komponenten eines Reaktors im Laufe der Zeit beschädigen.

Nun hat ein Team von Fusionsforschern, angeführt von Ingenieuren aus Princeton und dem Princeton Plasma Physics Laboratory (PPPL) des US-Energieministeriums, erfolgreich maschinelles Lernen eingesetzt, um diese schädlichen Randinstabilitäten zu unterdrücken - ohne die Plasma-Leistung zu beeinträchtigen.

Darstellung eines Tokamaks. Quelle: Bumper DeJesus, Andlinger Zentrum für Energie und Umwelt

Mit ihrem Ansatz, der die Unterdrückungsreaktion des Systems in Echtzeit optimiert, hat das Forschungsteam die höchste Fusionsleistung ohne Randausbrüche an zwei verschiedenen Fusionsanlagen demonstriert - jeweils mit eigenen Betriebsparametern. Die Forscher berichteten am 11. Mai in Nature Communications über ihre Ergebnisse und unterstrichen das enorme Potenzial von maschinellem Lernen und anderen KI-Systemen, um Plasma-Instabilitäten schnell zu unterdrücken.

„Wir haben nicht nur gezeigt, dass unser Ansatz in der Lage ist, ein hochleistungsfähiges Plasma ohne Instabilitäten aufrechtzuerhalten, sondern auch, dass es in zwei verschiedenen Einrichtungen funktioniert“, sagte Forschungsleiter Egemen Kolemen, außerordentlicher Professor für Maschinenbau und Luft- und Raumfahrttechnik und das Andlinger Zentrum für Energie und Umwelt. „Wir haben gezeigt, dass unser Ansatz nicht nur wirksam ist - er ist auch vielseitig.“

Forscher haben lange mit verschiedenen Betriebsweisen von Fusionsreaktoren experimentiert, um die erforderlichen Bedingungen für Fusion zu erreichen. Eine der vielversprechendsten Ansätze besteht darin, einen Reaktor im Hochabdichtungsmodus zu betreiben, ein Verfahren, das durch die Bildung eines steilen Druckgradienten am Rand des Plasmas gekennzeichnet ist und eine verbesserte Plasmaeinschließung bietet.

Der Hochabdichtungsmodus hat jedoch historisch mit Instabilitäten am Rande des Plasmas einhergegangen, eine Herausforderung, die Fusionsforscher dazu gezwungen hat, kreative Lösungen zu finden.

Eine Lösung besteht darin, die magnetischen Spulen, die einen Fusionsreaktor umgeben, zur Anwendung magnetischer Felder am Rande des Plasmas zu verwenden, um die Strukturen aufzubrechen, die sich sonst zu einer vollwertigen Randinstabilität entwickeln könnten. Doch diese Lösung ist unvollkommen: Während sie das Plasma stabilisiert, führt die Anwendung dieser magnetischen Störungen in der Regel zu geringerer Gesamtleistung.

„Wir haben eine Möglichkeit, diese Instabilitäten zu kontrollieren, aber im Gegenzug mussten wir die Leistung opfern, die eine der Hauptmotivationen für den Betrieb im Hochabdichtungsmodus ist“, sagte Kolemen, der auch wissenschaftlicher Mitarbeiter am PPPL ist.

Der Leistungsverlust ist teilweise auf die Schwierigkeit zurückzuführen, die Form und Amplitude der angewendeten magnetischen Störungen zu optimieren, was wiederum auf der Rechenintensität der bestehenden physikbasierten Optimierungsansätze beruht. Diese herkömmlichen Methoden umfassen einen Satz komplexer Gleichungen und können zehn Sekunden oder länger benötigen, um einen einzigen Zeitpunkt zu optimieren - weit entfernt vom Ideal, wenn sich das Plasmaverhalten in wenigen Millisekunden ändern kann. Folglich mussten Fusionsforscher die Form und Amplitude der magnetischen Störungen vor jedem Fusionslauf voreinstellen und verloren die Fähigkeit, Echtzeit-Anpassungen vorzunehmen.

"In der Vergangenheit musste alles vorprogrammiert werden", sagte Ko-Erstautor SangKyeun Kim, wissenschaftlicher Mitarbeiter am PPPL und ehemaliger Postdoc in Kolemans Gruppe. "Diese Einschränkung hat es schwierig gemacht, das System wirklich zu optimieren, denn das bedeutet, dass die Parameter nicht in Echtzeit verändert werden können, je nachdem, wie sich die Bedingungen des Plasmas entwickeln."

The Princeton-led team’s machine learning approach slashes the computation time from tens of seconds to the millisecond scale, opening the door for real-time optimization. The machine learning model, which is a more efficient surrogate for existing physics-based models, can monitor the plasma’s status from one millisecond to the next and alter the amplitude and shape of the magnetic perturbations as needed. This allows the controller to strike a balance between edge burst suppression and high fusion performance, without sacrificing one for the other.

“With our machine learning surrogate model, we reduced the calculation time of a code that we wanted to use by orders of magnitude,” said co-first author Ricardo Shousha, a postdoctoral researcher at PPPL and former graduate student in Kolemen’s group.

Because their approach is ultimately grounded in physics, the researchers said it would be straightforward to apply to different fusion devices around the world. In their paper, for instance, they demonstrated the success of their approach at both the KSTAR tokamak in South Korea and the DIII-D tokamak in San Diego. At both facilities, which each have a unique set of magnetic coils, the method achieved strong confinement and high fusion performance without harmful plasma edge bursts.

“Some machine learning approaches have been critiqued for being solely data-driven, meaning that they’re only as good as the amount of quality data they’re trained on,” Shousha said. “But since our model is a surrogate of a physics code, and the principles of physics apply equally everywhere, it’s easier to extrapolate our work to other contexts.”

The team is already working to refine their model to be compatible with other fusion devices, including planned future reactors such as ITER, which is currently under construction.

One active area of work in Kolemen’s group involves enhancing their model’s predictive capabilities. For instance, the current model still relies on encountering several edge bursts over the course of the optimization process before working effectively, posing unwanted risks to future reactors. If instead the researchers can improve the model’s ability to recognize the precursors to these harmful instabilities, it could be possible to optimize the system without encountering a single edge burst.

Kolemen said the current work is yet another example of the potential for AI to overcome longstanding bottlenecks in developing fusion power as a clean energy resource. Previously, researchers led by Kolemen successfully deployed a separate AI controller to predict and avoid another type of plasma instability in real time at the DIII-D tokamak.

“For many of the challenges we have faced with fusion, we’ve gotten to the point where we know how to approach a solution but have been limited in our ability to implement those solutions by the computational complexity of our traditional tools,” said Kolemen. “These machine learning approaches have unlocked new ways of approaching these well-known fusion challenges.”


ZUGEHÖRIGE ARTIKEL