AI’s Achillesferse: Neue Forschungsergebnisse zeigen grundlegende Schwachstellen

25 Januar 2024 2406
Share Tweet

Forscher der Universität Kopenhagen haben bewiesen, dass vollständig stabile Machine-Learning-Algorithmen für komplexe Probleme unerreichbar sind und betonen die Notwendigkeit einer gründlichen Überprüfung und des Bewusstseins für die Grenzen der Künstlichen Intelligenz. Quelle: SciTechDaily.com

ChatGPT und ähnliche auf Machine Learning basierende Technologien sind auf dem Vormarsch. Allerdings haben selbst die fortschrittlichsten Algorithmen ihre Grenzen. Forscher der Universität Kopenhagen haben eine bahnbrechende Entdeckung gemacht und mathematisch nachgewiesen, dass es jenseits einfacher Probleme unmöglich ist, KI-Algorithmen zu entwickeln, die immer stabil sind. Diese Forschung könnte den Weg für verbesserte Testprotokolle für Algorithmen ebnen und die inhärenten Unterschiede zwischen maschinellem und menschlichem Denken verdeutlichen.

Der wissenschaftliche Artikel, der das Ergebnis beschreibt, wurde für die Veröffentlichung auf einer der führenden internationalen Konferenzen für theoretische Informatik genehmigt.

Maschinen interpretieren medizinische Scans genauer als Ärzte, übersetzen Fremdsprachen und könnten bald sicherer Auto fahren als Menschen. Dennoch haben selbst die besten Algorithmen Schwächen. Ein Forscherteam am Fachbereich Informatik der Universität Kopenhagen versucht, diese aufzudecken.

Nehmen wir als Beispiel ein automatisiertes Fahrzeug, das ein Straßenschild liest. Wenn jemand einen Aufkleber auf das Schild geklebt hat, würde dies einen menschlichen Fahrer nicht ablenken. Aber eine Maschine könnte leicht verwirrt werden, weil das Schild jetzt anders aussieht als diejenigen, auf die sie trainiert wurde.

"Wir möchten, dass Algorithmen stabil sind, sodass sich die Ausgabe nur geringfügig ändert, wenn sich die Eingabe leicht verändert. Das wirkliche Leben beinhaltet alle möglichen Arten von Störungen, die Menschen ignorieren können, während Maschinen verwirrt werden können", sagt Professor Amir Yehudayoff, der die Gruppe leitet.

Als erste Gruppe weltweit haben die Forscher zusammen mit Wissenschaftlern aus anderen Ländern mathematisch bewiesen, dass es abgesehen von einfachen Problemen nicht möglich ist, stabile Algorithmen für maschinelles Lernen zu erstellen. Der wissenschaftliche Artikel, der das Ergebnis beschreibt, wurde für die Veröffentlichung auf einer der führenden internationalen Konferenzen für theoretische Informatik, Foundations of Computer Science (FOCS), genehmigt.

"Ich möchte darauf hinweisen, dass wir nicht direkt an der Entwicklung von automatisierten Autonahmen gearbeitet haben. Dennoch scheint dies ein zu komplexes Problem zu sein, um immer stabile Algorithmen zu haben", sagt Amir Yehudayoff und fügt hinzu, dass dies nicht unbedingt weitreichende Konsequenzen in Bezug auf die Entwicklung automatisierter Autos impliziere:

"Wenn der Algorithmus nur unter einigen sehr seltenen Umständen fehlerhaft ist, könnte dies durchaus akzeptabel sein. Aber wenn er dies bei vielen verschiedenen Umständen tut, sind das schlechte Nachrichten."

Der wissenschaftliche Artikel kann von der Industrie nicht zur Identifizierung von Fehlern in ihren Algorithmen verwendet werden. Das war auch nicht das Ziel, erklärt der Professor:

"Wir entwickeln eine Sprache, um die Schwächen von Machine-Learning-Algorithmen zu diskutieren. Das kann zur Entwicklung von Leitlinien führen, die beschreiben, wie Algorithmen getestet werden sollten. Und langfristig kann dies wiederum zur Entwicklung von besseren und stabileren Algorithmen führen."

Eine mögliche Anwendung könnte darin bestehen, Algorithmen zum Schutz der digitalen Privatsphäre zu testen.

"Einige Unternehmen könnten behaupten, eine absolut sichere Lösung zum Schutz der Privatsphäre entwickelt zu haben. Erstens könnte unsere Methodik helfen festzustellen, dass die Lösung nicht absolut sicher sein kann. Zweitens wird sie in der Lage sein, Schwachstellen zu identifizieren", sagt Amir Yehudayoff.

Aber in erster Linie trägt der wissenschaftliche Artikel zur Theorie bei. Insbesondere der mathematische Inhalt ist bahnbrechend, fügt er hinzu: "Intuitiv verstehen wir, dass ein stabiler Algorithmus fast genauso gut funktionieren sollte wie zuvor, wenn er einer kleinen Menge von Rauschen ausgesetzt ist. Genau wie das Straßenschild mit einem Aufkleber darauf. Aber als theoretische Informatiker benötigen wir eine klare Definition. Wir müssen das Problem in der Sprache der Mathematik beschreiben können. Wie viel Rauschen muss der Algorithmus aushalten können, und wie nahe sollte die Ausgabe an der ursprünglichen Ausgabe liegen, damit wir den Algorithmus als stabil akzeptieren? Das ist es, worauf wir eine Antwort vorgeschlagen haben."

Der wissenschaftliche Artikel hat großes Interesse von Kollegen aus der Theoretischen Informatik geweckt, aber noch nicht von der Technologiebranche. Zumindest noch nicht.

"Man sollte immer eine gewisse Verzögerung zwischen einer neuen theoretischen Entwicklung und dem Interesse von Personen, die in der Praxis arbeiten, erwarten", sagt Amir Yehudayoff und fügt mit einem Lächeln hinzu: "Einige theoretische Entwicklungen werden für immer unbemerkt bleiben."

However, he does not see that happening in this case: ”Machine Learning continues to progress rapidly, and it is important to remember that even solutions which are very successful in the real world still do have limitations. The machines may sometimes seem to be able to think but after all, they do not possess human intelligence. This is important to keep in mind.”


ZUGEHÖRIGE ARTIKEL