Generative AI hat in diesem Jahr Schlagzeilen gemacht. Hier ist der Grund und was als Nächstes kommt.
Fragen Sie ChatGPT "Warum ist der Himmel blau?" und Sekunden später wird es Ihnen antworten: "Die blaue Farbe des Himmels kommt hauptsächlich von einem Phänomen namens Rayleigh-Streuung", das der Chatbot in einer sechs Absätze umfassenden, lehrbuchähnlichen Antwort erklärt. Fragen Sie anschließend: "Erkläre es mir wie einem 5-Jährigen und mach es kurz, bitte", dann kommt folgende Antwort zurück: "Der Himmel ist blau, weil winzige Dinge in der Luft das blaue Licht von der Sonne herumhüpfen lassen und in unsere Augen kommen."
ChatGPT ist ein Typ von generativer KI. Es handelt sich um ein Computermodell, das Sprachmuster nutzt, um die nächsten Worte in einem Satz vorherzusagen und eine menschenähnliche Antwort auf eine Benutzeranfrage zu geben. Das Modell ist in mehreren Schichten miteinander verbundener Knoten strukturiert, die lose von den Nervenverbindungen im Gehirn inspiriert sind. Während einer Trainingsphase durchliefen die verbundenen Knoten Milliarden von Textstücken, die aus dem Internet extrahiert wurden, und lernten dabei Muster, indem sie die Stärke verschiedener Knotenverbindungen veränderten. Es gibt auch andere Arten von generativer KI, die trainiert wurden, um Bilder, Videos und mehr zu erstellen.
ChatGPT wurde Ende letzten Jahres veröffentlicht und erregte schnell die Aufmerksamkeit der Öffentlichkeit und erhöhte die Sichtbarkeit von generativer KI. Weitere Chatbots wie Google's Bard folgten. Aber trotz des Hypes haben Kritiker vor Ungenauigkeiten, Vorurteilen und Plagiaten bei generativer KI gewarnt (SN: 12.04.23). Und dann wurde im November Sam Altman, der CEO von OpenAI, dem Unternehmen, das ChatGPT und andere generative KI-Modelle wie DALL-E 3 entwickelt hat, entlassen und wenige Tage später wieder eingestellt. Als Reaktion darauf trat der Großteil des Vorstands des Unternehmens zurück. Diese Umwälzung führte zu einer weitreichenden Diskussion darüber, generative KI zu kommerzialisieren, ohne Vorsichtsmaßnahmen zu ergreifen, um Sicherheitsmaßnahmen einzubauen und sicherzustellen, dass die Technologie keinen Schaden anrichtet.
Um zu verstehen, wie generative KI in die Schlagzeilen geraten ist und was als Nächstes kommt, sprach Science News mit Melanie Mitchell vom Santa Fe Institute, einer der weltweit führenden Experten für KI. Das Interview wurde gekürzt und redaktionell bearbeitet.
SN: Warum war generative KI in diesem Jahr so wichtig?
Mitchell: Wir hatten schon seit vielen Jahren Sprachmodelle. Aber der Durchbruch bei Systemen wie ChatGPT besteht darin, dass sie viel mehr Training hatten, um ein Gesprächspartner und Assistent zu sein. Sie wurden mit viel mehr Daten trainiert. Und sie hatten viel mehr Verbindungen, wahrscheinlich im Bereich von Milliarden bis Billionen. Außerdem wurden sie mit einer sehr benutzerfreundlichen Oberfläche der Öffentlichkeit präsentiert. Diese Dinge waren es, die sie so erfolgreich gemacht haben, und die Menschen waren einfach erstaunt über ihre menschenähnliche Art.
SN: Wo denken Sie, wird generative KI die größte Auswirkung haben?
Mitchell: Das ist immer noch eine große offene Frage. Ich kann ChatGPT eine Anweisung geben, zum Beispiel bitte schreiben Sie eine Zusammenfassung für meine Arbeit mit diesen Punkten darin, und es wird oft eine ziemlich gute Zusammenfassung erstellen. Als Assistent ist es unglaublich hilfreich. Bei generativen Bildern können Systeme Stockbilder erzeugen. Sie können einfach sagen, dass Sie ein Bild von einem Roboter, der einen Hund spazieren führt, brauchen, und es wird das generieren. Aber diese Systeme sind nicht perfekt. Sie machen Fehler. Manchmal "halluzinieren" sie. Wenn ich ChatGPT bitte, einen Aufsatz zu einem Thema zu schreiben und auch einige Zitate einzufügen, erfindet es manchmal Zitate, die nicht vorhanden sind. Und möglicherweise generiert es auch Text, der einfach nicht wahr ist.
SN: Gibt es noch andere Bedenken?
Mitchell: Sie verbrauchen viel Energie. Sie laufen in riesigen Rechenzentren mit einer großen Anzahl von Computern, die viel Strom benötigen, und verwenden viel Wasser zur Kühlung. Es gibt also eine Umweltauswirkung. Diese Systeme wurden auf menschliche Sprache trainiert, und die menschliche Gesellschaft hat viele Vorurteile, die sich in der Sprache, die diese Systeme aufgenommen haben, widerspiegeln - Vorurteile hinsichtlich Rasse, Geschlecht und andere demografische Vorurteile.
Es gab kürzlich einen Artikel, der beschrieb, wie Menschen versuchten, ein Text-Bild-System dazu zu bringen, ein Bild von einem schwarzen Arzt zu erzeugen, der weiße Kinder behandelt. Es war sehr schwer, es dazu zu bringen, das zu generieren.
Es gibt viele Behauptungen darüber, dass diese Systeme bestimmte Fähigkeiten im Denken haben, wie zum Beispiel mathematische Probleme zu lösen oder standardisierte Tests wie das Staatsexamen zu bestehen. Wir haben keine genaue Vorstellung davon, wie sie dieses Denken umsetzen, ob dieses Denken robust ist. Wenn man das Problem ein wenig ändert, können sie es immer noch lösen? Es ist unklar, ob diese Systeme über das hinaus verallgemeinern können, was sie trainiert wurden, oder ob sie sich stark auf die Trainingsdaten verlassen. Das ist eine große Debatte.
SN: Was halten Sie von dem Hype?
Mitchell: People have to be aware that AI is a field that tends to get hyped, ever since its beginning in the 1950s, and to be somewhat skeptical of claims. We have seen again and again those claims are very much overblown. These are not humans. Even though they seem humanlike, they are different in many ways. People should see them as a tool to augment our human intelligence, not replace it — and make sure there’s a human in the loop rather than giving them too much autonomy.
SN: What implications might the recent upheaval at OpenAI have for the generative AI landscape?
Mitchell: [The upheaval] shows something that we already knew. There is a kind of polarization in the AI community, both in terms of research and in terms of commercial AI, about how we should think about AI safety — how fast these AI systems should be released to the public and what guardrails are necessary. I think it makes it very clear that we should not be relying on big companies in which power is concentrated right now to make these huge decisions about how AI systems should be safeguarded. We really do need independent people, for instance, government regulation or independent ethics boards, to have more power.
SN: What do you hope happens next?
Mitchell: We are in a bit of a state of uncertainty of what these systems are and what they can do, and how they will evolve. I hope that we figure out some reasonable regulation that mitigates possible harms but doesn’t clamp down too hard on what could be a very beneficial technology.