Exklusiv: OpenAI bereitet eine Politikinitiative vor, um "den Sozialvertrag neu zu überdenken" | Vanity Fair
Die Mitarbeiter von OpenAI genießen möglicherweise einige wohlverdiente freie Zeit während einer firmenweiten Frühlingspause in dieser Woche, aber wie gerade durch die neue Ankündigung einer Finanzierung von 122 Milliarden Dollar bestätigt wurde, schläft die KI-Welt nie. Das neue Kapital kommt inmitten des Berichts der letzten Woche, dass OpenAI dabei war, ein neues fortgeschrittenes KI-Modell mit dem Codenamen Spud zu veröffentlichen. In einer firmenweiten Besprechung vergangenen Dienstag informierte CEO Sam Altman die versammelten Mitarbeiter: „Die Dinge bewegen sich schneller, als viele von uns erwartet haben.“
Solche Leaks inspirieren unweigerlich atemlose Gläubigkeit auf der einen Seite und zynische Kommentare über den endlosen, auf Investorensuche ausgerichteten Hype-Zyklus auf der anderen. Wie üblich liegt die Realität wahrscheinlich irgendwo dazwischen. Wie ein Forscher von OpenAI mir am Wochenende erklärte: „Alle neueren Modelle sind besser als ältere – und Modelle waren seit geraumer Zeit nah an oder haben die menschliche Intelligenz übertroffen.“
Nächste Woche werden wir ein paar weitere Hinweise darauf bekommen, was OpenAI plant. Im Zusammenhang mit der kommenden Veröffentlichung des Spud-Modells plant das Labor, eine Reihe neuer Papiere und Vorschläge zu veröffentlichen, die frische Politikideen für das Zeitalter der Superintelligenz skizzieren. Ein erstes Dokument, das nächste Woche veröffentlicht wird, ist Teil einer breiteren Forschungsinitiative, geleitet von CEO Altman, Chef-Futurist Joshua Achiam und dem Vizepräsidenten für globale Angelegenheiten Chris Lehane, die sich auf Industriepolitik und Lösungen für wirtschaftliche Störungen im Zeitalter der KI konzentrieren wird.
Eine mit dem Projekt vertraute Quelle erklärte, dass die Idee darin bestehe, „aus politischer Sicht über gesellschaftliche Fragen nachzudenken, wenn die Technologie sich der Superintelligenz nähert.“ Diese Person deutete auf möglicherweise kontroverse „Gesprächsstarter“ hin, die dazu gedacht sind, ein breiteres Spektrum der Gesellschaft in die KI-Debatte einzubeziehen.
Die Personen, mit denen ich gesprochen habe, wollten nicht allzu sehr ins Detail gehen, aber sie diskutierten die Notwendigkeit, „den Gesellschaftsvertrag neu zu überdenken“ und „Superintelligenz zu schaffen, die für alle funktioniert.“ Das klingt sicherlich stark nach einer Form von Vermögensumverteilung (eine Idee, die von Milliardären berühmt geliebt wird). Allerdings ergab eine von Altman finanzierte Studie zum bedingungslosen Grundeinkommen im Jahr 2024 eher enttäuschende Ergebnisse. Forscher fanden heraus, dass die Vorteile von monatlichen Zahlungen ohne Bedingungen dazu tendierten, „im zweiten und dritten Jahr des Programms zu verfliegen.“ Hoffen wir, dass diese neue Forschungsinitiative eine bessere, konkretere Lösung für den kommenden durch KI verursachten Arbeitsplatzverlust entwickelt hat.
Letzte Woche wurde bekannt, dass Anthropic an seinem eigenen großen Modell-Release namens Mythos gearbeitet hat.
Diese Entwicklungen sind auch im Zusammenhang mit den Umstrukturierungen des Unternehmens in den letzten Wochen interessant. Letzten Dienstag gab OpenAI die Schließung seines Videoerstellungsmodells, Sora, und die Auflösung seines Milliarden-Dollar-Lizenzabkommens mit Disney bekannt – zu großer Überraschung des Unterhaltungsunternehmens. OpenAI hat auch seine umstrittenen Pläne zur Veröffentlichung eines erotischen Begleiters verworfen.
Unterdessen hat das Unternehmen seine Bemühungen im Bereich Sicherheit und Schutz umorganisiert und angekündigt, dass seine OpenAI-Stiftung im nächsten Jahr 1 Milliarde Dollar für medizinische Forschung, KI-Resilienz und Gemeinschaftsprogramme ausgeben wird. Selbst die Produktgruppe wurde in AGI-Bereitstellung umbenannt.
All diese Schritte scheinen auf ein Unternehmen hinzudeuten, das vor etwas steht. Ein IPO, der bekanntlich später in diesem Jahr geplant ist? Unaufhaltsam hinter seinen Konkurrenten bei Anthropic und Google zurückfallen? Ein tatsächlicher technologischer Durchbruch?
Auch die schnell näher rückenden Zwischenwahlen 2026 – möglicherweise der erste Wahlzyklus, in dem KI und ihre Auswirkungen für amerikanische Wähler wirklich im Fokus stehen werden. Möglicherweise hat das Unternehmen erkannt, dass die düsteren Popularitätswerte von KI früher oder später zu strengen Regulierungen führen werden.
Die neuen Politikvorschläge von OpenAI werden „gesellschaftliche Themen ins Visier nehmen, wenn die Technologie sich der Superintelligenz nähert.“
Allgemein gesagt sind Begriffe wie „KI-Sicherheit“ und „KI-Risiko“ seit der erneuten Amtszeit von Donald Trump und dem Leitmotiv „Beschleunigung“ zum heimlichen Schlagwort des Silicon Valley geworden. Aber die Zeiten könnten sich wieder ändern, wenn einige der Euphorie um Trump und sein deregulatorisches Paradigma langsam nachlassen. Im Februar hat OpenAI den Sicherheitsforscher Dylan Scandinaro von Anthropic abgeworben, um sein Vorbereitungsteam zu leiten, das anscheinend nun Stellen mit Fokus auf biologische und chemische Risiken an der Grenze, Cybersicherheitsrisiken und das ominöserweise benannte „Verlust der Kontrolle“ besetzt.
Interessanterweise befindet sich die Führung von OpenAI nicht unbedingt im Gleichschritt, wenn es um Politik geht. Achiam wurde zuletzt dabei gesehen, wie er getwittert hat, dass "der Versuch der pro-KI-Lobby, Alex Bores zu torpedieren, später allgemein als sinnloser Eigentor verstanden werden wird." Viele sahen das als Seitenhieb gegen den OpenAI-Präsidenten Greg Brockman, der Millionen von Dollar in einen Super PAC investiert hat, der sich darauf spezialisiert hat, pro-regulatorische Kandidaten wie Bores anzugreifen. OpenAI ist nicht das einzige Labor, wo der tonale Wandel spürbar ist. Anthropic hat einen enormen öffentlichen Meinungsaufschwung erlebt, nachdem es gegen das vorgegangen ist, was es als Übergriff des Verteidigungsministeriums bezeichnete. (Woke ist zurück!) Letzte Woche wurde ein Leak bekannt, dass Anthropic an einem eigenen großen neuen Modell-Release mit dem Codenamen Mythos gearbeitet hat. In einer Erklärung gegenüber Fortune sagte ein Unternehmenssprecher, dass das Modell einen "Sprung nach vorn" in puncto Fähigkeiten darstellt - mit dem geleakten Entwurf eines Blog-Posts, der vor besonderen Risiken im Bereich der Cybersicherheit aufgrund der Raffinesse des Modells warnte. Sabina Nong, eine KI-Sicherheitsforscherin am Future of Life Institute, sagte, sie sei misstrauisch gegenüber dieser "erneuerten Art von Narrativbildung" in den fortschrittlichen Labors rund um die "katastrophalen Risiken und disruptiven Kräfte." Gleichzeitig sieht sie einen besorgniserregenden Gegentrend: "Obwohl die Leute so oft darüber sprechen, besteht die Tatsache darin, dass wir noch weniger verbindliche Verpflichtungen von den Unternehmen sehen." Es ist schwer, das Gefühl zu vermeiden, dass auch in durchgesickerten Chats und Memos diese Labors für ein Publikum agieren. Wie das Lieblings-Anonymous-Konto der KI-Industrie letzte Woche schrieb, "es ist eine schwierige Position, wenn alle Ihre privaten Kommunikationen de facto öffentliche Kommunikationen sind.... 'Manhattan-Projekte' waren wirklich keine Option, man muss einfach Ihre Gegner kontinuierlich in der Öffentlichkeit übertreffen." Kiss Kiss Bang Bang: Die wilde Nachfolgesaga von Glock Der Spieler mit hohen Einsätzen und selbsternannte Rächer, im Mittelpunkt des juristischen Dramas von Paramount Der Summer House Skandal, erklärt Wie Trump die Kraft des positiven Denkens in Wahn umgewandelt hat Milly Alcock bereitet sich darauf vor, abzuheben Wie Königin Elizabeth wirklich war Exklusiv: Lindsey Vonn über das Leben nach ihrem schrecklichen Unfall Harry und Meghans Hollywood-Träume haben einen Rückschlag erlitten Kylie Jenner betritt ihr Hollywood-Ära Aus dem Archiv: Die Stil-Ethik von Herrn und Frau Calvin Klein