Exclusief: OpenAI bereidt beleidsinspanningen voor om "het sociale contract te heroverwegen" | Vanity Fair

03 April 2026 2204
Share Tweet

OpenAI medewerkers kunnen genieten van een welverdiende vakantie tijdens een bedrijfsbrede voorjaarsvakantie deze week, maar zoals bewezen door de nieuwe aankondiging van financiering van $122 miljard die zojuist werd gedaan net voordat deze column werd gedrukt, slaapt de AI-wereld nooit. Het nieuwe kapitaal komt na het rapport van vorige week dat OpenAI zich voorbereidde om een nieuw geavanceerd AI-model met de codenaam Spud uit te brengen. In een bedrijfsbrede vergadering afgelopen dinsdag informeerde CEO Sam Altman het samengekomen personeel: "De ontwikkelingen gaan sneller dan velen van ons hadden verwacht."

Dit soort lekken inspireert onvermijdelijk ademloze geloofwaardigheid aan de ene kant en cynische opmerkingen over de eindeloze, op investeringen gerichte hypecyclus aan de andere kant. Zoals gewoonlijk ligt de realiteit waarschijnlijk ergens tussenin. Zoals een OpenAI-onderzoeker me afgelopen weekend vertelde: "Nieuwere modellen zijn altijd beter dan oudere - en modellen zijn al geruime tijd bijna bij of hebben menselijke intelligentie overtroffen."

Volgende week zullen we een paar meer hints krijgen over waar OpenAI aan denkt. In samenhang met de komende release van het Spud-model, heb ik vernomen dat het laboratorium van plan is om een reeks nieuwe papers en voorstellen uit te brengen waarin nieuwe beleidsideeën voor het tijdperk van superintelligentie worden uiteengezet. Een eerste document, dat volgende week wordt uitgebracht, maakt deel uit van een breder onderzoeksinitiatief, geleid door CEO Altman, hoofdfuturist Joshua Achiam, en vicepresident van mondiaal beleid Chris Lehane, dat zich zal richten op industrieel beleid en oplossingen voor economische verstoringen in het tijdperk van AI.

Een bron die bekend is met het project legde uit dat het idee is om "vanuit een beleidsperspectief groter te denken over maatschappelijke kwesties naarmate de technologie voortschrijdt naar superintelligentie." Deze persoon hintte naar enkele potentieel controversiële "gespreksstarters" bedoeld om een breder deel van de samenleving te betrekken bij het debat over AI.

Degenen met wie ik sprak wilden niet te diep ingaan op de details, maar bespraken wel de noodzaak om "het sociale contract te heroverwegen" en "superintelligentie te bouwen die voor iedereen werkt." Dat klinkt zeker als een vorm van herverdeling van rijkdom (een idee waar miljardairs beroemd dol op zijn). Maar de waarheid is dat een door Altman gefinancierde studie naar een universeel basisinkomen in 2024 werd afgesloten met enigszins teleurstellende resultaten. Onderzoekers ontdekten dat de voordelen van maandelijkse betalingen zonder voorwaarden na de tweede en derde jaar van het programma begonnen te "vervagen." Laten we hopen dat dit nieuwe onderzoeksinitiatief komt met een betere, meer concrete oplossing voor het komende verlies van banen door AI.

Vorige week lekte uit dat Anthropic bezig was met de release van zijn eigen grote nieuwe model, met de codenaam Mythos.

Deze ontwikkelingen zijn ook intrigerend in het kader van de recente koerswijzigingen van het bedrijf. Afgelopen dinsdag kondigde OpenAI de sluiting van zijn videogeneratiemodel, Sora, aan en de beëindiging van zijn miljardendeal voor licenties met Disney - tot verrassing van het entertainmentbedrijf. OpenAI schrapte ook zijn omstreden plannen om een erotische metgezel uit te brengen.

Ondertussen is het bedrijf bezig met het herorganiseren van zijn inspanningen op het gebied van veiligheid en beveiliging, en het kondigde aan dat de OpenAI Foundation van plan is om de komende jaar $1 miljard uit te geven aan medisch onderzoek, AI-veerkracht en gemeenschapsprogramma's. Zelfs de productgroep werd hernoemd naar AGI-implementatie.

Al deze stappen lijken te wijzen op een bedrijf dat op het punt staat om... iets te doen. Een beursgang, die volgens onze informatie gepland staat voor later dit jaar? Onherroepelijk achterblijven bij zijn concurrenten Anthropic en Google? Een daadwerkelijke technologische doorbraak?

Ook komen de tussentijdse verkiezingen van 2026 snel dichterbij - mogelijk de eerste verkiezingscyclus waarin AI en de gevolgen ervan echt het hoofdpunt zullen zijn voor Amerikaanse kiezers. Misschien is het bedrijf tot het besef gekomen dat de afnemende populariteit van AI uiteindelijk zal leiden tot strenge regelgeving.

De nieuwe beleidsvoorstellen van OpenAI zullen zich richten op "maatschappelijke kwesties naarmate de technologie voortschrijdt naar superintelligentie."

Over het algemeen zijn termen als "AI-veiligheid" en "AI-risico" sinds Donald Trump voor de tweede keer aantrad en "versnelling" het nieuwe motto van Silicon Valley werd, vies geworden. Maar de tijden lijken weer te veranderen, met een afname van het enthousiasme rond Trump en zijn dereguleringsparadigma. In februari trok OpenAI veiligheidsonderzoeker Dylan Scandinaro weg bij Anthropic om zijn paraatheidsteam te leiden, dat nu lijkt aan te vullen met functies gericht op biologische en chemische risico's aan de grens, cybersecurity risico's, en het angstaanjagend genaamde "verlies van controle."

Interessant genoeg loopt de leiding van OpenAI niet echt in de pas als het gaat om politiek. Achiam werd voor het laatst gezien terwijl hij tweette over hoe "de inspanning van de pro-AI-lobby om Alex Bores ten gronde te richten later algemeen begrepen zal worden als een zinloos eigen doelpunt." Velen zagen dat als een subtiele aanval op OpenAI-president Greg Brockman, die miljoenen dollars heeft geïnvesteerd in een super PAC die zich richt op het aanvallen van pro-reguleringskandidaten zoals Bores.

OpenAI is niet het enige laboratorium waar de toonverschuiving gevoeld kan worden. Anthropic kreeg een enorme publieke opinieboost na zijn strijd tegen wat het beschouwde als de overschrijding van de afdeling Defensie. (Woke is terug!) Vorige week lekte uit dat Anthropic werkte aan zijn eigen grote nieuwe modelrelease, met de codenaam Mythos. In een verklaring aan Fortune zei een woordvoerder van het bedrijf dat het model een "stapsgewijze verandering" in capaciteiten vertegenwoordigt - met het gelekte concept-blogbericht dat waarschuwt voor specifieke risico's op het gebied van cyberveiligheid vanwege de verfijning van het model.

Sabina Nong, een AI-veiligheidsonderzoeker bij het Future of Life Institute, zei dat ze argwanend is over deze "hernieuwde vorm van verhalenbouw," bij de grenslaboratoria rond de "catastrofale risico's en ontwrichtende krachten." Ondertussen ziet ze een zorgwekkende tegenbeweging: "Terwijl mensen er veel vaker over praten, is het feit dat we zelfs minder verplichtingen van de bedrijven zien."

Het is moeilijk te ontsnappen aan het gevoel dat zelfs in gelekte chats en memo's deze laboratoria optreden voor een publiek. Zoals het favoriete anonieme account van de AI-industrie vorige week schreef, "het is een moeilijke positie om in te zitten wanneer al je privécommunicatie de facto openbare communicatie is... 'manhattan projecten' waren eigenlijk niet in de optieruimte, je moet gewoon consistent je tegenstanders in het openbaar verslaan."

Kiss Kiss Bang Bang: Glock's Wild Succession Saga

De Gokker met Hoge Inzetten, en de Veegmeester in Eigen Beheer, in het Midden van Paramount's Juridische Drama

Het Zomerschandaal Uitgelegd

Hoe Trump De Kracht van Positief Denken in Waanideeën Veranderde

Milly Alcock Bereidt Zich Voor om Vlucht te Nemen

Hoe Koningin Elizabeth Echt Was

Exclusief: Lindsey Vonn Over Het Leven Na Haar Verschrikkelijke Crash

Harry en Meghan's Hollywooddromen Stuiten op een Hobbeltje

Kylie Jenner Betreedt Haar Hollywoodtijdperk

Uit het Archief: De Stijletiek van de Heer en Mevrouw Calvin Klein


AANVERWANTE ARTIKELEN