Exklusivt: OpenAI förbereder policytryck för att "omvärdera det sociala kontraktet" | Vanity Fair
OpenAI-anställda kanske njuter av lite väl förtjänt ledighet under en företagsomfattande våruppehåll den här veckan, men som bevisas av den nya finansieringsmeddelandet på 122 miljarder dollar som precis rullade ut bara ögonblick innan den här kolumnen gick i tryck, så sover aldrig AI-världen. Det nya kapitalet kommer efter förra veckans rapport att OpenAI förberedde sig för att släppa en ny avancerad AI-modell, med kodnamn Spud. I ett företagsomfattande möte förra tisdagen informerade VD Sam Altman de samlade medarbetarna: "Saker rör sig snabbare än vad många av oss förväntade oss."
Dylika läckor inspirerar oundvikligen andäktig tro på ena sidan och cyniska spekulationer om den oändliga, investeringssökande hype-cykeln på den andra. Som vanligt ligger nog verkligheten någonstans däremellan. Som en OpenAI-forskare sa till mig under helgen: "Alla nyare modeller är bättre än äldre - och modeller har varit nära eller överträffat mänsklig intelligens under en ganska lång tid."
Nästa vecka kommer vi att börja få några fler ledtrådar om vad OpenAI tänker. I samband med den kommande släppet av Spud-modellen, har jag lärt mig, att labbet planerar att släppa en serie nya papper och förslag som skissar på nya politiska idéer för superintelligens-eran. Ett första dokument, som kommer att släppas nästa vecka, ingår i en bredare forskningsinsats, ledd av VD Altman, chef-futuristen Joshua Achiam, och vice ordförande för globala frågor Chris Lehane, som kommer att fokusera på industriell politik och lösningar för ekonomiska störningar i AI-erans ålder.
En källa insatt i projektet förklarade att idén är att "tänka större från ett policy-perspektiv när det gäller samhällsfrågor i takt med att tekniken går mot superintelligens." Denna person avslöjade några potentiellt kontroversiella "samtalsstarter" som är avsedda att engagera en bredare tvärsnitt av samhället i AI-debatten.
De jag talade med ville inte fördjupa sig för mycket i detaljerna, men diskuterade behovet av att "ompröva det sociala kontraktet" och bygga "superintelligens som fungerar för alla." Det låter definitivt mycket som att de föreslår någon form av förmögenhetsomfördelning (en idé som miljardärer kända gillar). Men sanningen är att en Altman-finansierad studie om universell grundinkomst avslutades 2024 med något besvikande resultat. Forskare fann att fördelarna med månatliga utbetalningar utan krav tenderade att "försvinna efter andra och tredje året av programmet." Låt oss hoppas att denna nya forskningsinitiativ har kommit fram till en bättre, mer konkret lösning på den kommande jobbförlusten som drivs av AI.
Förra veckan avslöjade en läcka att Anthropic har arbetat på sin egen stora nya modellsläpp, med kodnamnet Mythos.
Dessa händelser är också intressanta mot bakgrund av företagets omställningsbrytningar under de senaste veckorna. Förra tisdagen meddelade OpenAI att de stänger ner sin videogenereringsmodell, Sora, och avslutar sin miljard-dollar licensavtal med Disney - mycket till underhållningsföretagets förvåning. OpenAI avslutade också sina kontroversiella planer på att släppa en erotisk kompanjon.
Samtidigt har bolaget omorganiserat sina säkerhets- och skyddsinsatser, och meddelade att OpenAI Foundation kommer att satsa 1 miljard dollar under det kommande året på medicinsk forskning, AI-resilience och samhällsprogram. Till och med sin produktgrupp har bytt namn till AGI Deployment.
Alla dessa åtgärder verkar peka på ett företag som är på gränsen till ... något. En börsintroduktion, som vi vet är planerad senare i år? Att obönhörligen hamna efter sina konkurrenter Anthropic och Google? En faktisk teknologisk genombrot?
Det närmar sig också 2026 mellanårsval - eventuellt det första valcykeln där AI och dess konsekvenser verkligen kommer att vara högst i tankarna för amerikanska väljare. Kanske har företaget insett att AI:s ödesdigra popularitetsbetyg osökt kommer att halka ikapp det i form av hård reglering.
OpenAIs nya policyförslag kommer att rikta sig mot "samhällsfrågor i takt med att tekniken går mot superintelligens."
I allmänhet har fraser som "AI-säkerhet" och "AI-risk" blivit smutsiga ord sedan Donald Trump tillträdde en andra gång och "acceleration" blev Silicon Valley-marschlåten. Men tidvattnet kan vara på väg att skifta tillbaka igen, med lite av euforin kring Trump och hans avregleringsparadigm börjar blekna. I februari värvade OpenAI säkerhetsforskaren Dylan Scandinaro från Antrhopic för att leda sitt beredskapsteam, som nu verkar bemannas med roller fokuserade på gränsbio- och kemiska risker, cybersäkerhetsrisker, och den hotfullt namngivna "förlusten av kontroll."
Intressant nog har OpenAIs ledarskap inte direkt gått i takt när det gäller politik. Achiam sågs senast twittra om hur "ansträngningen från pro-AI-lobbyn att torpedera Alex Bores senare kommer att bli allmänt förstådd som ett meningslöst självmål." Många uppfattade det som ett angrepp mot OpenAIs president Greg Brockman, som har investerat miljontals dollar i en super PAC dedikerad att attackera pro-reguleringskandidater som Bores.
OpenAI är inte det enda laboratoriet där den tonala förändringen kan kännas. Anthropic upplevde en enorm opinionsspridning efter sin kamp mot vad den argumenterade var Department of Defenses övertramp. (Woke är tillbaka!) Förra veckan avslöjades det att Anthropic har arbetat på sin egen stora nya modellrelease, kodnamn Mythos. I ett uttalande till Fortune sa en talesperson för företaget att modellen representerar en "stegförändring" i kapacitet - med den läckta bloggpostens varning om särskilda risker inom cybersäkerhet på grund av modellens sofistikation.
Sabina Nong, en AI-säkerhetsutredare vid Future of Life Institute, sa att hon är misstänksam mot denna "förnyade typ av narrativbyggande" vid gränslaboratorierna kring "katastrofrisker och störande krafter." Samtidigt ser hon en oroande motstrend: "Även om människor pratar om det mycket oftare, så ser vi ändå ännu mindre av en bindande åtagande från företagen."
Det är svårt att undkomma känslan att även i läckta chattar och interna dokument, så utför dessa laboratorier för en publik. Som AI-branschens favorit anonyma konto skrev förra veckan, "det är en svår position att vara i när alla dina privata kommunikationer i praktiken är offentliga kommunikationer. 'manhattan-projekt' var inte riktigt ett alternativ, du måste bara konsekvent accelerera snabbare än dina motståndare offentligt."
Kiss Kiss Bang Bang: Glocks Vilda Tronföljdssaga
Den höginsatsige spelaren, och självtillgivna hämnaren, i centrum för Paramounts rättsdrama
Sommarhusets skandal, förklarad
Hur Trump förvandlade kraften av positivt tänkande till villfarelse
Milly Alcock förbereder sig att ta vara på
Hur drottning Elizabeth verkligen var
Exklusivt: Lindsey Vonn om livet efter hennes skrämmande krasch
Harry och Meghans Hollywood-drömmar stöter på en hastighetsbump
Kylie Jenner går in i sin Hollywood-era
Från arkivet: Mr. & Mrs. Calvin Kleins stil etik