Wyłączny: OpenAI przygotowuje się do przeprowadzenia kampanii dotyczącej "Przemyślenia Kontraktu Społecznego" | Vanity Fair

03 Kwiecień 2026 1688
Share Tweet

Pracownicy OpenAI mogą cieszyć się zasłużonym czasem wolnym podczas corocznej przerwy wiosennej w całej firmie w tym tygodniu, ale jak udowodniono nowym ogłoszeniem o finansowaniu w wysokości 122 miliardów dolarów, które zostało wydane dosłownie chwile przed opublikowaniem tego artykułu, świat sztucznej inteligencji nigdy nie śpi. Nowy kapitał pojawia się zaraz po zeszłotygodniowym raporcie, że OpenAI szykuje się do wydania nowego zaawansowanego modelu AI o kodowej nazwie Spud. Podczas spotkania całej firmy w ubiegły wtorek, dyrektor generalny Sam Altman poinformował zgromadzony personel, że "wszystko dzieje się szybciej, niż wielu z nas się spodziewało." Tego rodzaju przecieki nieuchronnie inspirują zdumienie i naiwność z jednej strony i cyniczne opinie na temat niekończącego się cyklu hypu w poszukiwaniu inwestycji z drugiej strony. Jak zwykle, rzeczywistość sytuacji prawdopodobnie znajduje się gdzieś pośrodku. Jak powiedział mi jeden badacz OpenAI w weekend, "Wszystkie nowsze modele są lepsze od poprzednich, a modele zbliżyły się do lub przekroczyły ludzką inteligencję od dłuższego czasu." Następnego tygodnia dowiemy się nieco więcej o tym, co myśli OpenAI. W związku z nadchodzącym wydaniem modelu Spud, dowiedziałem się, że laboratorium planuje wydać szereg nowych dokumentów i propozycji wytyczających nowe pomysły polityki na erę superinteligencji. Pierwszy dokument, który zostanie wydany w przyszłym tygodniu, jest częścią szerszej inicjatywy badawczej, prowadzonej przez dyrektora generalnego Altmana, głównego futurystę Joshuę Achiam i wiceprezesa spraw globalnych Chrisa Lehane'a, która skupi się na polityce przemysłowej i rozwiązaniach dla zakłóceń ekonomicznych w erze AI. Osoba znająca projekt wyjaśniła, że celem jest "myślenie szerzej z perspektywy polityki w kwestiach społecznych w miarę postępu technologii ku superinteligencji." Ta osoba ujawniła nieco kontrowersyjne „początki rozmów”, przewidziane do zaangażowania szerszego przekroju społeczeństwa w debatę na temat AI. Osoby, z którymi rozmawiałem, nie chciały zbyt dokładnie zagłębiać się w szczegóły, ale omówiono konieczność „przeanalizowania kontraktu społecznego” i budowania „superinteligencji, która działa dla wszystkich”. Brzmi to zdecydowanie jak sugestia pewnej formy redystrybucji bogactwa (pomysł, który znani miliarderzy uwielbiają). Ale prawda jest taka, że przeprowadzone w 2024 roku badanie finansowane przez Altmana na temat powszechnego dochodu podstawowego zakończyło się dość rozczarowującymi wynikami. Badacze stwierdzili, że korzyści z miesięcznych płatności bezwarunkowych miały tendencję do „zanikania w drugim i trzecim roku programu”. Miejmy nadzieję, że ta nowa inicjatywa badawcza znalazła lepsze, bardziej konkretne rozwiązanie na nadchodzące utraty miejsc pracy spowodowane przez AI. W zeszłym tygodniu przeciek ujawnił, że Anthropic pracuje nad własnym nowym dużym modelem, o kodowej nazwie Mythos. Te wydarzenia są także intrygujące w kontekście zmian, jakie firma przeprowadziła w ciągu ostatnich kilku tygodni. W ubiegły wtorek OpenAI ogłosił zamknięcie swojego modelu generowania wideo, Sora, i rozwiązanie miliardowego kontraktu licencyjnego z Disneyem – ku zaskoczeniu firmy rozrywkowej. OpenAI także porzucił kontrowersyjne plany wydania erotycznego kompana. Tymczasem firma reorganizuje swoje działania w zakresie bezpieczeństwa, ogłaszając, że jej Fundacja OpenAI planuje wydać 1 miliard dolarów w ciągu najbliższego roku na badania medyczne, odporność na AI i programy społecznościowe. Nawet jej grupa produktowa została przemianowana na Wdrożenie AGI. Wszystkie te kroki zdają się wskazywać na firmę stojącą na progu…czegoś. IPO, które wiemy, że jest zaplanowane na późniejszy w tym roku? Upadek nieubłagalnie w tyle za konkurentami w Anthropic i Google? Faktyczny przełom technologiczny? Nadchodzą także wybory częściowych w 2026 roku – można by argumentować, że to pierwszy cykl wyborczy, w którym AI i jego konsekwencje będą naprawdę na pierwszym miejscu w myślach amerykańskich wyborców. Być może firma uświadamia sobie, że niskie oceny popularności AI muszą kiedyś skutkować surowymi regulacjami. Nowe propozycje polityki OpenAI będą mieć na celu „kwestie społeczne w miarę postępu technologii ku superinteligencji.” Ogólnie rzecz biorąc, frazy takie jak „bezpieczeństwo AI” i „ryzyko AI” stały się brudnymi słowami od czasu ponownego objęcia urzędu przez Donalda Trumpa i gdy „przyspieszenie” stało się krzykiem przewodnim Doliny Krzemowej. Ale fale mogą znowu się zmieniać, z euforią wokół Trumpa i jego paradigmy deregulacji zaczynające zanikać. W lutym OpenAI zwerbował badacza bezpieczeństwa Dylana Scandinaro z Anthropic, aby dowodził swoim zespołem gotowości, który wydaje się teraz zwiększać swoją kadrę o role skoncentrowane na czołowych zagrożeniach biologicznych i chemicznych, cyberbezpieczeństwa i złowrogo nazwanej „utrata kontroli.”

Interesująco, przywództwo OpenAI nie podąża dokładnie w jednym kierunku, jeśli chodzi o politykę. Achiam ostatnio tweetował o tym, jak "starania lobbingu pro-AI mające na celu zniszczenie Alexa Boresa zostaną później powszechnie postrzegane jako bezcelowy strzał w stopę". Wielu odebrało to jako zeszarganie prezydenta OpenAI Grega Brockmana, który włożył miliony dolarów w super PAC dedykowany do atakowania kandydatów popierających regulacje, jak Bores.

OpenAI nie jest jedynym laboratorium, w którym można poczuć zmianę tonu. Anthropic doświadczył ogromnego wzrostu popularności po jego krucjacie przeciwko temu, co nazwał nadmiernym uporczywaniem Departamentu Obrony. (Woke is back!) W zeszłym tygodniu wyciekła informacja, że Anthropic pracuje nad własnym nowym modelem, o kryptonimie Mythos. W oświadczeniu dla Fortune rzecznik firmy powiedział, że model reprezentuje "zmianę krokową" w zdolnościach — z wycieku wersji roboczej blog postu wynika, że ostrzega on o szczególnych zagrożeniach w obszarze cyberbezpieczeństwa ze względu na wysoką wyrafinowanie modelu.

Sabina Nong, badaczka bezpieczeństwa AI w Future of Life Institute, powiedziała, że jest podejrzliwa wobec tego "odnowionego rodzaju kreowania narracji", w ważnych laboratoriach wokół "zagrożeń katastroficznych i sił zakłócających." Tymczasem dostrzega niepokojący trend przeciwstawny: "Chociaż ludzie o tym rozmawiają znacznie częściej, faktem jest, że widzimy jeszcze mniej zobowiązań ze strony firm."

Trudno uciec od wrażenia, że nawet w wyciekłych rozmowach i notatkach te laboratoria grają dla publiczności. Jak napisało ulubione konto anonimowe przemysłu AI w zeszłym tygodniu, "trudno jest być w takiej sytuacji, gdy wszystkie twoje prywatne komunikaty są de facto publicznymi… 'projekty manhattanowskie' nie były naprawdę opcją, musisz po prostu konsekwentnie zyskiwać przewagę nad swoimi przeciwnikami publicznie."

Pocałunek Pocałunek Bang Bang: Dziki sukces Glocks w Sagę Sukcesji

Zawodowy Gracz, i Samozwańczy Wojownik, w Centrum Dramatu Prawnego Paramount

Skandal w Domu Letnim, Wyjaśniony

Jak Trump Zamienił Siłę Pozytywnego Myślenia w Złudzenie

Milly Alcock Przygotowuje się do Odlotu

Jaka była naprawdę Królowa Elżbieta

Wyłączne: Lindsey Vonn o Życiu Po Jej Przerażającej Kraksie

Marzenia Hollywood Harry'ego i Meghana Napotykają Przeszkodę

Kylie Jenner Wchodzi w Swoją Epoche Hollywood

Z Archiwum: Etyka Stylu Pana i Pani Calvin Klein


POWIĄZANE ARTYKUŁY