Esclusiva: OpenAI si prepara a spingere per una politica di "Ripensare il Contratto Sociale" | Vanity Fair

03 Aprile 2026 1566
Share Tweet

Gli addetti di OpenAI potrebbero stare godendosi un po' di meritato riposo durante una pausa primaverile aziendale questa settimana, ma come dimostrato dal nuovo annuncio di finanziamento di 122 miliardi di dollari che è stato reso pubblico poco prima che questa rubrica andasse in stampa, il mondo dell'IA non dorme mai. Il nuovo capitale arriva a seguito del report della scorsa settimana secondo il quale OpenAI stava preparando il rilascio di un nuovo modello AI avanzato, chiamato Spud. Durante un incontro aziendale la scorsa martedì, il CEO Sam Altman ha informato il personale presente, "Le cose si stanno muovendo più velocemente di quanto molti di noi si aspettassero."

Questi tipi di fughe ispirano inevitabilmente credulità senza fiato da un lato e prese ciniche sull'incessante ciclo di hype in cerca di investimenti dall'altro. Come al solito, la realtà della situazione probabilmente si trova da qualche parte nel mezzo. Come mi ha detto un ricercatore di OpenAI lo scorso fine settimana, "Tutti i modelli più recenti sono migliori di quelli più vecchi - e i modelli sono stati vicini o hanno superato l'intelligenza umana da molto tempo."

La prossima settimana inizieremo a ricevere alcuni suggerimenti su cosa sta pensando OpenAI. In concomitanza con il prossimo rilascio del modello Spud, ho appreso che il laboratorio sta pianificando di pubblicare una serie di nuovi documenti e proposte che delineano nuove idee politiche per l'era della superintelligenza. Un documento iniziale, che sarà pubblicato la prossima settimana, fa parte di un'ampia spinta alla ricerca, guidata dal CEO Altman, dal capo futurista Joshua Achiam e dal vice presidente degli affari globali Chris Lehane, che si concentrerà sulla politica industriale e sulle soluzioni per le perturbazioni economiche nell'era dell'IA.

Una fonte a conoscenza del progetto ha spiegato che l'idea è quella di "pensare in grande da un punto di vista politico riguardo alle questioni sociali mentre la tecnologia avanza verso la superintelligenza." Questa persona ha accennato ad alcuni potenziali "punti di partenza della conversazione" potenzialmente controversi pensati per coinvolgere un più ampio spettro della società nel dibattito sull'IA.

Coloro con cui ho parlato non hanno approfondito troppo nei dettagli, ma hanno discusso della necessità di "ripensare il contratto sociale" e costruire "superintelligenza che funzioni per tutti." Questo suona sicuramente molto come se stessero suggerendo una forma di ridistribuzione della ricchezza (un'idea amata dai miliardari). Ma la verità è che uno studio finanziato da Altman sul reddito di base universale ha concluso nel 2024 con risultati alquanto deludenti. I ricercatori hanno scoperto che i benefici dei pagamenti mensili senza condizioni tendevano a "sparire nei secondi e terzi anni del programma." Speriamo che questa nuova iniziativa di ricerca abbia ideato una soluzione migliore e più concreta per far fronte alle imminenti perdite di posti di lavoro causate dall'IA.

La scorsa settimana è trapelato che Anthropic stava lavorando al suo grande nuovo rilascio di modello, chiamato Mythos.

Anche questi sviluppi sono intriganti nel contesto dei cambiamenti di direzione dell'azienda delle ultime settimane. La scorsa martedì, OpenAI ha annunciato la chiusura del suo modello di generazione video, Sora, e la risoluzione del suo accordo di licenza miliardario con Disney - molto alla sorpresa dell'azienda di intrattenimento. OpenAI ha anche abbandonato i suoi piani controversi di rilasciare un compagno erotico.

Nel frattempo, l'azienda ha riorganizzato i suoi sforzi in materia di sicurezza, annunciando che la OpenAI Foundation prevede di spendere 1 miliardo di dollari nel prossimo anno per la ricerca medica, la resilienza dell'AI e i programmi comunitari. Anche il gruppo dei prodotti è stato rinominato AGI Deployment.

Tutti questi movimenti sembrano indicare un'azienda sull'orlo di qualcosa. Un'IPO, prevista per più avanti quest'anno? Restare irrimediabilmente indietro rispetto ai suoi concorrenti Anthropic e Google? Una reale innovazione tecnologica?

Ci sono anche le imminenti elezioni di metà mandato del 2026 - probabilmente il primo ciclo elettorale in cui l'IA e le sue conseguenze saranno davvero al centro delle preoccupazioni degli elettori americani. Forse l'azienda si è resa conto del fatto che le scarse valutazioni di popolarità dell'IA sono destinate a catturarla sotto forma di dure regolamentazioni.

Le nuove proposte politiche di OpenAI mireranno a "questioni sociali mentre la tecnologia avanza verso la superintelligenza."

In generale, frasi come "sicurezza dell'IA" e "rischio IA" sono diventate parole sporche da quando Donald Trump è tornato in carica per la seconda volta e "accelerazione" è diventato il grido di battaglia della Silicon Valley. Ma le cose potrebbero stanno tornando indietro, con parte dell'euforia attorno a Trump e al suo paradigma di deregolamentazione che inizia a svanire. A febbraio, OpenAI ha attirato il ricercatore di sicurezza Dylan Scandinaro da Anthropic per guidare il suo team di preparazione, che sembra ora essere in fase di reclutamento con ruoli incentrati sui rischi biologici e chimici di frontiera, sui rischi informatici e sull'ominosamente nominato "perdita di controllo."

È interessante notare che la leadership di OpenAI non sempre procede all'unisono quando si tratta di politica. Achiam è stato visto l'ultima volta mentre twittava riguardo al "tentativo della lobby pro-AI di sabotare Alex Bores che in seguito sarà ampiamente compreso come un inutile autogol." Molti hanno interpretato ciò come un'offesa rivolta al presidente di OpenAI, Greg Brockman, che ha investito milioni di dollari in un super PAC dedicato ad attaccare candidati pro-regolamentazione come Bores.

OpenAI non è l'unico laboratorio dove si può percepire un cambiamento di tono. Anthropic ha ottenuto un enorme aumento di opinione pubblica successivamente alla sua crociata contro quello che sosteneva fosse l'eccesso del Dipartimento della Difesa. (Il Risveglio è tornato!) La scorsa settimana è trapelato che Anthropic sta lavorando al lancio del suo nuovo grande modello, chiamato Mythos. In una dichiarazione a Fortune, un portavoce dell'azienda ha affermato che il modello rappresenta un "cambiamento significativo" nelle capacità - con il bozza del post sul blog trapelato che avverte dei rischi particolari nel campo della cybersecurity a causa della sofisticazione del modello.

Sabina Nong, un'investigatrice della sicurezza dell'IA presso il Future of Life Institute, ha detto di essere sospettosa di questo "rinnovato tipo di costruzione narrativa," nei laboratori di confine attorno ai "rischi catastrofici e alle forze perturbatrici." Nel frattempo, vede un contro-trend preoccupante: "Mentre si parla di questo così spesso, il fatto è che vediamo ancora meno un impegno vincolante da parte delle aziende."

È difficile sfuggire alla sensazione che anche nelle chat e nei memo trapelati, questi laboratori si stiano esibendo per un pubblico. Come ha scritto la serie di account anonimi preferita dall'industria dell'IA la scorsa settimana, "è una posizione difficile da avere quando tutte le tue comunicazioni private sono di fatto comunicazioni pubbliche... I 'progetti Manhattan' non erano davvero un'opzione, devi solo accelerare costantemente rispetto ai tuoi avversari in pubblico."

Bacio Bacio Bang Bang: La Selvaggia Saga di Successione di Glock

Il Giocatore ad Alto Rischio e l'Autoproclamato Vigilante, al Centro del Dramma Legale di Paramount

Lo Scandalo della Summer House, Spiegato

Come Trump Ha Trasformato il Potere del Pensiero Positivo in Delusione

Milly Alcock si Prepara a Prendere il Volo

Come era Veramente la Regina Elisabetta

Esclusiva: Lindsey Vonn sulla Vita Dopo il Suo Orribile Incidente

I Sogni Hollywoodiani di Harry e Meghan Ricevono un Ostacolo

Kylie Jenner Entra nella Sua Era di Hollywood

Dall'Archivio: L'Etica dello Stile di Mr. & Mrs. Calvin Klein


ARTICOLI CORRELATI