L'Intelligenza Artificiale Generativa ha catturato l'attenzione quest'anno. Ecco perché e cosa succederà prossimamente.

12 Dicembre 2023 1928
Share Tweet

Chiedi a ChatGPT "Perché il cielo è blu?" e dopo pochi secondi ti dirà: "Il colore blu del cielo è principalmente dovuto a un fenomeno chiamato scattering di Rayleigh", che il chatbot continua a spiegare in una risposta simile a un libro di testo composta da sei paragrafi. Fai seguito con "Spiegamelo come se avessi 5 anni e fallo in modo breve, per favore" e la risposta sarà: "Il cielo è blu perché delle piccole cose nell'aria fanno rimbalzare la luce blu del sole e la fanno arrivare ai nostri occhi".

ChatGPT è un tipo di intelligenza artificiale generativa. È un modello informatico che si basa su modelli linguistici per prevedere le prossime parole in una frase, rispondendo alla richiesta dell'utente con una risposta simile a quella di un essere umano. Il modello è strutturato con molti strati di nodi interconnessi, vagamente ispirati alle connessioni neurali nel cervello. Durante un periodo di addestramento, i nodi interconnessi hanno elaborato miliardi di pezzi di scrittura raccolti da Internet, imparando i modelli modificando la forza delle diverse connessioni dei nodi. Altri tipi di IA generativa sono stati addestrati a creare immagini, video e altro ancora.

Rilasciato alla fine dell'anno scorso, ChatGPT ha subito catturato l'immaginazione del pubblico, aumentando la visibilità dell'IA generativa. Sono seguiti altri chatbot, come Bard di Google. Ma in mezzo al clamore, i critici hanno avvertito delle inesattezze, dei pregiudizi e del plagio dell'IA generativa. Poi, a metà novembre, Sam Altman, CEO di OpenAI, l'azienda che ha sviluppato ChatGPT e altri modelli di IA generativa come DALL-E 3, è stato licenziato e poi riassunto dopo pochi giorni. In risposta, la maggior parte del consiglio di amministrazione dell'azienda si è dimessa. Questa rivolta ha suscitato una discussione diffusa sull'affrettarsi a commercializzare l'IA generativa senza adottare precauzioni per inserire misure di sicurezza per garantire che la tecnologia non causi danni.

Per capire come l'IA generativa sia diventata protagonista dei titoli e cosa accadrà in futuro, Science News ha parlato con Melanie Mitchell dell'Istituto di Santa Fe, una delle principali esperte mondiali di IA. Questa intervista è stata modificata per motivi di lunghezza e chiarezza.

SN: Perché l'IA generativa ha suscitato tanto interesse quest'anno?

Mitchell: Abbiamo avuto modelli di linguaggio per molti anni. Ma la svolta con sistemi come ChatGPT è che sono stati molto più addestrati per essere un partner di dialogo ed assistente. Sono stati addestrati su un quantitativo di dati molto più elevato. E avevano molte più connessioni, nell'ordine dei miliardi o trilioni. Inoltre, sono stati presentati al pubblico con un'interfaccia molto facile da usare. Queste sono state le cose che li hanno fatti decollare, e la gente era semplicemente stupita da quanto sembrassero simili agli esseri umani.

SN: Dove pensi che l'IA generativa avrà il più grande impatto?

Mitchell: Questa è ancora una grande domanda aperta. Posso inserire una richiesta in ChatGPT, dicendo per favore scrivi un abstract per il mio articolo che contenga questi punti, e produrrà un abstract che spesso è abbastanza buono. Come assistente, è incredibilmente utile. Per le immagini generative, i sistemi possono produrre immagini di stock. Puoi semplicemente dire di aver bisogno di un'immagine di un robot che cammina con un cane, e genererà quella. Ma questi sistemi non sono perfetti. Fanno errori. A volte "allucinano". Se chiedo a ChatGPT di scrivere un saggio su un certo argomento e di includere alcune citazioni, a volte inventerà delle citazioni che non esistono. E potrebbe generare testo che non è vero.

SN: Ci sono altre preoccupazioni?

Mitchell: Richiedono molta energia. Funzionano in grandi centri di elaborazione dati con un numero enorme di computer che richiedono molta elettricità e usano molta acqua per il raffreddamento. Quindi c'è un impatto ambientale. Questi sistemi sono stati addestrati sulla lingua umana e la società umana ha molti pregiudizi che si riflettono nel linguaggio assorbito da questi sistemi, come i pregiudizi razziali, di genere e demografici.

C'è stato di recente un articolo che descriveva come le persone stavano cercando di ottenere da un sistema testo-immagine la generazione di un'immagine di un dottore nero che curava bambini bianchi. Ed è stato molto difficile riuscirci.

Ci sono molte affermazioni su queste capacità di ragionamento dei sistemi, come essere in grado di risolvere problemi matematici o superare test standardizzati come l'esame da avvocato. In realtà non abbiamo un'idea di come fanno questo ragionamento, se tale ragionamento è robusto. Se si modifica leggermente il problema, saranno ancora in grado di risolverlo? Non è chiaro se questi sistemi possano generalizzare oltre ciò su cui sono stati addestrati o se si basino molto sui dati di addestramento. Questo è un grande dibattito.

SN: Cosa ne pensi della pubblicità?

Mitchell: People have to be aware that AI is a field that tends to get hyped, ever since its beginning in the 1950s, and to be somewhat skeptical of claims. We have seen again and again those claims are very much overblown. These are not humans. Even though they seem humanlike, they are different in many ways. People should see them as a tool to augment our human intelligence, not replace it — and make sure there’s a human in the loop rather than giving them too much autonomy.

SN: What implications might the recent upheaval at OpenAI have for the generative AI landscape?

Mitchell: [The upheaval] shows something that we already knew. There is a kind of polarization in the AI community, both in terms of research and in terms of commercial AI, about how we should think about AI safety — how fast these AI systems should be released to the public and what guardrails are necessary. I think it makes it very clear that we should not be relying on big companies in which power is concentrated right now to make these huge decisions about how AI systems should be safeguarded. We really do need independent people, for instance, government regulation or independent ethics boards, to have more power.

SN: What do you hope happens next?

Mitchell: We are in a bit of a state of uncertainty of what these systems are and what they can do, and how they will evolve. I hope that we figure out some reasonable regulation that mitigates possible harms but doesn’t clamp down too hard on what could be a very beneficial technology.


ARTICOLI CORRELATI