L'IA générative a fait les gros titres cette année. Voici pourquoi et ce qui va suivre.

12 Décembre 2023 2039
Share Tweet

Demandez à ChatGPT "Pourquoi le ciel est-il bleu ?" et quelques secondes plus tard, il vous répondra : "La couleur bleue du ciel est principalement due à un phénomène appelé diffusion de Rayleigh", que le chatbot explique ensuite dans une réponse de six paragraphes ressemblant à un manuel scolaire. Suivez avec "Explique comme si j'avais 5 ans et fais court, s'il te plaît", et vous obtiendrez en retour : "Le ciel est bleu parce que de petites choses dans l'air font rebondir la lumière bleue du soleil et viennent jusqu'à nos yeux."

ChatGPT est un type d'IA générative. C'est un modèle informatique qui utilise des schémas de langage pour prédire les mots suivants dans une phrase, en répondant à la demande d'un utilisateur avec une réponse semblable à celle d'un humain. Le modèle est structuré avec de nombreuses couches de nœuds interconnectés, vaguement inspirés des connexions neuronales du cerveau. Pendant une période d'entraînement, les nœuds interconnectés ont parcouru des milliards de morceaux d'écriture récupérés sur Internet, apprenant des schémas en modifiant la force des différentes connexions des nœuds. D'autres types d'IA générative ont été formés pour créer des images, des vidéos et plus encore.

Lancé fin de l'année dernière, ChatGPT a rapidement captivé l'imagination du public, accréditant la visibilité de l'IA générative. D'autres chatbots, tels que Bard de Google, ont suivi. Mais malgré l'enthousiasme, les critiques ont mis en garde contre les inexactitudes, les biais et le plagiat de l'IA générative (SN : 12/04/23). Puis, mi-novembre, Sam Altman, le PDG d'OpenAI, l'entreprise qui a développé ChatGPT et d'autres modèles d'IA génératifs comme DALL-E 3, a été renvoyé, puis réembauché quelques jours plus tard. En réponse, la quasi-totalité du conseil d'administration de la société a démissionné. Ces bouleversements ont suscité une discussion généralisée sur la précipitation de la commercialisation de l'IA générative sans prendre de précautions pour mettre en place des mesures de sécurité visant à éviter que la technologie ne cause des préjudices.

Pour comprendre comment l'IA générative est devenue le centre de l'attention médiatique et ce qui se passera ensuite, Science News a interrogé Melanie Mitchell de l'Institut Santa Fe, l'une des principales expertes mondiales en IA. Cet entretien a été modifié pour des raisons de longueur et de clarté.

SN : Pourquoi l'IA générative a-t-elle été si importante cette année ?

Mitchell : Nous avons eu des modèles linguistiques depuis de nombreuses années. Mais la percée avec des systèmes comme ChatGPT est qu'ils ont bénéficié d'un entraînement bien plus poussé pour être un partenaire de dialogue et un assistant. Ils ont été formés sur beaucoup plus de données. Et ils avaient beaucoup plus de connexions, de l'ordre de milliards à trillions. De plus, ils étaient présentés au public avec une interface très facile à utiliser. Ce sont ces éléments qui les ont vraiment propulsés, et les gens étaient tout simplement stupéfaits de leur ressemblance avec les humains.

SN : Où pensez-vous que l'IA générative aura le plus d'impact ?

Mitchell : C'est encore une grande question ouverte. Je peux donner une instruction à ChatGPT, par exemple écrire un résumé pour mon article en incluant ces points, et il va générer un résumé souvent assez bon. En tant qu'assistant, il est incroyablement utile. Pour les images génératives, les systèmes peuvent produire des images d'archives. Vous pouvez simplement dire que vous avez besoin d'une image d'un robot promenant un chien, et il générera cela. Mais ces systèmes sont loin d'être parfaits. Ils commettent des erreurs. Parfois, ils "hallucinent". Si je demande à ChatGPT d'écrire un essai sur un sujet donné tout en incluant des citations, il lui arrive parfois de créer des citations qui n'existent pas. Et il peut aussi générer du texte qui est tout simplement faux.

SN : Y a-t-il d'autres préoccupations ?

Mitchell : Ils consomment beaucoup d'énergie. Ils fonctionnent dans de gigantesques centres de données avec un grand nombre d'ordinateurs qui ont besoin de beaucoup d'électricité et utilisent beaucoup d'eau pour se refroidir. Il y a donc un impact environnemental. Ces systèmes ont été formés sur le langage humain, et la société humaine a de nombreux biais qui se reflètent dans le langage que ces systèmes ont absorbé - des biais raciaux, de genre et démographiques, entre autres.

Un article récent a décrit comment des personnes ont essayé de faire en sorte qu'un système texte-image génère une image d'un médecin noir traitant des enfants blancs. Et c'était très difficile d'y parvenir.

Il y a beaucoup de revendications concernant les capacités de ces systèmes en matière de raisonnement, tels que leur aptitude à résoudre des problèmes mathématiques ou à réussir des tests standardisés tels que l'examen du barreau. Nous n'avons pas vraiment une idée de comment ils réalisent ce raisonnement, ni si ce raisonnement est robuste. Si on modifie légèrement le problème, seront-ils encore capables de le résoudre ? Il n'est pas clair si ces systèmes peuvent généraliser au-delà de leur formation ou s'ils dépendent beaucoup des données d'entraînement. C'est un grand débat.

SN : Que pensez-vous de l'engouement ?

Mitchell: People have to be aware that AI is a field that tends to get hyped, ever since its beginning in the 1950s, and to be somewhat skeptical of claims. We have seen again and again those claims are very much overblown. These are not humans. Even though they seem humanlike, they are different in many ways. People should see them as a tool to augment our human intelligence, not replace it — and make sure there’s a human in the loop rather than giving them too much autonomy.

SN: What implications might the recent upheaval at OpenAI have for the generative AI landscape?

Mitchell: [The upheaval] shows something that we already knew. There is a kind of polarization in the AI community, both in terms of research and in terms of commercial AI, about how we should think about AI safety — how fast these AI systems should be released to the public and what guardrails are necessary. I think it makes it very clear that we should not be relying on big companies in which power is concentrated right now to make these huge decisions about how AI systems should be safeguarded. We really do need independent people, for instance, government regulation or independent ethics boards, to have more power.

SN: What do you hope happens next?

Mitchell: We are in a bit of a state of uncertainty of what these systems are and what they can do, and how they will evolve. I hope that we figure out some reasonable regulation that mitigates possible harms but doesn’t clamp down too hard on what could be a very beneficial technology.


ARTICLES CONNEXES