La IA generativa acaparó titulares este año. Aquí te explicamos por qué y qué viene a continuación.

Pregunta a ChatGPT "¿Por qué el cielo es azul?" y segundos después, te dirá: "El color azul del cielo se debe principalmente a un fenómeno llamado dispersión de Rayleigh", que el chatbot continúa explicando en una respuesta similar a un libro de texto de seis párrafos. Sigue con la pregunta "Explícamelo como si tuviera 5 años y hazlo corto, por favor", y volverá: "El cielo es azul porque cosas pequeñas en el aire hacen rebotar la luz azul del sol y viene a nuestros ojos".
ChatGPT es un tipo de inteligencia artificial generativa. Es un modelo de computadora que utiliza patrones de lenguaje para predecir las siguientes palabras en una oración, respondiendo a la solicitud del usuario con una respuesta parecida a la de un humano. El modelo está estructurado con muchas capas de nodos interconectados, vagamente inspirados en las conexiones neurales del cerebro. Durante un período de entrenamiento, los nodos interconectados recorrieron miles de millones de piezas de escritura recopiladas de internet, aprendiendo patrones al cambiar la fuerza de las conexiones de diferentes nodos. Otros tipos de inteligencia artificial generativa han sido entrenados para crear imágenes, videos y más.
Lanzado a finales del año pasado, ChatGPT rápidamente cautivó la imaginación del público, aumentando la visibilidad de la inteligencia artificial generativa. Más chatbots, como Bard de Google, le siguieron. Pero entre el revuelo, los críticos han advertido sobre las imprecisiones, los sesgos y el plagio de la inteligencia artificial generativa. Y luego, a mediados de noviembre, Sam Altman, CEO de OpenAI, la empresa que desarrolló ChatGPT y otros modelos de inteligencia artificial generativa como DALL-E 3, fue despedido y luego recontratado días después. En respuesta, la mayoría de la junta directiva de la compañía renunció. La agitación provocó una amplia discusión sobre la prisa por comercializar la inteligencia artificial generativa sin tomar precauciones para incorporar medidas de seguridad que garanticen que la tecnología no cause daño.
Para entender cómo la inteligencia artificial generativa llegó a dominar los titulares y qué sigue, Science News habló con Melanie Mitchell del Instituto Santa Fe, una de las principales expertas en inteligencia artificial del mundo. Esta entrevista ha sido editada por razones de longitud y claridad.
SN: ¿Por qué fue tan importante este año la inteligencia artificial generativa?
Mitchell: Hemos tenido modelos de lenguaje durante muchos años. Pero el avance con sistemas como ChatGPT es que tuvieron mucho más entrenamiento para ser un compañero y asistente en el diálogo. Fueron entrenados con mucha más información. Y tenían muchas más conexiones, del orden de miles de millones a billones. Además, se presentaron al público con una interfaz muy fácil de usar. Esas fueron las cosas que realmente los hicieron despegar, y la gente estaba asombrada de lo similar a un humano que parecían.
SN: ¿Dónde crees que la inteligencia artificial generativa tendrá un mayor impacto?
Mitchell: Esa es aún una gran pregunta abierta. Puedo ingresar una solicitud a ChatGPT, decirle que escriba un resumen de mi artículo que incluya estos puntos, y generará un resumen que generalmente es bastante bueno. Como asistente, es increíblemente útil. Para imágenes generativas, los sistemas pueden producir imágenes prediseñadas. Simplemente puedes decir: "Necesito una imagen de un robot paseando un perro", y generará eso. Pero estos sistemas no son perfectos. Cometen errores. A veces "alucinan". Si le pido a ChatGPT que escriba un ensayo sobre algún tema y también que incluya algunas citas, a veces inventará citas que no existen. Y también puede generar texto que simplemente no es verdad.
SN: ¿Existen otras preocupaciones?
Mitchell: Requieren mucha energía. Funcionan en enormes centros de datos con una gran cantidad de computadoras que necesitan mucha electricidad y consumen mucha agua para enfriarse. Por lo tanto, tienen un impacto ambiental. Estos sistemas han sido entrenados con lenguaje humano, y la sociedad humana tiene muchos sesgos que se reflejan en el lenguaje que estos sistemas han absorbido, como sesgos raciales, de género y demográficos.
Recientemente hubo un artículo que describía cómo las personas intentaban hacer que un sistema de texto-imagen generara una imagen de un médico negro tratando a niños blancos. Y fue muy difícil lograr que lo generara.
Hay muchas afirmaciones sobre estas capacidades de razonamiento de estos sistemas, como ser capaces de resolver problemas matemáticos o aprobar pruebas estandarizadas como el examen de abogacía. Realmente no tenemos una idea de cómo están haciendo este razonamiento, si ese razonamiento es robusto. Si cambias un poco el problema, ¿seguirán siendo capaces de resolverlo? No está claro si estos sistemas pueden generalizar más allá de lo que han sido entrenados o si simplemente dependen mucho de los datos de entrenamiento. Eso es un gran debate.
SN: ¿Qué piensas sobre la exageración?
Mitchell: People have to be aware that AI is a field that tends to get hyped, ever since its beginning in the 1950s, and to be somewhat skeptical of claims. We have seen again and again those claims are very much overblown. These are not humans. Even though they seem humanlike, they are different in many ways. People should see them as a tool to augment our human intelligence, not replace it — and make sure there’s a human in the loop rather than giving them too much autonomy.
SN: What implications might the recent upheaval at OpenAI have for the generative AI landscape?
Mitchell: [The upheaval] shows something that we already knew. There is a kind of polarization in the AI community, both in terms of research and in terms of commercial AI, about how we should think about AI safety — how fast these AI systems should be released to the public and what guardrails are necessary. I think it makes it very clear that we should not be relying on big companies in which power is concentrated right now to make these huge decisions about how AI systems should be safeguarded. We really do need independent people, for instance, government regulation or independent ethics boards, to have more power.
SN: What do you hope happens next?
Mitchell: We are in a bit of a state of uncertainty of what these systems are and what they can do, and how they will evolve. I hope that we figure out some reasonable regulation that mitigates possible harms but doesn’t clamp down too hard on what could be a very beneficial technology.