El talón de Aquiles de la IA: Nueva investigación señala debilidades fundamentales
Investigadores de la Universidad de Copenhague han demostrado que los algoritmos de Aprendizaje Automático completamente estables son inalcanzables para problemas complejos, resaltando la necesidad crítica de pruebas exhaustivas y conciencia de las limitaciones de la inteligencia artificial. Crédito: SciTechDaily.com
ChatGPT y tecnologías similares basadas en el aprendizaje automático están en aumento. Sin embargo, incluso los algoritmos más avanzados tienen limitaciones. Investigadores de la Universidad de Copenhague han hecho un descubrimiento innovador, demostrando matemáticamente que, más allá de los problemas básicos, es imposible desarrollar algoritmos de IA que siempre sean estables. Esta investigación podría abrir el camino a protocolos de prueba mejorados para algoritmos, resaltando las diferencias inherentes entre el procesamiento de máquinas y la inteligencia humana.
El artículo científico que describe el resultado ha sido aprobado para su publicación en una de las principales conferencias internacionales sobre ciencias de la computación teórica.
Las máquinas interpretan imágenes de escaneo médico con mayor precisión que los médicos, traducen idiomas extranjeros y pronto podrían conducir automóviles de manera más segura que los humanos. Sin embargo, incluso los mejores algoritmos tienen debilidades. Un equipo de investigación del Departamento de Ciencias de la Computación de la Universidad de Copenhague intenta revelar estas debilidades.
Tomemos como ejemplo un vehículo automático leyendo una señal de tráfico. Si alguien ha pegado una etiqueta en la señal, esto no distraerá a un conductor humano. Pero una máquina puede verse fácilmente confundida porque la señal ahora es diferente de las que fue entrenada.
"Nos gustaría que los algoritmos fueran estables en el sentido de que si se cambia ligeramente la entrada, la salida se mantenga casi igual. La vida real implica todo tipo de ruido al que los humanos están acostumbrados a ignorar, mientras que las máquinas pueden confundirse", dice el profesor Amir Yehudayoff, a cargo del grupo.
Como el primero en el mundo, el grupo junto con investigadores de otros países ha demostrado matemáticamente que, aparte de los problemas simples, no es posible crear algoritmos de Aprendizaje Automático que siempre sean estables. El artículo científico que describe el resultado fue aprobado para su publicación en una de las principales conferencias internacionales sobre ciencias de la computación teórica, Foundations of Computer Science (FOCS).
"Me gustaría señalar que no hemos trabajado directamente en aplicaciones de automóviles automatizados. Aún así, este parece ser un problema demasiado complejo para que los algoritmos siempre sean estables", dice Amir Yehudayoff, agregando que esto no implica necesariamente grandes consecuencias en relación con el desarrollo de automóviles automatizados:
"Si el algoritmo solo se equivoca en algunas circunstancias muy raras, esto podría ser aceptable. Pero si lo hace en una gran cantidad de circunstancias, es una mala noticia".
El artículo científico no puede ser aplicado por la industria para identificar errores en sus algoritmos. Esa no era la intención, explica el profesor:
"Estamos desarrollando un lenguaje para debatir sobre las debilidades en los algoritmos de Aprendizaje Automático. Esto puede llevar al desarrollo de pautas que describan cómo se deben probar los algoritmos. Y a largo plazo, esto puede llevar nuevamente al desarrollo de algoritmos mejores y más estables".
Una posible aplicación podría ser probar algoritmos para la protección de la privacidad digital.
"Algunas compañías podrían afirmar haber desarrollado una solución absolutamente segura para la protección de la privacidad. En primer lugar, nuestra metodología podría ayudar a establecer que la solución no puede ser absolutamente segura. En segundo lugar, podrá señalar puntos débiles", dice Amir Yehudayoff.
En primer lugar y ante todo, el artículo científico contribuye a la teoría. Especialmente el contenido matemático es innovador, agrega: "Entendemos intuitivamente que un algoritmo estable debería funcionar casi tan bien como antes cuando se expone a una pequeña cantidad de ruido de entrada. Como la señal de tráfico con una etiqueta adhesiva. Pero como científicos de la computación teóricos, necesitamos una definición sólida. Debemos poder describir el problema en el lenguaje de las matemáticas. ¿Cuánto ruido debe ser capaz de soportar el algoritmo y qué tan cerca debe estar la salida original de la salida para aceptar que el algoritmo sea estable? A eso hemos propuesto una respuesta".
El artículo científico ha despertado gran interés entre los colegas del mundo de las ciencias de la computación teórica, pero no de la industria tecnológica. Al menos todavía.
"Siempre debes esperar algún retraso entre un nuevo desarrollo teórico y el interés de las personas que trabajan en aplicaciones", dice Amir Yehudayoff mientras agrega con una sonrisa: "Y algunos desarrollos teóricos pasarán desapercibidos para siempre".
However, he does not see that happening in this case: ”Machine Learning continues to progress rapidly, and it is important to remember that even solutions which are very successful in the real world still do have limitations. The machines may sometimes seem to be able to think but after all, they do not possess human intelligence. This is important to keep in mind.”