Le talon d'Achille de l'IA : de nouvelles recherches identifient des faiblesses fondamentales.
Les chercheurs de l'Université de Copenhague ont prouvé que des algorithmes d'apprentissage machine entièrement stables sont inatteignables pour des problèmes complexes, soulignant le besoin crucial de tests approfondis et de prise de conscience des limites de l'IA. Crédit : SciTechDaily.com
ChatGPT et des technologies similaires basées sur l'apprentissage machine sont en plein essor. Cependant, même les algorithmes les plus avancés présentent des limites. Des chercheurs de l'Université de Copenhague ont fait une découverte révolutionnaire, démontrant mathématiquement qu'au-delà des problèmes de base, il est impossible de développer des algorithmes d'IA toujours stables. Cette recherche pourrait ouvrir la voie à l'amélioration des protocoles de test pour les algorithmes, mettant en évidence les différences inhérentes entre le traitement des machines et l'intelligence humaine.
L'article scientifique décrivant le résultat a été approuvé pour publication lors d'une des principales conférences internationales sur l'informatique théorique.
Les machines interprètent les images de balayage médical de manière plus précise que les médecins, traduisent des langues étrangères et pourraient bientôt être en mesure de conduire des voitures de manière plus sûre que les humains. Cependant, même les meilleurs algorithmes ont des faiblesses. Une équipe de recherche du Département d'informatique de l'Université de Copenhague tente de les révéler.
Prenons l'exemple d'un véhicule automatisé lisant un panneau de signalisation. Si quelqu'un a collé un autocollant sur le panneau, cela ne distraira pas un conducteur humain. Mais une machine peut facilement être perturbée parce que le panneau est maintenant différent de ceux sur lesquels elle a été formée.
"Nous aimerions que les algorithmes soient stables au sens où si l'entrée change légèrement, la sortie restera presque la même. La vie réelle implique toutes sortes de bruits que les humains ont l'habitude d'ignorer, tandis que les machines peuvent être déconcertées", explique le professeur Amir Yehudayoff, responsable du groupe.
En tant que premiers au monde, le groupe, en collaboration avec des chercheurs d'autres pays, a prouvé mathématiquement qu'à part les problèmes simples, il n'est pas possible de créer des algorithmes d'apprentissage machine qui seront toujours stables. L'article scientifique décrivant le résultat a été approuvé pour publication lors de l'une des principales conférences internationales sur l'informatique théorique, Foundations of Computer Science (FOCS).
"Je tiens à souligner que nous n'avons pas travaillé directement sur des applications de voitures automatisées. Pourtant, cela semble être un problème trop complexe pour que les algorithmes soient toujours stables", explique Amir Yehudayoff, ajoutant que cela n'implique pas nécessairement de grandes conséquences par rapport au développement des voitures automatisées :
"Si l'algorithme se trompe seulement dans quelques rares circonstances, cela peut être acceptable. Mais s'il le fait dans une grande collection de circonstances, c'est une mauvaise nouvelle."
L'article scientifique ne peut pas être utilisé par l'industrie pour identifier les bugs dans ses algorithmes. Ce n'était pas l'intention, explique le professeur :
"Nous développons un langage pour discuter des faiblesses des algorithmes d'apprentissage machine. Cela pourrait conduire à l'élaboration de lignes directrices décrivant comment les algorithmes doivent être testés. Et à long terme, cela pourrait à nouveau conduire à la mise au point d'algorithmes meilleurs et plus stables."
Une application possible pourrait être de tester les algorithmes pour la protection de la vie privée numérique.
"Certaines entreprises pourraient prétendre avoir développé une solution absolument sécurisée pour la protection de la vie privée. Premièrement, notre méthodologie pourrait contribuer à établir que la solution ne peut pas être absolument sécurisée. Deuxièmement, elle sera en mesure d'identifier les points faibles", déclare Amir Yehudayoff.
Cependant, l'article scientifique contribue avant tout à la théorie. En particulier, le contenu mathématique est révolutionnaire, ajoute-t-il : "Nous comprenons intuitivement qu'un algorithme stable devrait fonctionner presque aussi bien qu'avant lorsqu'il est exposé à une petite quantité de bruit d'entrée. Tout comme le panneau de signalisation avec un autocollant dessus. Mais en tant que chercheurs en informatique théorique, nous avons besoin d'une définition solide. Nous devons être en mesure de décrire le problème dans le langage des mathématiques. Dans quelle mesure l'algorithme doit-il être capable de résister au bruit, et à quelle proximité de la sortie d'origine l'algorithme doit-il être accepté comme stable ? C'est à cela que nous avons proposé une réponse."
L'article scientifique a suscité un grand intérêt de la part des collègues du monde de l'informatique théorique, mais pas de l'industrie technologique. Du moins pas encore.
"Vous devez toujours vous attendre à un certain délai entre un nouveau développement théorique et l'intérêt des personnes travaillant dans les applications", explique Amir Yehudayoff en souriant : "Et certains développements théoriques passeront inaperçus pour toujours."
However, he does not see that happening in this case: ”Machine Learning continues to progress rapidly, and it is important to remember that even solutions which are very successful in the real world still do have limitations. The machines may sometimes seem to be able to think but after all, they do not possess human intelligence. This is important to keep in mind.”