Il tallone d'Achille dell'IA: Nuove ricerche individuano le debolezze fondamentali

25 Gennaio 2024 1837
Share Tweet

I ricercatori dell'Università di Copenaghen hanno dimostrato che gli algoritmi di Machine Learning completamente stabili sono irraggiungibili per problemi complessi, evidenziando la necessità critica di test approfonditi e consapevolezza delle limitazioni dell'IA. Credito: SciTechDaily.com

ChatGPT e tecnologie simili basate su machine learning sono in aumento. Tuttavia, anche gli algoritmi più avanzati hanno dei limiti. I ricercatori dell'Università di Copenaghen hanno fatto una scoperta rivoluzionaria, dimostrando matematicamente che, al di là dei problemi di base, è impossibile sviluppare algoritmi di intelligenza artificiale sempre stabili. Questa ricerca potrebbe aprire la strada a protocolli di test migliorati per gli algoritmi, evidenziando le differenze intrinseche tra l'elaborazione meccanica e l'intelligenza umana.

L'articolo scientifico che descrive il risultato è stato approvato per la pubblicazione in una delle principali conferenze internazionali di informatica teorica.

Le macchine interpretano le immagini delle scansioni mediche con maggiore precisione rispetto ai medici, traducono lingue straniere e potrebbero presto essere in grado di guidare auto in modo più sicuro degli esseri umani. Tuttavia, anche i migliori algoritmi hanno delle debolezze. Un team di ricerca presso il Dipartimento di Informatica dell'Università di Copenaghen cerca di rivelarle.

Prendete ad esempio un'auto automatizzata che legge un segnale stradale. Se qualcuno ha attaccato un adesivo sul segnale, questo non distrae un guidatore umano. Ma una macchina potrebbe essere facilmente indotta in errore perché il segnale è diverso da quelli su cui è stata addestrata.

"Vorremmo che gli algoritmi fossero stabili nel senso che, se l'input viene leggermente modificato, l'output rimarrà quasi lo stesso. La vita reale coinvolge tutti i tipi di rumore a cui gli esseri umani sono abituati a ignorare, mentre le macchine possono confondersi", afferma il professor Amir Yehudayoff, a capo del gruppo di ricerca.

Come primi al mondo, il gruppo insieme a ricercatori di altri paesi ha dimostrato matematicamente che, al di là dei problemi semplici, non è possibile creare algoritmi di Machine Learning sempre stabili. L'articolo scientifico che descrive il risultato è stato approvato per la pubblicazione in una delle principali conferenze internazionali di informatica teorica, Foundations of Computer Science (FOCS).

"Vorrei sottolineare che non abbiamo lavorato direttamente alle applicazioni delle auto automatizzate. Tuttavia, sembra un problema troppo complesso perché gli algoritmi siano sempre stabili", afferma Amir Yehudayoff, aggiungendo che ciò non implica necessariamente conseguenze significative per lo sviluppo delle auto automatizzate:

"Se l'algoritmo commette errori solo in poche circostanze molto rare, questo potrebbe essere accettabile. Ma se lo fa in un'ampia gamma di circostanze, è una brutta notizia."

L'articolo scientifico non può essere applicato dall'industria per identificare bug nei suoi algoritmi. Questo non era l'intento, spiega il professor:

"Stiamo sviluppando un linguaggio per discutere le debolezze degli algoritmi di Machine Learning. Questo potrebbe portare allo sviluppo di linee guida che descrivono come gli algoritmi dovrebbero essere testati. E nel lungo periodo, questo potrebbe portare di nuovo allo sviluppo di algoritmi migliori e più stabili."

Una possibile applicazione potrebbe essere il test degli algoritmi per la protezione della privacy digitale.

"Alcune aziende potrebbero affermare di aver sviluppato una soluzione assolutamente sicura per la protezione della privacy. In primo luogo, la nostra metodologia potrebbe contribuire a stabilire che la soluzione non può essere assolutamente sicura. In secondo luogo, sarà in grado di individuare punti di debolezza", afferma Amir Yehudayoff.

Tuttavia, l'articolo scientifico contribuisce principalmente alla teoria. In particolare il contenuto matematico è rivoluzionario, aggiunge: "Intendiamo intuitivamente che un algoritmo stabile dovrebbe funzionare quasi come prima quando è esposto a una piccola quantità di rumore nell'input. Proprio come il cartello stradale con un adesivo. Ma come scienziati informatici teorici, abbiamo bisogno di una definizione precisa. Dobbiamo essere in grado di descrivere il problema nel linguaggio della matematica. Quanto rumore deve essere in grado di sopportare l'algoritmo e quanto vicino all'output originale dovrebbe essere l'output se vogliamo accettare che l'algoritmo sia stabile? A questo abbiamo suggerito una risposta."

L'articolo scientifico ha suscitato grande interesse tra i colleghi nel mondo della scienza informatica teorica, ma non nell'industria tecnologica. Almeno non ancora.

"Si dovrebbe sempre aspettare un certo ritardo tra un nuovo sviluppo teorico e l'interesse delle persone che lavorano nelle applicazioni", afferma Amir Yehudayoff aggiungendo sorridendo: "E alcuni sviluppi teorici rimarranno ignorati per sempre."

However, he does not see that happening in this case: ”Machine Learning continues to progress rapidly, and it is important to remember that even solutions which are very successful in the real world still do have limitations. The machines may sometimes seem to be able to think but after all, they do not possess human intelligence. This is important to keep in mind.”


ARTICOLI CORRELATI