Come mai i sistemi di Intelligenza Artificiale non sono bravi a riconoscere quando sbagliano, come gli esseri umani? La risposta potrebbe risiedere nel fatto che soffrono di limitazioni intrinseche dovute a un paradosso matematico secolare.
I sistemi di Intelligenza Artificiale presentano spesso un grado di sicurezza che supera di gran lunga le loro effettive capacità. Come qualcuno che è troppo sicuro di sé, non riescono a capire quando stanno commettendo errori. Uno studio di un gruppo di ricercatori dell’Università di Cambridge e dell’Università di Oslo sostiene che il problema sia l’instabilità dell’IA moderna e che un paradosso matematico riesca a mostrare i limiti dell’IA.
Le reti neurali, strumento all’avanguardia nell’IA, imitano grosso modo i collegamenti tra i neuroni. Nella ricerca, si mostra che solo in casi specifici gli algoritmi possono portare a reti neurali stabili e accurate. Gli scienziati, come si legge sulla rivista PNAS, propongono una teoria di classificazione che descrive quando le reti neurali possono essere addestrate per fornire un sistema di intelligenza artificiale affidabile, in determinate condizioni specifiche.
Il deep learning, la tecnologia AI leader per il riconoscimento dei modelli, è stata tirata in ballo in numerosi settori, dalle diagnosi mediche alla prevenzione degli incidenti stradali attraverso la guida autonoma. Tuttavia, molti sistemi di deep learning sono inaffidabili e facili da ingannare. “Sono instabili e questo sta diventando un problema importante, soprattutto perché sono sempre più utilizzati in aree ad alto rischio come le diagnosi o nei veicoli autonomi”, spiega il coautore dello studio, Anders Hansen del Dipartimento di matematica applicata e fisica teorica di Cambridge. “Se i sistemi di intelligenza artificiale vengono impiegati in aree in cui possono causare danni in caso di errore, la fiducia in questi sistemi deve essere la massima priorità“.
Il paradosso identificato dai ricercatori risale a due giganti della matematica: Alan Turing e Kurt Gödel. All’inizio del XX secolo, i matematici ipotizzavano che la matematica fosse l’ultimo linguaggio coerente della scienza. Tuttavia, Turing e Gödel hanno mostrato un paradosso nel cuore della matematica: è impossibile provare se alcune affermazioni matematiche sono vere o false, e alcuni problemi di calcolo non possono essere affrontati con algoritmi. E, inoltre, ogni formalizzazione coerente della matematica che contenga l’aritmetica dei numeri naturali, possiede una proposizione che non può essere dimostrata né confutata all’interno dello stesso sistema.
Decenni dopo, il matematico Steve Smale propose un elenco di 18 problemi matematici irrisolti per il XXI secolo. Il diciottesimo problema riguardava i limiti dell’intelligenza sia per gli esseri umani che per le macchine. “Il paradosso identificato per la prima volta da Turing e Gödel è stato ora portato avanti nel mondo dell’IA da Smale e altri”, dichiara il coautore Dr Matthew Colbrook del Dipartimento di Matematica Applicata e Fisica Teorica. “Ci sono limiti fondamentali, che riguardano la matematica che non possono essere elusi. Allo stesso modo, per determinati problemi gli algoritmi di intelligenza artificiale non possono esistere”.
I ricercatori affermano che, a causa di questo paradosso, ci sono dunque casi in cui possono esistere buone reti neurali ma non se ne può costruire una intrinsecamente affidabile. “Non importa quanto siano accurati i dati, non si potranno mai ottenere informazioni perfette per costruire la rete neurale richiesta”, ha spiegato il coautore Dr Vegard Antun dell’Università di Oslo. E non è solo un problema di qualità di dati. Indipendentemente dalla quantità di dati a cui un algoritmo può accedere, infatti, non si riuscirà a ottenere la rete desiderata. “In modo simile all’argomento di Turing, ci sono problemi di calcolo che non possono essere risolti indipendentemente dalla potenza di calcolo e dal tempo di esecuzione”, continua Hansen.
Gli scienziati sostengono però che non tutta l’IA sia intrinsecamente difettosa ma, anzi, che sia affidabile in aree specifiche, utilizzando metodi specifici. “Bisogna capire in quali aree è necessaria una garanzia, perché molti sistemi di Intelligenza Artificiale sono una scatola nera”, spiega Colbrook. “In alcune situazioni va benissimo che un’IA commetta errori, ma bisogna dichiararlo con onestà. E, attualmente, non è quello che accade per molti sistemi: non c’è modo di sapere quando sono più sicuri o meno sicuri, circa una determinata decisione”.
“Quando i matematici del XX secolo hanno identificato diversi paradossi, non hanno smesso di studiare matematica. Hanno solo dovuto trovare nuove strade, perché ne hanno compreso i limiti”, aggiunge Colbrook. “Per l’IA, potrebbe trattarsi di cambiare percorsi o svilupparne di nuovi per costruire sistemi in grado di risolvere i problemi in modo affidabile e trasparente, comprendendone i limiti”.
La fase successiva, secondo i ricercatori, consiste nel combinare la teoria dell’approssimazione, l’analisi numerica e le basi del calcolo per determinare quali reti neurali possono essere affrontate con algoritmi e quali possono essere rese stabili e affidabili. Proprio come i paradossi sui limiti della matematica e dei computer identificati da Gödel e Turing hanno portato a ricche teorie sui fondamenti della matematica che descrivono i limiti le possibilità della matematica, così, forse, potrebbero accadere processi simili nell’IA.