Tra le motivazioni dei premi Nobel per la fisica 2024 a Geoffrey Hinton e John Hopfield c’è anche la macchina di Boltzmann. Marco Menale ha girato alcune domande sul tema a Pierluigi Contucci, Professore di Fisica Matematica presso l’Università di Bologna e autore del saggio Rivoluzione Intelligenza Artificiale.
Marco Menale: Cos’è la macchina di Boltzmann? Quando è nata?
Pierluigi Contucci: La macchina di Boltzmann è un modello matematico, per la precisione un modello hamiltoniano. Per comprenderne la natura dobbiamo inquadrare la sua genesi storica e concettuale. Vista la straordinaria efficienza delle macchine calcolatrici la comunità scientifica internazionale degli anni Cinquanta si rese conto che queste potevano fare molto più che calcolo numerico. L’antico progetto di automatizzare i processi cognitivi riprende corpo da un lato con il tentativo di implementare i processi logico-deduttivi del pensiero ma anche con un nuovo approccio, quello dell’apprendimento automatico.
A metà degli anni cinquanta viene proposto il percettrone. È un semplice modello algoritmico ispirato alla plasticità sinaptica del cervello. Nonostante nella sua formulazione originaria esso non risulti molto efficiente, una sua generalizzazione, in particolare la sua iterazione che porta il nome di apprendimento automatico profondo, riesce a dare i primi risultati alle fine del secolo scorso e a raggiungere una piena maturità tecnica nei primo decennio di questo secolo. La macchina di Boltzmann è stata il tentativo fatto da Hinton e Sejnowski, nel 1983, di concettualizzare con un approccio fisico-teorico gli algoritmi che venivano usati nei modelli di tipo percettrone e deep-learning.
MM: Cosa si intende per concettualizzazione fisico-teorica?
PC: In questo caso mi riferisco alla modellazione matematica di natura meccanico-statistica. C’è infatti una svolta rilevante negli studi sull’intelligenza artificiale che arriva con il contributo della fisica. Gli studiosi che provavano a trovare l’intelligenza come proprietà emergente da un sistema di neuroni avevano in mente alcune proprietà necessarie. La prima era che il numero di neuroni coinvolti doveva essere molto elevato. La seconda che la dinamica neuronale fosse molto più rapida di quella sinaptica. Infine che le interazioni sinaptiche dovessero essere sia eccitatorie che inibitorie. La prima proprietà suggerisce fortemente l’approccio meccanico statistico introdotto da Boltzmann per dedurre la termodinamica dalla meccanica classica attraverso i metodi probabilistici. Le altre due tuttavia erano molto difficili da conciliare. Infatti, agli albori dell’Intelligenza Artificiale non esistevano ancora delle idee che potessero trattare quelle caratteristiche che erano invece tipiche dei sistemi complessi.
MM: Quando sono arrivate quelle idee e chi le ha portate?
PC: Ecco, come accade spesso nel progresso della scienza accadde che metodi e idee che provenivano da problemi apparentemente distanti si sono rilevati utilissimi. Il vetro di spin, una lega metallica di ferro diluito in oro, aveva condotto a una modellazione come quella di campo medio fatta da Sherrington e Kirkpatrick. Fu lo straordinario lavoro di Parisi, tra la fine degli anni 70 e l’inizio degli anni 80, che spiegò come trattare sistemi simili che sono diventati il paradigma del sistema complesso. In esso convivevano tutte e tre le caratteristiche che anche un cervello deve avere, e ora la scienza aveva uno schema interpretativo e risolutivo da usare.
Le conseguenze furono immediate. Hopfield propose il suo modello per la memoria associativa nel 1982, basato sulla regola di Hebb, in cui il neurone non è un archivio legato a uno specifico ricordo. È piuttosto il sistema neuronale nel suo insieme che si dispone in configurazioni che, ciascuna, corrisponde a un ricordo. Quello stato del sistema è una posizione stabile di una hamiltoniana, una di quelle in cui l’energia della configurazione è minima o vicina a un minimo. La macchina di Boltzmann è la formulazione hamiltoniana dell’apprendimento automatico dai dati, arriva l’anno dopo ed è decisamente ispirata al modello di Hopfield. Il Nobel per la fisica di quest’anno ai due pionieri è anche il riconoscimento di questo incontro di frontiera tra fisica e informatica.
MM: Cosa dice la recente ricerca in merito?
PC: La situazione è diversa per i due modelli. Il modello di Hopfield ha raggiunto uno stadio di comprensione molto buono. Nonostante non abbiamo ancora un metodo matematico rigoroso per risolverlo le sue proprietà sono sostanzialmente chiare. La macchina di Boltzmann al contrario è ancora in un suo stadio preliminare. Il Nobel a Hinton è più motivato dal suo contributo ai metodi euristici algoritmici per l’apprendimento. Tra quelli, così efficaci da essere quasi considerati prodigiosi, e la macchina di Boltzmann dobbiamo ancora costruire un ponte solido e convincente.
In altre parole la teoria è ancora tutta da fare. Per questa ragione l’AI moderna è ancora tecnologia pre-scientifica. Le macchine AI vanno a gonfie vele ma il perché funzionino così bene è ancora un mistero. Quindi, la macchina di Boltzmann va aggiustata un pochino. Costruito quel ponte potremo capire come ottimizzare il consumo di energia di AI avvicinarci a una AI più trasparente di quella che conosciamo ora e molte altre cose.