Pin It

Maurizio Codogno, meglio noto in rete come .mau., racconta come lui vede la matematica, con la scusa di non doverla insegnare né crearne di nuova. Oggi parla di un progetto per insegnare la matematica agli LLM.

Tim Gowers è una medaglia Fields, insomma uno che di matematica ne capisce qualcosa. È anche uno che ha portato all’estremo la capacità di lavoro collettivo da parte della comunità dei matematici. (Nota: i matematici non hanno mai lavorato da soli, checché una certa visione romantica lo possa aver fatto credere.) È stata infatti sua l’idea del progetto Polymath, per cercare di attaccare in tanti alcuni problemi, come per esempio quello dell’esistenza di un’infinità di primi gemelli. Occhei, in quel caso non si è arrivati a una dimostrazione completa, ma si è passati dal limite superiore di 70 milioni per avere infinite coppie di numeri primi “cugini” trovato da Yitang Zhang a 246, in una successione di miglioramenti. Ora Gowers ha lanciato un’altra idea: una base dati di “motivated proof” – non saprei tradurre in italiano il termine, ma l’idea è che le dimostrazioni devono spiegare il perché si sono scelti quei passi. Ma facciamo un passo indietro.

Gli LLM sanno dare risposte corrette a tante domande. Riescono anche a dare risposte corrette a domande che presumibilmente non facevano parte del materiale su cui sono stati addestrati, il che a prima vista può sembrare incredibile dato che in fin dei conti sono fondamentalmente degli autocompletatori sotto steroidi. In compenso, se si fa loro una domanda su cui non possono trovare informazioni, partono tipicamente per la tangente inventandosi le cose: sono le famigerate “allucinazioni”. Sarebbe possibile ridurre le allucinazioni se si scegliesse di far rispondere più spesso “non lo so” a un chatbot, come ho raccontato sul mio blog personale; ma se vogliamo che gli LLM servano a fare matematica, un “non lo so” non porta molto avanti: in fin dei conti già noi sapevamo di non saperlo.

Gowers ritiene che il problema sta nel tipo di materiale di addestramento a disposizione: non è che ci sia una quantità insufficiente di dati, ma i dati non sono quelli davvero utili. Avete presente come sono le dimostrazioni sui libri di matematica, no? Uno le osserva, è costretto – se riesce a comprenderle – ad ammettere che i singoli passi sono corretti, ma non ha nessuna idea del perché si sia scelto quel percorso. Con un po’ di esperienza chi fa matematica ci prende la mano, e almeno per i problemi più semplici la soluzione viene naturalmente in mente, proprio come fanno gli LLM. Nel loro caso ovviamente la definizione di “naturalmente” è “il testo che ha maggiore probabilità di essere emesso, perché ci sono tanti esempi simili nel materiale di addestramento”: ma sono abbastanza certo che noi umani facciamo inconsciamente la stessa cosa. Quello in cui siamo più bravi è inventarci delle strade nuove per attaccare i problemi ostici; ma soprattutto quello che facciamo in matematica è nascondere accuratamente tutta la strada costruita per arrivare alla soluzione, e pubblicare solo la dimostrazione pulita e asettica. Pare davvero che non si abbiano dimostrazioni, ma reperti da esibire in una mostra. Così, sempre secondo Gowers, l’addestramento attuale degli LLM li spinge a una strategia del “ipotizza e verifica”: i modelli provano a fare un’ipotesi ragionevole, cioè simile a quanto visto in addestramento, e controllano se funziona oppure no. Se non funziona, si prova con qualcos’altro. In effetti mi è capitato, leggendo alcune risposte date dai chatbot, proprio questo approccio: il sistema parte tutto convinto, scrive un po’ di conseguenze, si accorge che quello che ha scritto non funziona e riparte da capo.

Ordunque: cosa potrebbe succedere se si avesse come materiale di addestramento una base dati di teoremi e dimostrazioni che non nascondono il processo mentale dietro i dettagli non ovvi della dimostrazione? Eventualmente anche gli errori iniziali, perché generalmente ci accorgiamo di avere enunciato un teorema errato per mezzo di un controesempio, e questo ci permette di modificare le ipotesi di partenza in modo appropriato. L’idea di Gowers è costruire un ambiente dove “scrivere” questo tipo di dimostrazioni. Ho usato le virgolette perché non solo le dimostrazioni dovrebbero essere composte di passaggi standardizzati, ma soprattutto perché non si dovrebbe scrivere nulla! Più precisamente, l’utente non potrà digitare dei dati, ma solo selezionare testo già presente – tipicamente espressioni o sottoespressioni matematiche – oppure scegliere elementi da un menu, cliccare su pulsanti e infine accettare o rifiutare suggerimenti “ovvi” fatti dall’interfaccia. Posso immaginare che questa scelta semplifichi la vita per il futuro addestramento dei modelli: una struttura molto ben definita dovrebbe favorire l’emergenza di pattern e quindi la possibilità di risolvere problemi pescando da casi simili in campi diversi della matematica: una delle spinte propulsive della matematica, al momento abbastanza frenata dalla specializzazione estrema necessaria. Certo, le soluzioni del Libro, quelle che Erdős riteneva semplicemente perfette, probabilmente serviranno a poco e non saranno generalizzabili: ma non si può avere tutto dalla vita.

Non so se e quanto un progetto del genere potrà giovare all’intelligenza artificiale, anche se mi sembra comunque molto più interessante degli hype come quello di AlphaEvolve che avrebbe “dimostrato nuovi teoremi”, come racconto sul mio blog. Magari non sarà risolutivo per l’intelligenza artificiale, ma io sono ottimista e spero che potrà dare delle utili idee per aiutare a far capire la matematica agli esseri umani. Io non sono mai riuscito a trovare un libro che dia davvero un’idea di come si fa matematica: anche il Polya secondo me è troppo generico e non dà vere risposte. Del resto, se chiedete a me come si impara la matematica, la mia risposta è un convinto “boh?”. Certo, ci sono tecniche standard che si possono imparare: ma i guizzi della scoperta restano tristemente fuori. Una base dati di questo tipo però potrebbe farci vedere le cose in modo diverso da quanto ci ha insegnato la plurimillenaria storia della matematica, e aiutarci a spiegarla in modo diverso. Non sarebbe bellissimo?

Guarda la pagina di questa rubrica

Maurizio Codogno, noto online come .mau., è nato a Torino nel 1963, e si è laureato in matematica presso la Scuola Normale Superiore di Pisa e successivamente in informatica a Torino. Autore di numerosi libri di divulgazione scientifica, tra cui “Matematica in pausa caffè” e “Chiamatemi Pi Greco”, ha il suo blog “Notiziole di .mau.” dall’inizio del millennio ed è stato curatore della collana di libri Matematica di Gazzetta dello Sport e Corriere della Sera.

Twitter 

Pin It
This website uses the awesome plugin.