Maurizio Codogno, meglio noto in rete come .mau., racconta come lui vede la matematica, con la scusa di non doverla insegnare né crearne di nuova. Oggi parla di un progetto per insegnare la matematica agli LLM.
Tim Gowers è una medaglia Fields, insomma uno che di matematica ne capisce qualcosa. È anche uno che ha portato all’estremo la capacità di lavoro collettivo da parte della comunità dei matematici. (Nota: i matematici non hanno mai lavorato da soli, checché una certa visione romantica lo possa aver fatto credere.) È stata infatti sua l’idea del progetto Polymath, per cercare di attaccare in tanti alcuni problemi, come per esempio quello dell’esistenza di un’infinità di primi gemelli. Occhei, in quel caso non si è arrivati a una dimostrazione completa, ma si è passati dal limite superiore di 70 milioni per avere infinite coppie di numeri primi “cugini” trovato da Yitang Zhang a 246, in una successione di miglioramenti. Ora Gowers ha lanciato un’altra idea: una base dati di “motivated proof” – non saprei tradurre in italiano il termine, ma l’idea è che le dimostrazioni devono spiegare il perché si sono scelti quei passi. Ma facciamo un passo indietro.
Gli LLM sanno dare risposte corrette a tante domande. Riescono anche a dare risposte corrette a domande che presumibilmente non facevano parte del materiale su cui sono stati addestrati, il che a prima vista può sembrare incredibile dato che in fin dei conti sono fondamentalmente degli autocompletatori sotto steroidi. In compenso, se si fa loro una domanda su cui non possono trovare informazioni, partono tipicamente per la tangente inventandosi le cose: sono le famigerate “allucinazioni”. Sarebbe possibile ridurre le allucinazioni se si scegliesse di far rispondere più spesso “non lo so” a un chatbot, come ho raccontato sul mio blog personale; ma se vogliamo che gli LLM servano a fare matematica, un “non lo so” non porta molto avanti: in fin dei conti già noi sapevamo di non saperlo.
Gowers ritiene che il problema sta nel tipo di materiale di addestramento a disposizione: non è che ci sia una quantità insufficiente di dati, ma i dati non sono quelli davvero utili. Avete presente come sono le dimostrazioni sui libri di matematica, no? Uno le osserva, è costretto – se riesce a comprenderle – ad ammettere che i singoli passi sono corretti, ma non ha nessuna idea del perché si sia scelto quel percorso. Con un po’ di esperienza chi fa matematica ci prende la mano, e almeno per i problemi più semplici la soluzione viene naturalmente in mente, proprio come fanno gli LLM. Nel loro caso ovviamente la definizione di “naturalmente” è “il testo che ha maggiore probabilità di essere emesso, perché ci sono tanti esempi simili nel materiale di addestramento”: ma sono abbastanza certo che noi umani facciamo inconsciamente la stessa cosa. Quello in cui siamo più bravi è inventarci delle strade nuove per attaccare i problemi ostici; ma soprattutto quello che facciamo in matematica è nascondere accuratamente tutta la strada costruita per arrivare alla soluzione, e pubblicare solo la dimostrazione pulita e asettica. Pare davvero che non si abbiano dimostrazioni, ma reperti da esibire in una mostra. Così, sempre secondo Gowers, l’addestramento attuale degli LLM li spinge a una strategia del “ipotizza e verifica”: i modelli provano a fare un’ipotesi ragionevole, cioè simile a quanto visto in addestramento, e controllano se funziona oppure no. Se non funziona, si prova con qualcos’altro. In effetti mi è capitato, leggendo alcune risposte date dai chatbot, proprio questo approccio: il sistema parte tutto convinto, scrive un po’ di conseguenze, si accorge che quello che ha scritto non funziona e riparte da capo.
Ordunque: cosa potrebbe succedere se si avesse come materiale di addestramento una base dati di teoremi e dimostrazioni che non nascondono il processo mentale dietro i dettagli non ovvi della dimostrazione? Eventualmente anche gli errori iniziali, perché generalmente ci accorgiamo di avere enunciato un teorema errato per mezzo di un controesempio, e questo ci permette di modificare le ipotesi di partenza in modo appropriato. L’idea di Gowers è costruire un ambiente dove “scrivere” questo tipo di dimostrazioni. Ho usato le virgolette perché non solo le dimostrazioni dovrebbero essere composte di passaggi standardizzati, ma soprattutto perché non si dovrebbe scrivere nulla! Più precisamente, l’utente non potrà digitare dei dati, ma solo selezionare testo già presente – tipicamente espressioni o sottoespressioni matematiche – oppure scegliere elementi da un menu, cliccare su pulsanti e infine accettare o rifiutare suggerimenti “ovvi” fatti dall’interfaccia. Posso immaginare che questa scelta semplifichi la vita per il futuro addestramento dei modelli: una struttura molto ben definita dovrebbe favorire l’emergenza di pattern e quindi la possibilità di risolvere problemi pescando da casi simili in campi diversi della matematica: una delle spinte propulsive della matematica, al momento abbastanza frenata dalla specializzazione estrema necessaria. Certo, le soluzioni del Libro, quelle che Erdős riteneva semplicemente perfette, probabilmente serviranno a poco e non saranno generalizzabili: ma non si può avere tutto dalla vita.
Non so se e quanto un progetto del genere potrà giovare all’intelligenza artificiale, anche se mi sembra comunque molto più interessante degli hype come quello di AlphaEvolve che avrebbe “dimostrato nuovi teoremi”, come racconto sul mio blog. Magari non sarà risolutivo per l’intelligenza artificiale, ma io sono ottimista e spero che potrà dare delle utili idee per aiutare a far capire la matematica agli esseri umani. Io non sono mai riuscito a trovare un libro che dia davvero un’idea di come si fa matematica: anche il Polya secondo me è troppo generico e non dà vere risposte. Del resto, se chiedete a me come si impara la matematica, la mia risposta è un convinto “boh?”. Certo, ci sono tecniche standard che si possono imparare: ma i guizzi della scoperta restano tristemente fuori. Una base dati di questo tipo però potrebbe farci vedere le cose in modo diverso da quanto ci ha insegnato la plurimillenaria storia della matematica, e aiutarci a spiegarla in modo diverso. Non sarebbe bellissimo?
Guarda la pagina di questa rubrica










Sono d’accordo su tutto, .mau.
In particolare ho sempre visto i libri di matematica come una raccolta di coproliti divini. *Fare* matematica, invece, mi ha sorpreso come un’attività appassionante e avventurosa.
Ah: un’eccezione erano i meravigliosi libri di J. Milnor.
Anch’io ho giocato a fare matematica con ChatGPT ed è stata un’esperienza interessante che mi ha fatto molto riflettere.
Salve Maurizio. Le faccio i complimenti più sinceri e le sono grato per gli innumerevoli articoli pubblicati. Io studio matematica, sto terminando la triennale. Mi attacco alla parte finale dell’articolo domandandoti consigli sullo studio universitario della matenatica, dal momento che, mi trovo contrario al modo di insegnarla dai Professori, seppur tutti molto preparati. Ci consegnando un bel pacchetto completo di teoria, tuttavia un pacchetto anonimo, frutto di storia, idee, errori, i quali non ci vengono affatto mostrati…
Grazie
Essendo io un matematico non praticante non sono certo la persona più indicata a dare una risposta!
Credo che il problema con l’insegnamento è che ci sono troppe cose da imparare e troppo poco tempo. Qualcosa può spuntare qua e là: per esempio le funzioni continue ma non derivabili in nessun punto sono i controesempi che hanno fatto capire che continuità e derivabilità sono due concetti distinti. Qualcos’altro è probabilmente inutile: tutto il lavoro di Cantor sugli infiniti nasce dai suoi lavori per capire come definire gli insiemi di punti per cui lo sviluppo in serie di Fourier di alcune funzioni non coincideva con la funzione, ma chiaramente oggi non ce ne facciamo nulla. Poi credo che molti concetti matematici nascano da problemi fisici che oggi risolveremmo in qualche altro modo. Aggiungi infine che le prime definizioni date sono spesso inutilmente complicate, oltre che imprecise: capire il perché dell’imprecisione può essere utile per comprendere meglio il concetto, ma avere una definizione complicata no.
Diciamo che purtroppo è più facile capire la logica di un concetto dopo che si è capito molto bene il concetto stesso: insomma è un serpente che si morde la coda.