Maurizio Codogno, meglio noto in rete come .mau., racconta come lui vede la matematica, con la scusa di non doverla insegnare né crearne di nuova. Il tema del post di oggi è l’uso dell’intelligenza artificiale da parte dei matematici: è sicuramente utile, ma devi essere davvero bravo per saperla sfruttare.
Un paio di settimane fa Tim Gowers (una medaglia Fields, mica albicocche artiche) ha twittato dicendo che aveva sbloccato un livello nel suo uso dei chatbot. Mentre stava cercando di dimostrare un teorema, si è trovato di fronte a un’affermazione che gli sembrava corretta e se dimostrata l’avrebbe portato al risultato voluto. Invece che mettersi a provarla per conto suo, l’ha data in pasto a GPT5, che in una ventina di secondi ha snocciolato una dimostrazione. Gowers ha solo dovuto verificare che fosse corretta (lo era): la dimostrazione si basava su un lemma che era di un campo un po’ lontano dalla sua specializzazione: in un’ora (meglio: in un tempo che poteva variare tra 10 minuti e una giornata) avrebbe potuto arrivarci, ma così ha fatto molto più in fretta. Il suo commento finale: “sembra che siamo entrati nella breve ma apprezzabile era in cui le nostre ricerche sono accelerate dalle IA, ma esse hanno ancora bisogno di noi”.
Anche Terry Tao (altra medaglia Fields) ha scritto qualcosa di simile su Mathstodon (non è un refuso): ha provato a vedere se ChatGPT Pro riusciva a trovare un controesempio scrivendo del codice verificabile, e per buona parte del percorso c’è riuscito. Il suo commento è stato che in questo momento, mettendo insieme le capacità di un LLM di punta e di un sistema di verifica automatica come Lean, in media si ha un certo miglioramento dei tempi di risoluzione di problemi in cui occorre eseguire molti passi che richiedono parecchio tempo per essere completati; ma c’è comunque da tenere conto che le fluttuazioni statistiche della generazione delle risposte rendono impossibile in pratica una automatizzazione totale. Tao tra l’altro sta occupandosi anche di questi temi: come ho scritto da me la settimana scorsa, è uno dei coautori di un articolo dove è spiegato l’approccio ibrido di AlphaEvolve per migliorare soluzioni a problemi numericamente complicati.
Insomma, anche la matematica sta per soccombere alla potenza delle IA? Io ci andrei molto cauto con un’affermazione del genere. Per prima cosa non è un caso che io abbia rimarcato il fatto che a fare questi commenti sono due medaglie Fields: non perché se loro che sono tra i migliori matematici viventi dicono che l’IA migliora i loro risultati, ma perché il fatto che siano tra i migliori matematici viventi significa che sono in grado di riconoscere il grano IA dal loglio in modo molto migliore di noi comuni mortali. Ma c’è anche un altro punto da tenere in considerazione, collegato a quanto appena detto. Per Gowers e Tao gli LLM sono strumenti, non mezzi, e non è certo la prima volta che i matematici usano un qualunque strumento abbiano a disposizione. Quando nel 1977 Kenneth Appel e Wolfgang Haken dimostrarono il teorema dei quattro colori usando il computer, ci fu chi obiettò alla metodologia usata: ma in realtà non c’era nulla di formalmente sbagliato. I due matematici avevano ridotto il problema generale a quello della validità del teorema per un insieme di 1936 configurazioni “di base”, e hanno scritto un programma che per ciascuna di tali configurazioni ne verificava la validità. (Per la precisione hanno scritto due programmi con algoritmi diversi che giravano su hardware e sistemi operativi diversi, per avere un controllo incrociato). D’accordo, gli ultrafinisti non accettano una dimostrazione che non possa essere rifatta in pratica da un essere umano, perché ci vorrebbe troppo tempo per completarla; ma quello è un gruppo davvero minoritario di filosofi della matematica.
Se non siete ancora convinti, ecco un altro esempio. Il sito erdosproblems.com raccoglie 1105 problemi ideati da Paul Erdős, con le soluzioni note; al momento, meno del 40% dei problemi è stato risolto. Il mese scorso Mark Sellke e Mehtaab Sawhney hanno twittato che ChatGPT 5 aveva risolto dieci di questi problemi, oltre ad avere compiuto alcuni passi per avvicinarsi alla soluzione di altri undici. Peccato che si sia scoperto quasi subito che ChatGPT aveva semplicemente riscritto dei risultati già trovati in passato e che non erano noti al gestore di erdosproblems.com; insomma l’IA ha operato come un sistema – molto avanzato! – di query di una base dati enorme costituita da tutta la letteratura matematica. Alla fine della fiera, insomma, il lavoro sporco lo sa fare molto bene: ma per saperlo sfruttare noi umani dobbiamo essere bravi di nostro. La creatività in matematica insomma resiste!
Guarda la pagina di questa rubrica









Sul CdS del 19/11 è apparso un interessante art. a firma Simona Ravizza (nel data room di M Gabanelli), che fa il punto sullo stato delle maggiori piattaforme LLM di AI sulla base di studi recenti (2025) di Ocse, NewsGuard, Unesco, Mit di Boston e Swiss Business School di Zurigo.
Sul tema “creatività”, chiaramente fondamentale in ogni attività di ricerca, l’art. cita lo studio OCSE, che su questo punto afferma: “The reliance of LLMs on a probabilistic architecture and training data (i.e. previous human‑generated content) means they are unable to generate outputs substantially distinct from existing human knowledge. However, these outputs are often useful and occasionally novel, which means LLMs are typical level 2 systems.”