Abbiamo incontrato Alfio Quarteroni, che è stato recentemente insignito dalla SIAM (Society for Industrial and Applied Mathematics) del SIAM 2025 Ralph E. Kleinman Prize per i “suoi eccezionali contributi alla modellistica matematica, al calcolo scientifico, alla fluidodinamica computazionale e al machine learning”. Proprio di Machine Learning abbiamo parlato con lui, prendendo spunto dal suo recente lavoro apparso su ArXiv (l’archivio online della Cornell University su cui gli scienziati di tutto il mondo pubblicano i preprint dei loro lavori) che si occupa del cosiddetto Scientific Machine Learning.
Caro Alfio, bentornato su MaddMaths!. Hai recentemente pubblicato, insieme ai tuoi colleghi Paola Gervasio e Francesco Regazzoni, un corposo lavoro in cui proponete una sistematizzazione di quello che in gergo viene chiamato Scientific Machine Learning. Ci spieghi di che cosa si tratta?
La scienza che abbiamo vissuto fino alla fine del secolo scorso seguiva la traccia data dai grandi scienziati del passato (Galileo, Newton, …), in cui si formulavano teorie che poi venivano validate o confutate attraverso la sperimentazione. A partire dal secolo scorso si è iniziato anche a simulare i fenomeni attraverso i modelli numerici. Fino a pochissimo tempo fa, la teoria, la sperimentazione e la simulazione numerica rappresentavano i tre pilastri fondamentali su cui si fondava il calcolo scientifico. L’intelligenza artificiale, concetto nato ormai 70 fa, ma emerso in modo esplosivo solo negli ultimi anni, sovverte completamente il paradigma e mette al centro i dati. Con dati sufficientemente ricchi e sufficientemente significativi si può simulare completamente un qualunque processo prescindendo dalla sua comprensione teorica, grazie agli algoritmi di Machine Learning. È questa, quantomeno, la tesi (o, forse, la provocazione) di Chris Anderson nel suo saggio “The End of Theory” (ne abbiamo parlato anche su MaddMaths!, ndr). In realtà, non è proprio così. Tuttavia, se combiniamo gli algoritmi dell’intelligenza artificiale con quelli del calcolo scientifico possiamo dare origine ad una nuova scienza, quella del Scientific Machine Learning, appunto, in cui gli algoritmi dell’intelligenza artificiale rappresentano il quarto pilastro accanto ai tre precedentemente evocati: la teoria, la sperimentazione, la simulazione numerica.
Nel vostro lavoro, avete descritto una nuova classe di metodi che integra modelli fisici con strumenti di Machine Learning e che sta acquisendo un ruolo fondamentale nella ricerca scientifica, in particolare in problemi di elevata complessità in cui gli approcci numerici classici incontrano delle limitazioni. Qual è il segreto di questo successo?
Pensare a questi due approcci, quello del calcolo scientifico tradizionale e quello del Machine Learning, come alternativi uno all’altro, come viene ancora fatto in diversi ambiti, è molto limitante. Il segreto del successo sta nella loro integrazione. Approcci basati puramente sui dati sono sostanzialmente ciechi rispetto al problema in esame. Si parla di algoritmi black box perché sono scatole nere che ingeriscono dati e producono soluzioni, ma è sostanzialmente impossibile capire come questa soluzione sia ottenuta. D’altro canto, i modelli tradizionali in tante situazioni funzionano molto bene, in particolare quando si conosce un buon modello matematico (spesso basato su equazioni differenziali alle derivate parziali) che governa il fenomeno in esame e quando sono noti i dati del problema, ovvero le condizioni iniziali e al contorno, nonché i valori dei parametri che entrano nel modello. Tuttavia, ci sono situazioni in cui questi dati non sono noti, o lo sono in modo parziale, e altre situazioni in cui non si ha proprio a disposizione un modello matematico che descrive il fenomeno. In entrambi questi casi, i modelli di Machine Learning possono essere integrati con successo in modelli tradizionali per surrogare i dati mancanti, attraverso un processo di apprendimento basato questa volta su dati che possono essere misurati, oppure in altre situazioni per “apprendere” il modello matematico che governa il processo fisico in esame. Un altro modo in cui gli algoritmi di machine learning possono essere utilizzati è nella generazione di modelli ridotti, che permettono di abbassare in modo sostanziale il costo computazionale che, in certi casi, rende impraticabile la soluzione con modelli tradizionali.
Un esempio paradigmatico di problema molto complesso è la modellistica completa del cuore umano, che tu e il tuo gruppo di ricerca avete affrontato nel progetto iHeart (l’abbiamo raccontato su MaddMaths! con il podcast Il cuore matematico). Che ruolo ha giocato lo Scientific Machine Learning in quel progetto?
Il modello di cuore umano è particolarmente complesso perché integra processi fisici molto differenti. Noi viviamo perché il nostro cuore batte continuamente grazie al fatto che, più o meno una volta al secondo, si genera un impulso elettrico che si propaga a tutte le cellule del nostro cuore. Questo segnale elettrico, attraverso processi elettrochimici, attiva un processo meccanico generando nei cardiomiociti delle forze attive che sono alla base della deformazione cardiaca, ovvero delle dilatazioni e contrazioni che caratterizzano il battito del cuore. Questa deformazione meccanica a sua volta innesca un processo fluidodinamico che, attraverso il moto coordinato dei due atri e dei due ventricoli e delle 4 valvole che ne controllano il flusso, alimenta sia la circolazione polmonare che quella sistemica che raggiunge tutto l’organismo. Ciascuno di questi processi può essere descritto e risolto da modelli tradizionali basati su equazioni differenziali. Tuttavia, il numero di variabili necessarie per catturare accuratamente, in spazio e in tempo, la dinamica del sistema è enorme. Per dare un’idea, simulare il processo completo durante un singolo battito cardiaco richiede 600-700 miliardi di variabili e la simulazione può durare 4-5 ore su oltre 1000 core di calcolo del più potente supercalcolatore disponibile al CINECA (il centro di calcolo nazionale con sede a Casalecchio di Reno, ndr). Gli algoritmi di Machine Learning, attraverso la generazione di modelli surrogati, hanno consentito di ridurre il costo computazionale di alcuni dei modelli coinvolti anche di diversi ordini di grandezza, con l’obiettivo di arrivare presto a soluzioni in real-time. Strumenti di machine learning, in particolare quelli noti come Physics Informed Neural Network (PINN) e sue generalizzazioni, sono stati utilizzati con un duplice scopo. Anzitutto per generare i modelli elettrochimici a scala cellulare che descrivono la dinamica degli ioni attraverso i canali ionici della membrana cellulare. Quindi, partendo dai dati disponibili, per trovare le leggi costitutive che governano la forza attiva nei cardiomiociti. Questi modelli di tipo PINN sono un esempio paradigmatico di integrazione tra calcolo scientifico e Machine Learning: in questo caso, il funzionale che viene minimizzato nell’addestramento della rete neurale non cerca solo di minimizzare lo scarto con i dati disponibili ma anche il residuo delle equazioni che costituiscono il modello matematico. In questo modo si riescono a costruire reti neurali che sono appunto “informate” dalla fisica, dando vita ad un risultato più interpretabile e meno black box.
In alcuni ambiti, pensiamo per esempio al riconoscimento di immagini, gli strumenti di Machine Learning sono utilizzati con successo da diversi anni e a lungo si è detto “funzionano bene ma non sappiamo esattamente perché”. Ora ne sappiamo un po’ di più. Che ruolo hanno giocato i matematici nella comprensione dei meccanismi che regolano il loro funzionamento ?
Negli ultimi anni molti matematici di tutto il mondo sono stati coinvolti nella ricerca in questo ambito e hanno sicuramente contribuito molto ad aumentare la comprensione a livello generale del funzionamento di questi strumenti. Abbiamo detto che un modello di Machine Learning è tipicamente classificato come black box perché non è trasparente: non si capisce come ha generato un risultato, quali tra tutti i dati che gli sono stati forniti abbia effettivamente utilizzato e perché abbia utilizzato proprio quelli. “Come”, “quali” e “perché” sono i tre interrogativi che stanno che stanno alla base della cosiddetta explainability del Machine Learning (ovvero la sua spiegabilità). L’integrazione dei modelli di Machine Learning con modelli tradizionali, nell’ambito dello Scientific Machine Learning, può dare un enorme contributo nel rispondere a queste domande. Inoltre, grazie anche al lavoro di molti matematici si è iniziato a capire come, per esempio, la qualità della soluzione dipenda dagli iper-parametri che definiscono la struttura di una rete neurale, ovvero il numero di livelli in una rete deep (profonda) e il numero di neuroni che costituiscono ciascun livello. È solo da pochi anni che si sono dimostrati i primi teoremi di convergenza e di analisi a priori degli errori di approssimazione per le reti neurali. Grazie a questi progressi teorici è possibile aumentare la comprensione su come funzionano questi strumenti e, in definitiva, contribuire al loro miglioramento.
Per concludere, siamo sicuramente di fronte ad una rivoluzione che sta cambiando sia il modo in cui la modellistica matematica e numerica affronta i problemi, sia lo spettro dei problemi che possono essere affrontati. Quali sono, secondo te, le sfide più ambiziose che questa nuova classe di metodi permetterà nei prossimi 10 anni di affrontare (e sperabilmente) risolvere ?
Ci sono tanti problemi per i quali mancano modelli consolidati e affidabili; pensiamo per esempio a tanti fenomeni sociali ed economici, per i quali, viceversa, abbiamo a disposizione una quantità straordinaria di dati facilmente accessibili. Questa è una enorme prateria ancora poco esplorata nella quale i modelli di Machine Learning possono giocare un ruolo fondamentale nel costruire strumenti descrittivi e predittivi. Un’altra grandissima sfida che si potrà affrontare è quella della complessità computazionale: problemi che in questo momento, nonostante gli enormi progressi fatti a livello hardware dai sistemi di High Performance Computing (HPC), rimangono ancora inaffrontabili a causa del loro costo computazionale, potranno essere risolti grazie alla capacità di alcuni strumenti di Machine Learning di costruire modelli ridotti grazie alla loro capacità di apprendere lo spazio latente di dimensione ridotta dentro cui studiare la dinamica del problema. Ciò apre prospettive straordinarie in particolare nella realizzazione dei cosiddetti Digital Twin, ovvero dei gemelli digitali di sistemi fisici complessi che, attraverso un dialogo in tempo reale tra il sistema fisico e la sua rappresentazione matematica, ne consentono di monitorare, controllare e prevedere il comportamento. Questi sono solo alcuni esempi in cui effettivamente si stanno aprendo nuove prospettive e sicuramente ce ne saranno tantissimi altri che oggi non possiamo nemmeno immaginare.