Viviamo nell’epoca delle macchine che imparano, ossia quello che siamo abituati a chiamare il Machine Learning. L’evoluzione dei computer ha cambiato le nostre vite, ma la necessità di affrontare problemi sempre più complessi ha sollevato l’esigenza di scrivere algoritmi efficienti e robusti in grado di risolvere problemi con accuratezza. A partire dagli anni ottanta poi ci si è posti un nuovo obiettivo: sviluppare macchine capaci di autoapprendimento. In campo medico, ad esempio, si può pensare ad una macchina in grado di riconoscere autonomamente lesioni tumorali “molto piccole” a partire da una risonanza magnetica, senza bisogno di complicate letture esterne. Questa è diventata una delle direzioni di punta su cui si muove l’Intelligenza Artificiale.
Il matematico ed informatico inglese Leslie Gabriel Valiant è uno dei primi ad occuparsi della formalizzazione matematica del Machine Learning. Nel 1984 presenta l’approccio Probably approximately correct learning (PAC, in breve) nell’articolo “A Theory of Learnable”. Usando la probabilità, definisce uno dei più utilizzati schemi per sviluppare macchine capaci di autoapprendimento.
Valiant prende ad esempio i bambini. Dopo aver visto diverse sedie e mele, i bambini sono in grado di riconoscerne nuovi esempi. Più mele e sedie vedono, meglio ne riconoscono in futuro. Inoltre, bambini diversi concordano su cosa sia una mela e cosa una sedia. Anzi, dopo questa fase di apprendimento un bambino è in grado di riconoscere una mela da una scatola piena di palle, sebbene abbiano tutte forma tonda e siano dello stesso colore.
Analogamente funziona il meccanismo PAC. L’obiettivo è sviluppare un algoritmo capace di fare predizioni quanto più “corrette possibili”. Matematicamente, a partire da un “grande” insieme di dati si vuole sviluppare una funzione h che faccia predizione e che sia quanto più “vicina” possibile alla “vera funzione” f, ignota, ma che supponiamo esista, che descrive quel fenomeno. Una distribuzione di probabilità, opportunamente scelta rispetto al problema, misura l’errore con cui la predizione della funzione h approssima quella della funzione f. Sotto una certa soglia, indicata come generalization error, la predizione della funzione h è ritenuta affidabile.
Come i bambini con mele e sedie, così la macchina necessita di tanti esempi da cui apprendere. Nell’esempio medico precedente, usando un gran numero di risonanze magnetiche di persone con o senza lesioni tumorali, si migliora la predizione fornita dalla funzione h, rendendola probabilisticamente più vicina alla vera funzione f, che è pur sempre sconosciuta. In questo caso la macchina analizza la forma e delle dimensioni delle supposte lesioni e ne predice la natura, sulla base dell’esperienza fatta su immagini precedentemente collezionate.
Luiz Chamon e Alejandro Ribeiro, dell’Università della Pennsylvania, applicano una versione raffinata del PAC ad un problema socio-economico, nell’articolo “Probably Approximately Correct Constrained Learning”. Nello specifico, sviluppano un algoritmo di Machine Learning capace di prevedere se un individuo guadagni più di 50.000$, indipendentemente dal sesso. I dati in ingresso sono: età, istruzione, stato civile, paese d’origine e numero di ore di lavoro a settimana. Sperimentalmente, il loro algoritmo ha un’efficacia del 93,5%.
Tra la pandemia e le sfide ambientali, l’Intelligenza Artificiale ed il Machine Learning rappresentano una grande occasione per il futuro.