DeepMind è una società, con sede nel Regno Unito, che lavora su problemi di Intelligenza Artificiale e che è stata acquisita da Google nel 2014. Due anni dopo, è balzata agli onori della cronaca per aver creato un programma in grado di battere un giocatore umano nel gioco di Go, che è uno dei giochi più complessi utilizzati nella teoria dei giochi per sviluppare paradigmi di deep learning e intelligenza artificiale.
Ora, DeepMind ha sviluppato un’altra IA, chiamata AlphaTensor, che migliora di gran lunga l’efficienza computazionale degli algoritmi usati finora nell’operazione della moltiplicazioni di matrici. Si tratta di un risultato, pubblicato su Nature, che potrebbe portare notevoli progressi nella trattazione dei modelli previsionali meteorologici, del funzionamento interno di una rete neurale artificiale o nella definizione delle immagini.
L’approccio di DeepMind sfrutta una forma di apprendimento automatico chiamato ‘apprendimento per rinforzo’ in cui un “agente” di IA (spesso una rete neurale) impara a interagire con il suo ambiente per raggiungere un obiettivo a più fasi, come per esempio vincere un gioco da tavolo. Se funziona bene, l’agente viene rafforzato e i suoi parametri interni vengono aggiornati per rendere più probabile il successo futuro. AlphaTensor incorpora anche un metodo di gioco chiamato ricerca ad albero, in cui l’IA esplora i risultati delle possibilità di ramificazioni mentre pianifica la sua prossima azione. Nello scegliere a quali percorsi dare la priorità durante la ricerca ad albero, chiede a una rete neurale di prevedere le azioni più promettenti in ogni passaggio. Mentre l’agente sta ancora imparando, usa i risultati dei suoi giochi come feedback per affinare la rete neurale, che migliora ulteriormente la ricerca ad albero, fornendo più successi da cui imparare.
I ricercatori hanno testato il sistema su matrici di input fino a 5 × 5. In molti casi, AlphaTensor ha riscoperto scorciatoie che erano state escogitate in passato da altri matematici, ma in altri ha aperto nuovi orizzonti. Quando si moltiplica una matrice 4 × 5 per una matrice 5 × 5, per esempio, il miglior algoritmo precedente richiedeva 80 moltiplicazioni individuali. AlphaTensor ha scoperto un algoritmo che ne richiedeva solo 76.
Inoltre, gli scienziati hanno affrontato moltiplicazioni di matrici più grandi creando un meta-algoritmo che scompone l’operazione in problemi più piccoli: quando si incrociano una matrice 11 × 12 e una 12 × 12, per esempio, il loro metodo ha ridotto il numero di moltiplicazioni richieste da 1.022 a 990.
L’approccio generale potrebbe avere applicazioni in altri tipi di operazioni matematiche, come nel caso della scomposizione di onde complesse o la riduzione di altri oggetti matematici in oggetti più semplici.