Pin It

Gli sviluppi attuali dell’intelligenza artificiale ci portano a dover rispondere a domande complesse, come per esempio che cosa sia l’intelligenza. In questo articolo Patrizio Frosini ci presenta un possibile inizio di risposta a questo problema.
.

“Bene, il cammino dei paradossi è il cammino della verità.
Per saggiare la realtà bisogna vederla sulla corda tesa.

Quando le verità divengono acrobati, solo allora possiamo giudicarle.”
Oscar Wilde – Il ritratto di Dorian Gray

Se c’è una cosa che i matematici non sopportano, è la contraddizione. Risulta più intollerabile dell’errore, che possiamo sempre sperare di scoprire e correggere. Ben più molesta dell’irrilevanza scientifica, che si può arginare semplicemente rivolgendosi verso idee nuove e interessanti. No, non c’è via di compromesso: la contraddizione è proprio inammissibile. Sovverte la linea retta delle idee ordinate e ben poste, spingendo le teorie sul margine di un caos che non può essere accettato. Riduce al nulla la sequenza delle deduzioni corrette e l’architettura delle conseguenze giustificate, sostituendole con un’altalena fra la banalità del dare ascolto a tutte le possibili asserzioni e la negazione di qualunque solida base conoscitiva di riferimento. Potremmo dunque finirla subito qui e ricacciare via senza incertezze l’idea pericolosa che anche le contraddizioni abbiano un loro posto nel mondo della conoscenza.

Il problema è che delle contraddizioni non si può fare a meno. Permeano, in modo stabile, ogni ambito dell’esistenza individuale e sociale. Per vederlo con chiarezza, lasciando da parte gli esempi che viviamo quotidianamente nell’osservazione di comportamenti incoerenti e contraddittori, basterebbe seguire un matematico al lavoro, mentre discute con qualche collega di fronte a una lavagna scarabocchiata. Quello che alla fine diventerà un teorema (sperabilmente) preciso e inattaccabile nasce di solito come un groviglio di pensieri frammentati e idee che confliggono l’una con l’altra, accennate in rapida successione e con un frequente cambiamento di tesi e opinioni. Caos puro, che verrà poi celato con cura sotto pagine di definizioni e prove formali. Forse è proprio questo disordine che vorremmo escludere dalla scienza, impedendogli di condizionare l’unico ambito apparentemente libero dai conflitti fastidiosi così diffusi nella vita ordinaria.

La domanda centrale diviene allora questa: è possibile farlo?

La letteratura sul tema della contraddizione è molto vasta a partire dagli scritti dei filosofi greci, ma se vogliamo limitarci al settore matematico non possiamo fare a meno di ricordare come Gödel, Church, Kleene, Rosser e Turing ci abbiano mostrato quanto sia debole un approccio ingenuo al concetto di “verità”. Dalle loro ricerche in poi non si contano gli sforzi per conciliare il concetto di contraddizione con i modelli logici formali. Un esempio fra i tanti è dato dalle logiche paraconsistenti, nelle quali si fa in modo che una contraddizione non implichi tutte le affermazioni possibili. E come dimenticare gli studi all’incrocio fra la matematica e la filosofia del russo Pavel Florenskij[1 ]Pavel Aleksandrovič Florenskij, La colonna e il fondamento della Verità, Rusconi, 1974, o i contributi epistemologici dati da Graham Priest[2 ]Graham Priest, In contradiction – A study of the transconsistent, Oxford University Press, 2006 e Gian-Carlo Rota[3 ]Gian-Carlo Rota, Indiscrete thoughts, Birkhäuser, 1997? Chi vuole saperne di più sullo studio del rapporto fra coerenza e antinomia in matematica potrà trovare qualche riferimento utile in conclusione dell’articolo.

Di tutto ciò potremmo parlare a lungo ma non è quanto voglio fare qui e ora. Un’esplorazione di questo tipo finirebbe per diventare un viaggio vicino alla filosofia e piuttosto lontano dallo spirito di chi si interessa di scienze esatte. Quindi procederò diversamente, mostrando come un approccio matematico di tipo operatoriale possa dare contributi interessanti in rapporto al tema della contraddizione. Cercherò di farlo nel modo più semplice possibile, senza perdermi in dettagli tecnici che il lettore interessato potrà comunque trovare altrove.

Cosa si intende in questo contesto per “approccio operatoriale”? Si tratta di partire dall’assunto che le informazioni offerte dalla realtà siano accessibili soltanto attraverso un’elaborazione fatta da osservatori. Tali osservatori possono usualmente essere visti come operatori matematici, qui genericamente intesi nel senso di “procedure formali per la trasformazione dei dati”.

Per capire cosa intendo, immaginate un “mondo” rappresentato da un automa cellulare come il Gioco della vita inventato da John Conway alla fine degli anni sessanta. Al di là dei tecnicismi, si tratta di suddividere il piano reale in celle pensandolo come una scacchiera infinita e di colorarne alcune di nero lasciando bianche le rimanenti. Partendo dalla configurazione iniziale, a intervalli prefissati, la scacchiera aggiorna il suo stato secondo questa legge: se una cella nera è adiacente a due o tre celle nere rimane nera, altrimenti diventa bianca; se una cella bianca è adiacente a esattamente tre celle nere diventa nera, altrimenti rimane bianca.

Seguendo questa legge evolutiva lo stato dell’automa cellulare cambia nel tempo: si tratta di un sistema dinamico. Ogni stato può essere descritto da una funzione dall’insieme delle celle in cui è suddiviso il piano nell’insieme contenente i numeri 0 e 1 (in rappresentanza dei colori bianco e nero). Si badi bene: nonostante il nome usato sia “Gioco della vita”, non si tratta affatto di un “gioco”: è stato dimostrato che il sistema dinamico che l’automa cellulare rappresenta può realizzare ogni possibile macchina di Turing e quindi (potenzialmente) emulare ogni possibile calcolatore (nel senso usuale del termine).

Immaginate ora un osservatore F che esamini gli stati dell’automa cellulare alla ricerca di particolari strutture di suo interesse (per esempio i cosiddetti “alianti” rappresentati in rosso nella figura 1)

Per raggiungere lo scopo potrebbe trasformare la funzione \(f\), che vale 1 in tutte le celle “occupate” e 0 in quelle “vuote”, nella funzione \(g=F(f)\) che vale 1 in tutte le celle appartenenti a un aliante (in blu nella figura 2) e 0 nelle altre.

In questo modo l’operatore funzionale \(F\) “vedrebbe” (all’interno del mondo rappresentato dall’automa cellulare scelto) l’entità aliante nelle posizioni individuate dalla funzione \(F(f)\).

Un’altra scelta utile (e molto più economica) potrebbe essere quella di definire \(F(f)\) come la parola “Sì” nel caso \(f\) rappresenti uno stato contenente un aliante e “NO” in caso contrario. Ovviamente si possono immaginare anche operatori più complessi, dotati di capacità analitiche molto più significative.

Osserviamo ora informalmente che, dati un automa cellulare e un osservatore, possono essere definiti e quantificati i concetti di entità, intelligenza di un’entità (vista come capacità di sopravvivere nell’ambiente preso in esame) e contraddizione. Quest’ultimo concetto può essere formalizzato come la sussistenza di comportamenti diversi in presenza delle stesse condizioni dell’entità e dell’ambiente in rapporto alle percezioni dell’osservatore \(F\) che stiamo considerando. Se volete un esempio informale, pensate a una stessa persona che in tempi diversi (ma in assenza di cambiamenti ambientali percepibili) risponda in maniera differente alla domanda “Come ti chiami?”

Qui viene il fatto interessante. Si può dimostrare questa proposizione (che traduco per semplicità in linguaggio ordinario):

Ogni entità sufficientemente intelligente in rapporto alle capacità dell’osservatore prescelto risulta essere contraddittoria secondo il giudizio del medesimo osservatore

Questo è il nocciolo della questione, ma se vogliamo capire di più dobbiamo affrontare il problema in termini più precisi. Veniamo dunque alle definizioni formali.

Fissati un automa cellulare \(C\) e l’insieme \(\Sigma\) degli stati che \(C\) può assumere nel tempo, possiamo definire il concetto di osservatoredi una entità E (il simbolo ■ usato ricorda volutamente una “black box”, cioè una struttura dal funzionamento interno potenzialmente ignoto). Indicheremo rispettivamente con i simboli \(P_{ent}\) e \(P_{ENV}\) gli insiemi degli stati dell’entità e dell’ambiente che sono percepibili da parte dell’osservatore. Questi due insiemi possono contenere di tutto: vettori, formule, proprietà e tutto quanto si ritiene opportuno usare per descrivere, sulla base delle capacità percettive dell’osservatore, le condizioni in cui si trovano l’entità e l’ambiente. Nel mondo reale gli osservatori non hanno mai capacità illimitate e dunque sarà opportuno assumere che \(P_{ent}\) e \(P_{ENV}\)  siano finiti. Dato che l’entità di interesse per l’osservatore può essere assente dalla scena esaminata, sarà anche opportuno assumere che \(P_{ent}\) contenga un simbolo particolare 0, utile a indicare tale assenza.

Definizione 1. Un osservatore è una funzione ■:\(\Sigma \to P_{ent} \times P_{ENV}\) .

In altre parole, un osservatore è definito come un operatore che associa a ogni stato \(s\) dell’automa cellulare uno stato \(ps_{ent}(s) \in P_{ent}\) per l’entità e uno stato \(ps_{ENV}(s) \in P_{ENV} \) per l’ambiente. Tali valori rappresentano il giudizio espresso dall’osservatore in rapporto alla realtà che percepisce.

Per esempio, se ci interessano gli alianti nel Gioco della vita di Conway potremmo fissare \(P_{ent}\) uguale all’insieme delle locazioni della griglia finita di celle che possono essere viste come posizioni dell’aliante e \(P_{ENV}\) come un insieme di descrizioni verbali ammissibili che dicano quali altre strutture risultino individuabili nell’automa cellulare considerato. Potremmo inoltre definire \(ps_{ent}(s)\) come la posizione che l’aliante ha sotto l’ipotesi che il Gioco della vita sia nello stato \(s\) (o il simbolo 0 se non è presente alcun aliante) e \(ps_{ENV}(s) \) come l’espressione verbale che descrive l’ambiente in cui è collocato l’aliante quando l’automa cellulare si trova nello stato \( s\).

Possiamo ora dire cosa sono un’entità e l’ambiente nel nostro modello. Nel seguito indicheremo col simbolo \(s_t\) lo stato dell’automa cellulare al tempo t.

Definizione 2. Un’entità è una sequenza ordinata massimale \(E=(ps_{ent} (s_t),…, ps_{ent} (s_{t+q})) \) dove nessuno dei termini sia 0.

Definizione 3. L’ambiente di un’entità \(E=(ps_{ent} (s_t),…, ps_{ent} (s_{t+q})) \) è la sequenza \(A(E)=(ps_{ENV}(s_t),…, ps_{ENV}(s_{t+q}))\).

Dunque un’entità E è qui vista come una sequenza massimale di osservazioni non banali fatte dall’osservatore che è deputato a esaminarla, mentre l’ambiente di E è la sequenza delle valutazioni dell’ambiente fatte dallo stesso osservatore durante la vita di E. Si badi bene: in queste definizioni tutto dipende dall’osservatore prescelto. Cambiando l’osservatore cambia totalmente il panorama di ciò che viene percepito.

L’intelligenza di una entità viene spesso vista come la sua capacità di adattarsi all’ambiente e, dunque, di “sopravvivere” nell’ambiente in cui si trova. Coerentemente con questo approccio, diamo la seguente definizione.

Definizione 4. L’intelligenza di una entità \(E=(ps_{ent} (s_t),…, ps_{ent} (s_{t+q})) \) è il valore \(q\).

Una critica del tutto spontanea e naturale alla precedente definizione può essere la seguente: non esiste nessuna correlazione fra la durata della vita di un organismo biologico e la sua intelligenza. Una sequoia vive molto più a lungo di un uomo ma non è certamente più intelligente di un uomo. Questa critica nasce da un fraintendimento sul setting preso in esame. Il valore \(q\) considerato nella Definizione 4 non si riferisce alla durata della vita biologica ma alla durata dell’esistenza nel modello che più ci interessa. Se vogliamo quantificare le doti intellettive di una scacchista non misuriamo certo il suo stato di salute biologico ma la sua capacità di “sopravvivere” nelle partite che affronta giocando. Non è irragionevole valutare l’intelligenza di una scacchista contando quanto a lungo rimanga in gara in un torneo a eliminazione.

Veniamo ora al concetto di contraddittorietà.

Definizione 5. Un’entità \(E=(ps_{ent} (s_t),…, ps_{ent} (s_{t+q})) \) viene detta contraddittoria se esistono due tempi diversi a e b nell’insieme {t,…,t+q} per i quali si abbia ■(\(s_a\))= ■(\(s_b\)) ma \(ps_{ent} (s_{a+1})\neq ps_{ent} (s_{b+1})\).

In altri termini, un’entità risulta contraddittoria se in tempi diversi reagisce diversamente alle stesse condizioni sue e dell’ambiente, secondo il giudizio dell’osservatore.

Aggiungiamo ora l’ipotesi che l’ambiente evolva in modo deterministico agli occhi dell’osservatore, cioè che valga la proprietà espressa dalla seguente definizione.

Definizione 6. Sia \(E=(ps_{ent} (s_t),…, ps_{ent} (s_{t+q})) \) un’entità. Allora l’ambiente A(E) viene detto deterministico se per ogni \(a,b\in\){t,…,t+q} si ha che ■(\(s_a\))= ■(\(s_b\)) implica \(ps_{ENV} (s_{a+1})= ps_{ENV} (s_{b+1})\).

In questo modello è facile dimostrare il seguente enunciato.

Proposizione. Ogni entità di intelligenza finita maggiore del prodotto delle cardinalità di \( P_{ent}\) e \(P_{ENV}\) è necessariamente contraddittoria, posto che l’ambiente considerato sia deterministico.

Ovviamente, l’affermazione è relativa all’osservatore prescelto: ciò che appare contraddittorio a un osservatore può apparire del tutto coerente a un osservatore che sia dotato di più estese capacità.

Per la prova della proposizione citata (e per i molti dettagli relativi al modello che stiamo considerando) rimandiamo il lettore interessato a questo mio articolo[4 ]P. Frosini, Does intelligence imply contradiction?, Cognitive Systems Research, vol. 10 (2009), n. 4, 297-315 (per il preprint: https://arxiv.org/pdf/0801.0232.pdf). Chi non abbia comprensibilmente voglia di perder tempo nei particolari potrà comunque trovare qualche utile informazione aggiuntiva in questo seminario video di qualche tempo fa

e anche nella bella presentazione realizzata da Mattia G. Bergomi a questo link.

Credo sia utile esprimere la precedente proposizione anche in un modo diverso (e di maggiore impatto nella ricerca riguardante l’intelligenza artificiale): “Il comportamento di ogni entità sufficientemente intelligente è impredicibile” (s’intende, una volta fissato l’osservatore).

Detto in altri termini: se vogliamo che il comportamento di una rete neurale sia trasparente, dobbiamo limitarne le capacità. Questo è quanto suggerisce il modello matematico proposto. Mi fermo qui, anche se ci sarebbe molto altro da dire. Potremmo ad esempio esplorare ulteriormente l’approccio operatoriale e vedere quali altre interessanti conseguenze abbia nell’ambito dell’analisi topologica dei dati e nel deep learning (attraverso il concetto di operatore equivariante non espansivo) ma aggiungere ulteriori dettagli entrerebbe in contraddizione con la mia scelta di rendere questo breve testo facilmente comprensibile. Non mi sento, ahimè, abbastanza intelligente per farlo.

Patrizio Frosini

Roberto Natalini [coordinatore del sito], è dirigente di ricerca del CNR, e lavora a Roma presso l’Istituto per le Applicazioni del Calcolo “Mauro Picone”. I suoi principali interessi scientifici riguardano lo studio analitico e numerico delle equazioni alle derivate parziali (in particolare quelle iperboliche e paraboliche) e le loro applicazioni che comprendono, tra le altre, la biologia, la conservazione dei monumenti, il traffico e la gasdinamica.

Twitter Google+ 

Pin It

Note e riferimenti

Note e riferimenti
1 Pavel Aleksandrovič Florenskij, La colonna e il fondamento della Verità, Rusconi, 1974
2 Graham Priest, In contradiction – A study of the transconsistent, Oxford University Press, 2006
3 Gian-Carlo Rota, Indiscrete thoughts, Birkhäuser, 1997
4 P. Frosini, Does intelligence imply contradiction?, Cognitive Systems Research, vol. 10 (2009), n. 4, 297-315 (per il preprint: https://arxiv.org/pdf/0801.0232.pdf)
This website uses the awesome plugin.