03 settembre 2006

Se non ce la fate a leggere tutto va bene lo stesso

Ultimamente mi sono trovato spesso a pensare riguardo la mente, il pensiero, l'intelligenza. Come al solito, nulla che possa essere definito rigoroso; anzi mi piacerebbe sapere se magari ho commesso qualche errore. A seguire, il frutto di cotanta elucubrazione.

Per cominiciare una di due pseudo-teorie: Il cervello è una macchina costruita/evoluta per il riconoscimento e l'attuazione di schemi. Più gli schemi sono ripetitivi e assodati, più la loro elaborazione è delegata a basso livello. Nel caso in cui si presenti invece un nuovo schema, o un disturbo rilevante ad uno schema conosciuto, le informazioni vengono passate ad alto livello, per il riconoscimento. La distinzione tra basso e alto livello, in termini soggettivi, si riflette nella quantità di attenzione necessaria a intepretare uno stimolo, o ad eseguire una azione. Esempio: imparare a leggere comporta un grande sforzo. All'inizio tutta l'attenzione è focalizzata sul riconoscimento delle singole lettere; una volta che questo processo è acquisito, diventa sempre più automatico e richiede sempre meno attenzione. Attenzione che si sposta sul riconoscimento delle sillabe. Una volta imparate le sillabe, si passa alle parole. Dalle parole alle frasi, dalle frasi ai testi. Dopo anni di questo tipo di esercitazioni (la scuola elementare), si può richiamare alla mente con la stessa facilità la forma della lettera 'a' e tutta la storia raccontata in Pinocchio. Imparando le lettere, non abbiamo fatto altro che memorizzare uno schema di segni grafici. Questo schema è sufficientemente a prova di errore, in quanto possiamo riconoscere la stessa lettera anche se scritta in un carattere od in una calligrafia diversa. Così, leggendo, non ci soffermiamo più sulle singole lettere, a meno che non incontriamo qualcosa che non assomiglia a nessuna delle lettere che conosciamo: allora abbiamo la capacità di rifocalizzare l'attenzione su una scala molto più piccola.

Ora, si tratta di un quadro molto approssimativo e non spiega come funzionino le cose in sostanza, ma come idea generale credo regga. C'è un libro di Jeff Hawkins, "On Intelligence", che spiega più in dettaglio un concetto simile aggiungendoci un elemento importante, ma ne parlerò dopo. Quello che voglio dire è che questo "modello" di funzionamento della mente sembra adatta a spiegare un fenomeno che mi è sembrato di rilevare nella gente: ovvero, che ci sono due tipi di approccio al mondo in generale, o alle arti in particolare, che appaiono antitetici: c'è una categoria di persone che sembra trovare piacere o sollievo quando incontra qualcosa che già conosce, mentre altre non sono soddisfatte finchè non ricevono stimoli nuovi. E' una caratteristica comportamentale che potrebbe essere di natura genetica o ambientale, chissà, magari frutto del ricevere una educazione in vece di un'altra. Fatto sta che c'è a chi piace leggere centinaia di libri gialli che raccontano tutti la stessa storia di omicidio, o 20 libri della saga di Harry potter, o vedere sempre lo stesso film d'amore o d'azione, o ascoltare sempre la stessa canzone pop, basata sempre sullo stesso giro di accordi, o ridere sempre alle stesse battute (tipo i tormentoni). Ad altri, invece, tutto ciò viene presto a noia ed hanno bisogno sempre di qualcosa di nuovo. Non voglio dare giudizio di merito rispetto ai due casi, evidentemente hanno ciascuno dei pro e contro. Solo è interessante capire da cosa è generata questa disparità: magari in un certo periodo della vita è stato rinforzato il legame tra il piacere e il riconoscimento di nuovi o vecchi schemi.

La seconda pseudo-teoria è più semplice, ma ha dei risvolti interessanti. Tempo fa mi è sovvenuta questa metafora: ci sono persone che sono come buchi neri. Sono quelle persone che incamerano dentro di se il maggior numero di nozioni, informazioni, notizie, letture, emozioni possibili, ma quello che producono è così poco o povero da poter essere considerato marginale. Come i buchi neri, catturano tutto quello che finisce nelle loro vicinanze e non lasciano scappare nulla. Io mi metto tra questi. Di contrario, c'è chi può essere considerato come un "buco bianco" o una supernova, per rimanere nell'ambito astrofisico: una categoria di individui che producono molto più di quello che incamerano. Costoro, da un minimo spunto, possono creare un mondo. Tra questi, metto la buona A. che, venutane a conoscenza, mi ha fatto notare che quello che mi sfugge di questa "scatola bianca" è la capacità di creare connessioni e collegamenti tra le idee. E non ci vuole che un minimo di statistica per confermare che la più semplice delle tecniche combinatorie permette di generare, per tot idee, un numero esponenziale di combinazioni o connessioni. Uhm, calza! Magari non tutte le combinazioni hanno un senso o sono utili, ma sapendole scegliere si possono appunto creare interi nuovi mondi di idee, di modi di pensare. Ed approfondendo il discorso, è saltato fuori (o è parso evidente a me) che la distinzione tra l'educazione scientifica e quella umanistica è appunto l'insegnamento su quali nuovi collegamenti siano da considerarsi validi e quali no. La matematica e la logica hanno regole rigorose per decidere se una sequenza di idee è accettabile o meno, un artista è invece spinto a produrre qualcosa di sempre diverso anche se non formalmente corretto. Ed è quando la capacità di creare nuove connessioni di un artista si incontra con la capacità di incanalare queste connessioni in strutture formali, che si ha il vero genio. Penso a Gauss, Newton, Turing, Maxwell, Von Neumann.

L'ultima speculatio riguarda la possibilità di creare una macchina che si possa definire intelligente: un marchingegno che sapesse passare il test di Turing, per capirci. Io lo ritengo possibile. C'è un libro di Rogen Penrose, "La mente nuova dell'imperatore", in cui 500 pagine di fisica sono usate per presumere che nel cervello accada qualcosa a livello sub-atomico di non replicabile in una macchina. Il fatto è che evidenze non ce ne sono, e se dobbiamo speculare, allora una teoria vale l'altra.
Ci sono tre progetti che, a riguardo, hanno catturato la mia attenzione: Google, OpenCyC e Numenta. Incominciamo dall'ultima. Numenta è la società fondata da Jeff Hawkins (vedi sopra), che sta sviluppando una applicazione di quella teoria del funzionamento del cervello. Le parti nuove e fondamentali di questa teoria sono la possibilità di "visualizzare" schemi sia nello spazio che nel tempo, e la capacità di fare previsioni. In parole povere, la si può immaginare come una struttura gerarchica di agenti intelligenti, in cui quelli in basso sono a contatto diretto con gli stimoli provenienti dall'esterno e man mano che si sale si formano schemi di schemi di schemi di schemi etc etc... Ogni singolo agente funziona in modo semplice: riceve informazioni dal basso, se in queste informazioni riconosce uno schema, comunica in basso una previsione sugli stimoli successivi e se la previsione è confermata, comunica lo schema al livello superiore. Dall'alto riceve previsioni più ad alto livello e il suo compito è confermarle o smentirle. Quando non riesce a riconoscere uno schema, passa le informazioni in questione al livello superiore, i quali si occuperano di generalizzarle in nuovi schemi. Sembra un po' contorto, ma considerando che gli schemi non sono che sequenze di stimoli, il risultato è che salendo la scala gerarchica vengono riconosciute sequenze di sequenze di sequenze etc etc. Per fare un esempio, se da un basso livello arriva questa sequenza: "occhio" "occhio" "naso", posso presumere che il prossimo elemento sarà "bocca", che completa lo schema "volto". Se appunto troverò "bocca", devo comunicare al piano superiore semplicemente di aver incontrato un "volto". Se per caso dovessi trovare un altro "naso", ci sarebbe qualcosa di strano: dovrei chiedere di sopra "cos'è che ha due occhi e due nasi?"

Se un sistema del genere è realizzabile, avremmo per le mani una macchina capace di operare generalizzazioni a più livelli, ed in grado di correggersi, o almeno rendere conto, se le proprie generalizzazioni sono errate, cioè non confermate dai fatti. Notevole, ma è solo il primo passo. La prima cosa di cui avrebbe bisogno questa macchina per iniziare ad imparare qualcosa del mondo circostante, è appunto un modo di percepire/vedere il mondo circostante. Qualcosa su cui operare ipotesi e verificarne la veridicità. Per fare questo oltre ai sensi, è necessario un modo per indirizzare e focalizzare i sensi. Qui entra in ballo Google. Google, Google Immagini, Google Video, Google Libri e Google Mappe, oltre a fornire l'esposizione ad una quantità pressochè infinita di dati, come i nostri sensi ci espongono a tutto l'ambiente circostante, permette anche, attraverso la ricerca, di selezionare quale parte di questi dati vogliamo prendere in considerazione: nello stesso modo in cui si può esaminare la punta di una matita e studiarne il funzionamento mentre si riesce ad obliare temporaneamente il resto della matita, la scrivania su cui poggia, la stanza in cui si trova la scrivania, l'appartamento in cui la stanza è situata e così via.

Più che notevole, ma non è ancora abbastanza. Ammesso che si possa ricreare la parte funzionale della mente e interfacciarla in modo produttivo col mondo circostante, manca ciò a cui ogni persona intelligente viene esposta fin dalla nascita al fine di renderla tale: L'educazione. Che se anche una mente è in grado di formulare ogni singolo pensiero formulato del passato, riformularli tutti è impossibile. S'è deciso dunque, tra menti intelligenti, di esporre ogni nuova mente ad una selezioni di idee (i nostri schemi di prima) affinchè li possa acquisire in modo automatico e con una certa facilità, e poi andare per la sua strada, fondata su solide basi. Dobbiamo dunque insegnare alla nostra mente artificiale ciò che insegneremmo ad ogni bambino: come ragionare, la logica, il linguaggio, il buon senso e così via. Molte di queste cose passano dai genitori/educatori ai figli/discenti per un processo di esposizione ed imitazione, processo su cui non possiamo fare affidamento, o che risulterebbe tedioso e poco pratico. OpenCyC potrebbe colmare questa lacuna. OpenCyc è un progetto che va avanti da più di 10 anni, che si è dato l'obiettivo di formare il più grande database di informazioni ragionate e di buon senso del mondo. In filosofia un sistema del genere è chiamato ontologia, cioè una specifica rappresentazione del mondo o di una sua parte. OpenCyC, che da poco è stato rilasciato al pubblico, utilizza un proprio linguaggio logico per rappresentare tutte quelle informazioni che diamo per scontate quando facciamo uso del linguaggio di tutti i giorni (natural language).

Numenta e la sua teoria del cervello, Google, OpenCyc: non so se qualcuno ci ha già pensato, ma la mia opinione è che dovrebbero lavorare insieme in questa direzione. Se un giorno l'uomo avrà a disposizioni macchine con capacità intellettive paragonabili alle sue, solo la fantascienza può prospettare quali scenari si troverà ad affrontare. Senza contare tutte le implicazioni filosofiche, etiche e religiose che si presenterebbero con la nascita di esseri intelligenti diversi da noi e prodotti da noi (magari migliori di noi?). Ma di queste cose si è parlato tanto, anche a sproposito: ciò che è veramente interessante è rispondere ad altre domande. Possiamo farlo? Se no, perchè? Se sì, come?


(((Una volta sono stato un sasso) ricordo di aver ricevuto un calcio) e mi girava la testa da sasso)

Nessun commento: