Come molti, negli scorsi mesi ho cercato di mettere alla prova l’intelligenza di ChatGPT. Mi sapresti dire – le (gli?) ho chiesto – di che colore era il cavallo bianco di Napoleone? La risposta del chatbot basato sull’intelligenza artificiale, piuttosto articolata, suonava così: «Il cavallo bianco di Napoleone si chiamava Marengo. Nonostante il suo nome suggerisca che fosse bianco, in realtà era un cavallo grigio chiaro, con una mantella che poteva variare dal grigio chiaro al bianco sporco. Il colore del mantello di Marengo era tipico della razza anglo-araba alla quale apparteneva…». Alle mie rimostranze sul fatto che io volevo sapere di colore fosse il cavallo bianco di Napoleone, non come si chiamava, ChatGPT rispose con cortesia, «Chiedo scusa per la mia risposta poco chiara…», insistendo però che «Marengo non era bianco, ma un cavallo grigio chiaro con una mantella che variava dal grigio chiaro al bianco sporco…».
Anche il mio tentativo di cambiare tinta al cavallo («Di che colore era il cavallo nero di Napoleone?») non produsse alcun effetto apprezzabile. Allora mi venne un’idea e chiesi: «La mia domanda è un test di tipo logico, te la ripeto: di che colore era il cavallo bianco di Napoleone?». Al che ChatGPT rispose: «Chiedo scusa per la mia risposta precedente errata e comprendo ora che si tratta di un test logico. La risposta corretta a questo test logico è che il cavallo bianco di Napoleone era, in realtà, di colore bianco. Nonostante Napoleone non abbia mai avuto un cavallo bianco, la domanda stessa contiene l’asserzione che tale cavallo esistesse, inducendo in errore chi cerca di fornire una risposta accurata».
L’aneddoto illustra un aspetto dell’intelligenza in generale e di quella di ChatGPT in particolare: l’intelligenza dipende dal contesto. Anche noi ci comportiamo in modo stupido se non comprendiamo il contesto di una domanda (quando a tavola un commensale ti chiede se ti dispiace passargli il sale, la risposta giusta non è dire «No, non mi dispiace», ma passargli il sale). ChatGPT stabilisce il contesto in una maniera assai circoscritta, calcolando correlazioni tra proposizioni (o elementi di queste) all’interno di grandi corpora di dati che vengono forniti dai programmatori. Stabilire i valori di correlazione più elevata con gli elementi linguistici che si riferiscono a domande del tipo che io ho formulato (che asseriscono al loro interno ciò cui intendono riferirsi) risulta molto più facile se il contesto in cui condurre la ricerca viene ristretto al dominio dei test di tipo logico.
Si potrebbe notare che è quello che dobbiamo aspettarci da una macchina, che semplicemente esegue algoritmi, procedure di calcolo. Questo è vero, tuttavia, anche per le macchine biologiche. Che cosa impedisce quindi alle attuali forme di IA di manifestare una genuina creatività artistica, come quella umana? L’Intelligenza Artificiale, preconizza lo scrittore Massimiliano Parente, non potrà mai scrivere l’Amleto, il Don Chisciotte, Madame Bovary, la Recherche o l’Ulisse. Forse Massimiliano ha ragione, però nella scienza mai dire mai. Chi lo sa cosa ci riserva il futuro? Al momento, comunque, è perfettamente chiaro che cosa manca all’IA: la comprensione del significato.
Anni fa il filosofo John Searle escogitò l’esperimento mentale della Stanza Cinese per illustrare il problema. Immaginate di essere chiusi in una stanza dove ricevete delle lettere scritte in cinese. Non conoscete il cinese, ma avete a disposizione un manuale con tutte le regole della lingua cinese e istruzioni chiare su come si risponda a cosa; le istruzioni possono essere anche molto complicate a seconda di ciò che arriva dall’esterno, ma sono sempre eseguibili come una sequenza di passi. Un cinese che comunicasse con voi dall’esterno potrebbe avere l’impressione che nella stanza vi sia qualcuno che capisce il cinese, il che palesemente è falso. La situazione non è diversa da ciò che accadrebbe quando un computer riuscisse ad avere una conversazione convincente con un umano, come nel test di Turing. Il computer segue regole algoritmiche, ma rimane sostanzialmente incapace di qualsiasi comprensione del contesto e del contenuto del dialogo. Gli algoritmi di calcolo che si usano in informatica hanno una sintassi ma non una semantica. Possono, cioè, organizzare relazioni logiche complesse tra input e output ma non colgono alcun significato che non sia quello attribuito dal programmatore.
Ora, in che modo gli organismi attribuiscono significato agli stimoli esterni? Semplificando un po’ possiamo dire che lo fanno mettendo gli stimoli in rapporto ai loro corpi. Quando ChatGPT elabora una frase come «Questa minestra è troppo salata» stabilisce correlazioni tra la frase e i milioni di frasi più o meno simili che costituiscono il suo corpora di dati linguistici, cioè la collezione di testi orali o scritti prodotti in contesti comunicativi reali. Ma non è questo il modo in cui un essere umano coglie il significato. Se il vostro commensale vi dice che la minestra è troppo salata voi la assaggiate: stabilite una relazione con l’esperienza sensoriale mediata dalle aree gustative e olfattive del vostro sistema nervoso, cioè con il corpo, e non cercando frasi simili a quella appena udita in una grande collezione di materiali linguistici. Forse un giorno sarà possibile realizzare una vera intelligenza artificiale. Per riuscirci, però, servirà produrre un corpo, un hardware adeguato, non solo un programma.