Guardare all’intelligenza artificiale con una sorta di rassegnato disincanto

Il pensiero umano non funziona come quello di un robot ipercomplesso, a meno che non si trascuri una caratteristica umana fondamentale, ovvero l’intenzionalità. Esiste un’incolmabile differenza tra questa e l’intelligenza meccanica, seppur poderosa, delle macchine

Col passare del tempo mi rendo conto che il mio giudizio sulla cosiddetta intelligenza artificiale è sempre più meravigliato e nel contempo rassegnato e disincantato. L’idea di algoritmi controllati da miliardi di parametri e addestrati su miliardi di dati mi meraviglia. Siamo di fronte a una super intelligenza, prodotta dall’intelligenza umana, che però non ha nulla a che fare con l’intelligenza umana: un’immensa mente artificiale, una macchina che funzionerà quasi alla perfezione in gran parte dei campi dove da sempre, in modo più o meno fallibile, ha operato soltanto l’intelligenza umana e della quale sarà persino difficile fissare i limiti. Roba da non credere. A maggior ragione se pensiamo che si tratta di macchine capaci di generare l’impensabile, senza che si possa dire che “sanno” quello che fanno. Già, ma che vuol dire tutto questo?

Se dovessi dar retta al semplice buon senso, direi che siamo di fronte a un’intelligenza che chiamiamo tale solo perché le sue strabilianti “operazioni” sono/saranno capaci di risolvere molti problemi più e meglio di quanto faccia l’intelligenza umana. Ma siccome i filosofi sono specializzati nel complicare le questioni, spesso rendendo incomprensibili anche quelle più semplici, ecco che per molti di loro la questione si presenta sotto un’altra luce: l’intelligenza artificiale in realtà non farebbe altro che riflettere il funzionamento della mente umana; quest’ultima è più complicata, ma sia l’operazione della macchina sia il pensiero umano funzionerebbero come processi materiali causali.

Se oggi abbiamo ChatGpt, e proprio in questi giorni il Foglio ci ha dimostrato quanto sia strabiliante, non potremmo avere domani dei robot del tutto indistinguibili dagli umani? Oppure, visto che a sentire gli esperti già oggi pare possibile impiantare nel cervello umano microchip, reti neurali artificiali, che ne aumenterebbero a dismisura le prestazioni, non siamo sulla strada di una sempre più completa ibridazione tra uomo e macchina?

Negli anni Cinquanta del secolo scorso, Alan Turing riteneva che, per poter dire che una macchina “pensa”, questa dovesse superare un test che consisteva nel rispondere alle domande di un uomo senza che l’uomo potesse accorgersi che a rispondergli era una macchina e non un suo simile. Di fronte alle prestazioni di ChatGpt il test di Turing appare oggi strasuperato e quasi infantile. D’altra parte, da sempre, gli uomini giocano a immaginare situazioni in cui le identità si confondono in maniera inestricabile. “Noi possiamo sognare di essere un lombrico, diceva il grande Calderon, ma chi ci dice che quando siamo svegli non siamo in realtà un lombrico che sogna di essere noi?”. Chi ci dice che quando pensiamo, e la domanda potrebbe diventare sempre più plausibile, non siamo in realtà una macchina che pensa al posto nostro? La fantascienza avrà di che sbizzarrirsi su questi temi. Oltretutto lo fa da un bel po’ di tempo. Ma forse la vera questione che dovremmo porci non è tanto quella che riguarda la possibilità teorica di non distinguere più l’umano da una macchina, quanto piuttosto quella della “natura” dell’attività mentale umana e della possibilità di meccanizzarla.

I cosiddetti riduzionisti, cioè coloro che ritengono che i processi mentali umani siano meccanizzabili, non si curano troppo delle difficoltà che scaturirebbero se la loro tesi fosse presa sul serio. Ne dico soltanto una, quasi scherzando. Siccome ridurre uno stato mentale a stati fisici equivale a ritenere che il pensiero corrisponda a precise operazioni causali tra stati chimico-fisici che avvengono nel nostro cervello, è evidente che se Tizio e Caio hanno uno stesso pensiero, poniamo, “la Juve andrà in serie B”, ma Tizio soffre di iperglicemia e Caiono no, saremmo costretti a ritenere che i due non hanno lo stesso pensiero, perché diversi sono gli stati chimico-fisici del loro cervello. Ma evidentemente le cose non possono stare in questo modo. Checché ne dicano i riduzionisti, il pensiero umano non funziona come quello di un robot ipercomplesso, a meno che non si trascuri una caratteristica umana fondamentale: l’intenzionalità.

Quest’ultima ci fa percepire gli oggetti nella loro interezza, in quanto oggetti intenzionati appunto, non in base ai nessi causali che instauriamo con gli oggetti stessi, altrimenti dovremmo dire che un oggetto visto da destra non è lo stesso visto da sinistra, essendo diverso nei due casi il rapporto causale tra me e l’oggetto. Per non dire del carattere normativo della nostra intenzionalità. Se dico, ad esempio, che il tale è una brava persona e qualcuno mi chiede di spiegargli perché, sarebbe insensato da parte mia che gli rispondessi semplicemente “perché sì”; dovrò invece addurre qualche buona ragione, giustificarlo. Ma questo, a differenza dei processi causali, implica che possa anche sbagliarmi, a riprova che il nostro rapporto col mondo è inevitabilmente normativo. Che senso ha dire che una relazione causale può essere sbagliata? Per farla breve, e per quel poco che mi sembra di capire, esiste un’ incolmabile differenza ontologica tra l’umana intenzionalità e l’intelligenza, poderosa quanto si vuole, ma meccanica, quantitativa delle macchine.

Non possiamo escludere invece, e questo, sì, può apparire inquietante, che le macchine finiscano per sostituirsi agli uomini in molte delle loro funzioni, rendendo la suddetta differenza quasi indifferente. Già oggi, in fondo, anziché faticare a scrivere questo articolo, avrei potuto semplicemente interrogare ChatGpt e averne uno forse migliore. Molti di coloro che oggi non sanno scrivere un testo di bassissima complessità e nemmeno comprenderlo (pare che siano il 30 per cento degli italiani) in futuro potranno mascherare l’essiccamento della loro intelligenza grazie a quella artificiale. Persino etica e politica potrebbero diventare ben presto attività sempre più dipendenti da algoritmi sofisticatissimi sul comportamento umano capaci di includere anche il self-learning. Non mi sembra invero una prospettiva allettante. Eppure sento di guardare a questa strabiliante novità con una sorta di rassegnato disincanto, come se non ci fosse niente di nuovo sotto il sole. Ho fiducia che, come sempre, ci salveranno gli imprevisti.

Di più su questi argomenti:

Leave a comment

Your email address will not be published.