I pregiudizi da abbattere sull’intelligenza artificiale

Pubblichiamo l’estratto di un’intervista sull’intelligenza artificiale e la mobilità rilasciata da David Weinberger, ricercatore senior al Berkman Center for the Internet and Society della Harvard University. L’intervista è stata rilasciata nell’ambito del podcast “The Space of a journey”, iniziativa editoriale a cura di Mundys e Codice Edizioni.
 


L’Intelligenza Artificiale può portare a un grande cambiamento nel modo in cui pensiamo e agiamo. Nella tradizione occidentale abbiamo identificato la verità con le affermazioni generali, le leggi e i principi universali e le regole. Abbiamo pensato in questo modo fin dagli antichi Greci e abbiamo continuato anche durante l’Illuminismo. Perché l’abbiamo fatto? Per la convinzione che l’universo sia abbastanza razionale e ordinato da permetterci di capirlo. E anche se non possiamo comprendere ogni piccolo dettaglio, apparentemente possiamo scoprire le grandi leggi che governano la realtà. Queste generalizzazioni sono un buon modo per spiegare le cose. È molto semplice indicare una condizione generale. Se per esempio una gomma è sgonfia e qualcuno vuole capire cosa è successo, può fare riferimento ai fatti, alle leggi della fisica che regolano la pressione e così via. Una terza ragione per cui ci piace e preferiamo le generalizzazioni è che ci fanno sentire di avere il controllo. Siamo la specie privilegiata, consacrata da Dio o dall’evoluzione per comprendere l’universo. E il modo per farlo è cogliere queste grandi leggi, cosa che ci rende molto, molto speciali. Abbiamo sempre pensato così. Ma non è così che funziona l’apprendimento automatico, per il quale è essenziale che si forniscano dei dati.
 

L’apprendimento automatico è generalmente ciò che si intende per A.I. al giorno d’oggi, perciò è importante capire qual è la differenza tra l’A.I. e l’informatica tradizionale. Per esempio, se si sta applicando l’informatica tradizionale e si vuole prevedere il tempo meteorologico, bisogna conoscerne la logica. Quali sono i fattori che lo influenzano? La temperatura, la quantità di umidità nell’aria e così via. E questo è in effetti il modo in cui si procedeva. Avevamo i principi di Newton che spiegavano cosa succede quando masse di questo tipo e di questa densità interagiscono, eccetera. Quindi scrivevamo un programma che esprimeva queste relazioni, queste leggi, e poi inserivamo i dati. Con l’apprendimento automatico, teniamo per noi tutto ciò che sappiamo sul meteo, o se si tratta di affari, tutto ciò che sappiamo sugli affari, o sulla salute e così via. Non diciamo al sistema nulla di ciò che sappiamo. Gli forniamo solo i dati e gli permettiamo di elaborare i modelli a partire dai dati. Di solito questi modelli sono più precisi rispetto al vecchio metodo. I modelli possono essere così complessi, e spesso lo sono, che non riusciamo a capire come la macchina arrivi alle sue previsioni. Ma ne ottiene di migliori rispetto a quelle del vecchio metodo. Tutto questo perché non gli abbiamo detto nulla di ciò che sapevamo, abbiamo tenuto per noi ciò che sapevamo, in modo che la macchina vedesse cose che noi non vediamo e forse che non possiamo vedere. Immaginiamo di trovarci per strada e pensiamo di prendere un autobus, che però impiega troppo tempo per arrivare. È da un po’ che non veniamo in città e ci chiediamo cosa succede.
 

Può darsi che la città abbia riprogettato il suo sistema di transito sulla base delle raccomandazioni dell’A.I. Quindi, ad esempio, potrebbero essere state raccolte tonnellate di dati su come le persone si muovono, quali tipi di trasporto utilizzano, gli orari in cui alcuni trasporti sono sovraffollati e così via. E si sarebbe applicato l’apprendimento automatico per trovare un modo più efficiente ed efficace di instradare tutto questo traffico. Ciò potrebbe comportare la modifica di alcune strade, rendendole a senso unico. Potrebbe essere necessario riprogrammare i semafori. Potrebbe comportare la creazione di un numero maggiore o minore di passaggi pedonali. Inoltre, naturalmente, si considera il percorso degli autobus, la frequenza delle corse, il numero di quelle locali e di quelle espresse. L’intelligenza artificiale potrebbe esaminare tutto questo e proporre un piano che massimizzi l’efficienza del sistema, il che può essere meraviglioso. Ma può anche andare male, perché il sistema potrebbe trovare un modo, per esempio, che massimizza l’efficienza complessiva misurata in base al tempo impiegato. Qual è la somma totale dei tempi impiegati nei viaggi delle persone in città? Potrebbe non essere un modo intelligente o effettivo, ma potrebbe andare così. E quindi l’intelligenza artificiale proporrà un insieme di tutti questi cambiamenti.
 

Si fanno molti compromessi nel progettare l’intelligenza artificiale, a partire dalla comprensione di quali sono i suoi valori. Possiamo dire che l’IA è certamente algoritmica. Ma gli algoritmi sono fatti funzionare per noi sulla base di decisioni che noi umani prendiamo, e che a volte dimentichiamo di aver preso. Il pregiudizio è il peccato originale dell’apprendimento automatico. Perché è molto difficile liberarsene ed essere sicuri di avercela fatta. Il motivo principale è che l’apprendimento automatico dell’A.I. si è formato sui dati, e i dati sono un riflesso, in un modo o nell’altro, di noi stessi. Inoltre, comprende la scelta di quali dati vogliamo mettergli a disposizione. Se scegliamo di preparare un sistema diagnostico ospedaliero, ma utilizziamo solo i dati di persone giovani, o di persone anziane, o di persone della zona ricca della città, e così via, allora è molto probabile che otterremo un modello che funziona per il tipo di persone sui cui dati è stato elaborato, ma non è affidabile per nessun altro. Si tratta di un problema serio. Forse impossibile da risolvere completamente.
 

Ma ci sono molte cose che possono e devono essere fatte, e che già vengono fatte. Ecco un esempio di quasi dieci anni fa: nel 2015, Amazon ha “addestrato” un sistema di apprendimento automatico con i curriculum dei suoi dipendenti di successo. Ma a causa dei pregiudizi del settore, si trattava di un gruppo in gran parte di uomini. Di conseguenza, anche se Amazon nei dati raccolti dai candidati ha eliminato qualsiasi riferimento diretto al sesso della persona, il sistema aveva appreso dai curriculum che la parola “donna” non era correlata ai tipi di persone che avevano successo. Frasi come “ho frequentato un college femminile” o “ho fatto parte della squadra femminile di scacchi”, o “Sono stata una campionessa olimpica femminile” facevano sì che il sistema trovasse le persone a cui corrispondevano meno propense al successo. E i loro curriculum venivano di conseguenza ignorati. Ci sono alcune ovvie proxy per il genere o per la razza o per lo status socioeconomico e simili, tra cui il luogo di residenza, le università frequentate e lo storico della carriera lavorativa. Sono più le donne degli uomini ad avere lunghi periodi vuoti nel curriculum, perché nella nostra cultura sono le donne in genere ad assumersi la responsabilità principale nell’educazione dei figli. Le proxy possono essere molto sottili, un insieme di piccoli indizi che portano il sistema a capire quale sia la classe economica o il sesso o la religione e così via, il che può rendere i risultati molto distorti. Si tratta di un problema davvero difficile da risolvere, perché i pregiudizi sono molto radicati nella nostra cultura. Non scompariranno mai del tutto. Ma è un problema che possiamo gestire con sempre maggiore successo se ci mettiamo davvero al lavoro con la testa e con il cuore.

Leave a comment

Your email address will not be published.