Dopo le dimissioni, stizzite, di Giuliano Amato il governo ha nominato padre Paolo Benanti presidente della Commissione sull’Intelligenza artificiale per l’informazione.
Lei è un francescano. Che cosa risponde a chi dice che fede e scienza sono in contrasto tra loro?
«Se Dio ci ha creati, ha creato anche la nostra ragione, che rappresenta uno strumento per conoscere il mondo. Non c’è quindi nulla che sia, allo stesso tempo, secondo ragione e in contrasto con la fede».
Lei ha coniato il neologismo «algoretica. Che cosa intende?
«Quando parliamo di etica parliamo di un grande libro scritto dall’uomo nel corso dei secoli su tutte le riflessioni e le decisioni che riguardano la sua libertà. Ora è arrivato il momento di scrivere un nuovo capitolo riguardante le scelte e le azioni che verranno surrogate dalle macchine affinché queste non vadano fuori strada».
A proposito di etica e tecnologia: crede che lo strumento normativo – visto che dietro all’Intelligenza artificiale ci sono anche realtà sovranazionali – sia sufficiente?
«Questa è la sfida degli ultimi cento anni. Pensiamo alla bomba atomica e all’inquinamento: sono problemi globali. Anche l’Intelligenza artificiale lo è. E questo ci apre a uno scenario di complessità che necessita accordi globali, regionali e nazionali. È un qualcosa che assomiglia al codice della strada: non serve a impedirci di andare da qualche parte ma a evitare incidenti. Tutte le nazioni ne hanno uno, ma ogni Paese lo declina secondo le proprie esigenze. La prima cosa da fare adesso, però, è evitare incidenti con l’intelligenza artificiale».
Quali potrebbero essere?
«L’Intelligenza artificiale comprende tante tecnologie e applicazioni. Se la si usa per controllare una centrale nucleare, l’esito può essere nefasto. Lo stesso per un’auto a guida autonoma o un aereo. Ma anche per cose apparentemente meno significative – come nella medicina o in una banca – potrei provocare ingiustizie enormi, privando le persone dei giusti trattamenti o finanziamenti».
Cina e Francia stanno lavorando per sviluppare le proprie Intelligenze artificiali. È bene che siano gli Stati a portare avanti questi progetti o sarebbe meglio che fossero dei privati?
«Questo è un dilemma che ha accompagnato tutta la storia dell’industria. Ci sono state aziende di Stato, private e pure modelli misti. Esistono tante diverse forme che possono essere applicate. Certo è che una grande Intelligenza artificiale che possa garantire il sistema sanitario nazionale deve essere garantita anche dal pubblico».
Da tempo, il creatore del Web, Tim Berners-Lee, sta criticando la deriva di Internet, tanto da reputarlo un «luogo» pericoloso. Secondo lui, bisognerebbe garantire un accesso a strati, legati ai vari livelli di preparazione degli utenti. È una proposta sensata? Si potrebbe fare lo stesso ragionamento anche per l’AI?
«Si potrebbero sviluppare alcune patenti per l’Intelligenza artificiale. In alcuni ambiti non sarebbe sbagliato: pensiamo alla medicina. Un medico deve saper riconoscere un tessuto rispetto a un altro. Forse, prima di farci mettere le mani addosso da lui con l’Intelligenza artificiale, anche lui dovrebbe avere delle competenze su questo tema».
Passiamo sempre più tempo online e sempre meno offline. Così facendo non rischiamo di allontanarci dalla realtà?
«Tanto più diventa potente la macchina, tanto più abbiamo bisogno di un uomo in grado di controllarla. Per questo l’educazione è fondamentale».
Giovani e meno giovani usano, spesso in modo eccessivo, i social. È corretto lasciare i più piccoli in queste bolle?
«Non tutti abbiamo le stesse capacità. Come ci ha insegnato la pandemia, giovani e anziani sono i più fragili. Avremo uno sviluppo umano dell’Intelligenza artificiale solo se riusciremo a non lasciare indietro i più fragili».