Al Vaticano l’intelligenza artificiale piace, ma non troppo

Il documento non presenta posizioni rivoluzionarie né presenta ragionamenti nuovi: più volte il Pontefice si è espresso sul tema e quanto delineato dalla Nota non fa altro che riprendere tali concetti sviluppandoli e dando a essi una cornice più ampia e contestualizzata

Roma. Antiqua et nova, la lunga nota vaticana sul rapporto tra intelligenza artificiale e intelligenza umana diffusa ieri, trova il suo senso quasi nelle ultime righe, quando si cita Georges Bernanos: “Il pericolo non si trova nella moltiplicazione delle macchine, ma nel numero sempre crescente di uomini abituati, fin dall’infanzia, a non desiderare altro che ciò che le macchine possono dare”. Il problema non è dunque l’intelligenza artificiale in quanto tale, ma l’uso che se ne fa. Scrivono i prefetti dei dicasteri per la Dottrina della fede e per la Cultura e l’educazione, i cardinali Fernández e Tolentino, che “la sfida è tanto vera oggi quanto allora, poiché la rapida avanzata della digitalizzazione comporta il rischio di un ‘riduzionismo digitale’, per il quale le esperienze non quantificabili vanno messe da parte e poi dimenticate, oppure ritenute irrilevanti perché non calcolabili in termini formali. L’intelligenza artificiale dovrebbe essere utilizzata solo come uno strumento complementare all’intelligenza umana e non sostituire la sua ricchezza”.

Facile a dirsi, specie in questo mondo così complesso e interconnesso e con un’umanità che non sembra ispirare troppa fiducia, se è vero che “l’intelligenza artificiale, come qualsiasi altro strumento, è un’estensione del potere dell’umanità e, sebbene non si possa prevedere tutto ciò che essa riuscirà a compiere, purtroppo è ben noto ciò che gli esseri umani sono in grado di fare. Le atrocità già commesse nel corso della storia umana bastano a suscitare profonde preoccupazioni circa i potenziali abusi dell’IA”. La sfida è soprattutto educativa, capire cioè qual è l’impatto anche culturale dell’innovazione tecnologica. A essere decisivo è “il saper valutare criticamente le singole applicazioni nei contesti particolari, al fine di determinare se esse promuovano o meno la dignità e la vocazione umane e il bene comune”. C’è la consapevolezza che l’avvento dell’IA segna una “nuova e significativa fase nel rapporto dell’umanità con la tecnologia”, che poi sarebbe il cuore pulsante di quel “cambiamento d’epoca” più d’una volta descritto dal Papa. L’influenza dell’intelligenza artificiale è trasversale, tocca ogni ambito, dalle relazioni interpersonali a quelle internazionali, fino all’uso che se ne fa nei conflitti bellici.

Ecco perché la Chiesa ha sentito la necessità di mettere un punto fermo sulla questione, soprattutto indagandone i suoi risvolti antropologici ed etici, non mancando però di approfondire gli aspetti più “pratici”: l’applicazione nel mondo del lavoro e della sanità, ad esempio. Ma anche sul terreno educativo, dove “l’IA presenta sia opportunità che sfide. Se usata in maniera prudente, all’interno di una reale relazione tra insegnante e studente e ordinata agli scopi autentici dell’educazione, essa può diventare una preziosa risorsa educativa, migliorando l’accesso all’istruzione e offrendo un supporto personalizzato e riscontri immediati agli studenti. Questi vantaggi potrebbero migliorare l’esperienza dell’apprendimento, soprattutto nei casi in cui è necessaria un’attenzione particolare ai singoli o in cui le risorse educative sono scarse”. E poi la guerra, immancabile: “L’utilizzo bellico dell’intelligenza artificiale può essere assai problematico. Papa Francesco ha osservato che ‘la possibilità di condurre operazioni militari attraverso sistemi di controllo remoto ha portato a una minore percezione della devastazione da essi causata e della responsabilità del loro utilizzo, contribuendo a un approccio ancora più freddo e distaccato all’immensa tragedia della guerra’. Poiché è breve lo scarto tra macchine in grado di uccidere con precisione in modo autonomo e altre capaci di distruzione di massa, alcuni ricercatori impegnati nel campo dell’IA hanno espresso la preoccupazione che tale tecnologia rappresenti un ‘rischio esistenziale’, essendo essa in grado di agire in modi che potrebbero minacciare la sopravvivenza dell’umanità o di intere regioni”. Il documento non presenta posizioni rivoluzionarie né presenta ragionamenti nuovi: più volte il Pontefice si è espresso sul tema e quanto delineato dalla Nota non fa altro che riprendere tali concetti sviluppandoli e dando a essi una cornice più ampia e contestualizzata. Si richiama l’esigenza di promuovere un discernimento etico per guidare la tecnologia, si invita a riscoprire la centralità della comunità e a favorire un uso consapevole dell’IA per raggiungere il bene comune. I rischi, infatti, non sono da sottovalutare e non sono neppure pochi. Si legge infatti che “se da un lato l’IA racchiude molte possibilità di bene, dall’altro essa può ostacolare o persino avversare lo sviluppo umano e il bene comune. Papa Francesco ha osservato che ‘i dati finora raccolti sembrano suggerire che le tecnologie digitali siano servite ad aumentare le disuguaglianze nel mondo. Non solo le differenze di ricchezza materiale, che pure sono importanti, ma anche quelle di accesso all’influenza politica e sociale’. In questo senso, l’IA potrebbe essere usata per protrarre situazioni di marginalizzazione e discriminazione, per creare nuove forme di povertà, per allargare il ‘divario digitale’ e aggravare le disuguaglianze sociali”. Inoltre, “il fatto che attualmente la maggior parte del potere sulle principali applicazioni dell’IA sia concentrato nelle mani di poche potenti aziende solleva notevoli preoccupazioni etiche. Ad aggravare questo problema vi è anche l’intrinseca natura dei sistemi di IA, nei quali nessun singolo individuo è in grado di avere una supervisione completa dei vasti e complessi insiemi di dati utilizzati per il calcolo. Questa mancanza di una responsabilità (accountability) ben definita produce il rischio che l’IA possa essere manipolata per guadagni personali o aziendali, o per orientare l’opinione pubblica verso l’interesse di un settore. Tali entità, motivate dai propri interessi, possiedono la capacità di esercitare ‘forme di controllo tanto sottili quanto invasive, creando meccanismi di manipolazione delle coscienze e del processo democratico’”. In fin dei conti, il problema vero è proprio nel nome: “Intelligenza artificiale” è un concetto sbagliato. L’IA può eseguire compiti, ma non può pensare e “una tale distinzione è di importanza decisiva, poiché è il modo in cui si definisce l’intelligenza”.

  • Matteo Matzuzzi
  • Friulsardo, è nato nel 1986. Laureato in politica internazionale e diplomazia a Padova con tesi su turchi e americani, è stato arbitro di calcio. Al Foglio dal 2011, si occupa di Chiesa, Papi, religioni e libri. Scrittore prediletto: Joseph Roth (ma va bene qualunque cosa relativa alla finis Austriae). È caporedattore dal 2020.

Leave a comment

Your email address will not be published.