Due visioni opposte: regole e tutele da un lato, libertà e ideologia dall’altro. L’Europa rischia di rallentare, ma alcune cautele non sono affatto da scartare
Lo scorso 16 ottobre Mario Draghi ha proposto di “mettere in pausa” il percorso di entrata in vigore dell’AI Act europeo per l’incertezza che introduce nell’adottare l’Intelligenza Artificiale nelle cosiddette “attività ad alto rischio”, impieghi che riguardano la salute, i servizi ai cittadini, i prestiti, le relazioni con i lavoratori. La norma europea richiede alle aziende una garanzia di trasparenza in merito ai dati raccolti e ai processi decisionali intrapresi dagli algoritmi; ma questa garanzia è molto difficile da fornire, soprattutto se si considera che queste tecnologie saranno per lo più acquistate da fornitori terzi. La preoccupazione di Draghi di far sì che l’AI Act non costituisca un freno all’innovazione va letta anche in relazione all’ AI Action Plan americano definito dall’Amministrazione Trump lo scorso luglio. Quel provvedimento è connotato da incentivi all’installazione di data center, deregulation nello sviluppo e nell’utilizzo delle tecnologie, esclusione dei modelli considerati “woke” dagli usi federali e nessun cenno a un contrasto all’uso della AI per creare e diffondere disinformazione. Come espresso dall’analisi di Oscar Giannino sul Foglio del 23 agosto, la strategia statunitense è dunque anche un monito all’Europa di accelerare sugli investimenti previsti – ad esempio i 20 miliardi di euro stanziati per realizzare gigafactory per ridurre la dipendenza da infrastrutture e chip.
Fra le salvaguardie che però non possono essere allentate, vi è il contrasto alla diffusione di notizie e video falsi. Gli account ufficiali del presidente degli Stati Uniti hanno pubblicato un video in cui Barack Obama viene arrestato all’interno della Casa Bianca sotto lo sguardo sorridente di Trump. In Europa, un contenuto come quello ricadrebbe sotto l’effetto combinato del AI Act e del Digital Services Act: sarebbe classificato come contenuto a rischio limitato o elevato, e quindi soggetto a obblighi di trasparenza da parte dell’autore ed etichettatura da parte delle piattaforme che lo pubblicano. Negli Usa, invece, non esiste alcuna legge federale che imponga controlli preventivi su deepfake politici. La libertà di parola è protetta dal Primo emendamento: anche i contenuti falsi, se non costituiscono diffamazione o frode provata, non possono essere limitati dal governo. Il nuovo piano Trump rafforza questa posizione, esplicitando che i modelli dovranno essere liberi da riferimenti a bias ideologici.
Alcuni esempi italiani aiutano a chiarire la portata delle differenze. Sui propri profili social, la Lega ha pubblicato una serie di immagini di migranti intenti a commettere atti violenti. Le immagini, realizzate con intelligenza artificiale, sono state segnalate all’Agcom e al Garante della Privacy per presunta disinformazione e diffusione di contenuti razzisti. Se quelle immagini fossero state realizzate con attori reali e non con AI, la questione resterebbe confinata alla diffamazione o alla propaganda discriminatoria, ma il contenuto non sarebbe soggetto ai vincoli specifici sulla trasparenza previsti dall’AI Act. L’AI Action Plan statunitense definisce come non neutrali tutti quei modelli che includono riferimenti a diversità, giustizia razziale, cambiamento climatico, equità o inclusione. Il concetto stesso di “bias” viene riletto al contrario: non sono i modelli ad avere pregiudizi, ma le politiche progressiste ad averli imposti. Sotto l’etichetta della neutralità si legittima un modello culturale Maga, e si delegittima qualsiasi tentativo di equilibrare i risultati algoritmici con il controllo umano. Anche sul piano ambientale la distanza fra le due norme è notevole: l’AI Action Plan americano punta all’accelerazione dell’infrastruttura, inclusa la semplificazione delle autorizzazioni ambientali per nuovi data center e rimuove i requisiti di “valutazione ambientale” per i progetti di AI finanziati con fondi pubblici, considerandoli un ostacolo competitivo.
L’AI Act europeo invece, pur non imponendo direttamente limiti alle emissioni o ai consumi energetici dei modelli, introduce obblighi di documentazione tecnica e trasparenza e riferimenti al ciclo di vita del modello, alla sua manutenzione e al consumo di risorse. Negli Usa, l’intelligenza artificiale è diventata uno strumento identitario: un simbolo di potenza geopolitica, ma anche di cultura politica interna. Il nuovo corso trumpiano non la vede come una tecnologia da regolare, ma come una narrazione da controllare. In Europa, invece, l’AI è percepita come una tecnologia da rendere compatibile con i principi democratici.