Dopo una maratona negoziale di tre giorni, il Consiglio Ue e il Parlamento europeo trovano l’accordo su come regolare lo sviluppo e l’uso dei sistemi di intelligenza artificiale. Il regolamento, il primo del genere al mondo, punta a garantire che le soluzioni software siano sicure. Secondo obiettivo dell’impianto: stimolare gli investimenti e l’innovazione nell’Ia in Europa.
L’accordo segue di pochi giorni la nascita di Gemini con cui Google ha lanciato un altro guanto di sfida a OpenAi. Quest’ultima, che è la proprietaria di ChatGPT, è invece legata a doppio filo con Microsoft. Al punto che il suo amministratore delegato Satya Nadella ha fatto in modo di reinsediare Sam Altmam al vertice di OpenAi, dopo che il consiglio di amministrazione lo aveva espulso per dubbi sul rispetto della governance.
Ma torniamo al regolamento Ue sull’intelligenza artificiale. Nocciolo duro della legge è l’adozione di un approccio basato sul «rischio». In altre parole, è prevista una serie di obblighi a fornitori e sviluppatori di sistemi di IA a seconda dei diversi livelli di potenziale «pericolo» identificati. Si va dal rischio minimo a quello inaccettabile; maggiore è il rischio, più severe sono le regole. Uno dei capitoli più importanti, su cui il negoziato si è incagliato per ore, è quello delle pratiche di IA vietate perché comportano un rischio inaccettabile per la sicurezza e i diritti fondamentali. Simbolo di tutte le battaglie è il divieto dei sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà ora limitato a casi specifici.
«Un momento storico» ha esultato la presidente della Commissione Ue, Ursula von der Leyen. «Un passo significativo per lo sviluppo dell’IA» è stato il brindisi del ministro delle Imprese, Adolfo Urso, e del sottosegretario alla presidenza del Consiglio con delega all’Innovazione, Alessio Butti, all’intesa politica che ora dovrà incassare l’approvazione finale degli Stati membri, oltre che del Parlamento europeo. E che riguarda un dossier centrale per il governo di Giorgia Meloni: l’IA sarà infatti anche uno dei temi sul tavolo del G7 a presidenza italiana.
La stragrande maggioranza dei sistemi di intelligenza artificiale rientra comunque nella categoria del rischio minimo e beneficia quindi di un «free-pass». I sistemi di intelligenza artificiale identificati ad alto rischio saranno tenuti invece a rispettare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di accuratezza e sicurezza informatica. Ulteriori esempi di sistemi di intelligenza artificiale ad alto rischio includono alcune infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità e dei dispositivi medici.
MaNe