L’era strategica dei robot soldato

L'era strategica dei robot soldato

Esistono guerre combattute con l’intelligenza artificiale ed esistono conflitti che potrebbero essere combattuti per garantirsi l’accesso alla tecnologia che serve per produrre l’intelligenza artificiale. Partiamo dal secondo tipo e quindi dall’Hardware. Dopo guarderemo il software, ovvero l’intelligenza artificiale e come può funzionare in un contesto di guerra.

La guerra moderna è anche una guerra di microchip. Tra le prime iniziative portate avanti dall’Occidente per mettere in difficoltà la Russia c’è stato il tentativo di bloccare le esportazioni di microchip sofisticati verso Mosca. Tanto che i russi hanno iniziato a modificare i microchip delle comuni lavatrici per utilizzarli nei loro carri armati. Il progresso in questo settore è stato tale che un comune chip da lavatrice di oggi è decisamente più intelligente dei chip che si usavano nei sistemi d’arma degli anni Novanta. Per di più, molti microchip fabbricati negli Usa vengono venduti alla Cina. Non è un commercio che possa essere fermato e da lì, secondo molte fonti, vengono triangolati in Russia. Contemporaneamente, però, la Cina, che dipende dai microchip degli Usa per molti versi, minaccia Taiwan, dove si trova la fabbrica di microprocessori più sofisticati del mondo. Nessuno produce e miniaturizza i semiconduttori come Semiconductor Manufacturing Company di Taiwan. Per intenderci, i microprocessori A 14 di quest’azienda contengono ognuno 11,8 miliardi di transistor. Solo sessant’anni fa, giusto per dare lìidea, i transistor in un singolo microprocessore erano 4. Questo rende chiaro il salto di potenza di calcolo. Senza quei processori, il pianeta si spegnerebbe. Se Taiwan cadesse in mano cinese… Se volete approfondire basta leggere il saggio Chip War (Garzanti, pagg. 422, euro 22) dell’esperto di storia internazionale Chris Miller. Ma veniamo alla guerra con l’intelligenza artificiale Ovviamente in ambito militare l’impiego di queste intelligenze, adattative e capaci di processare un enorme numero di dati, è subito apparso interessante. Rispetto ai normali software risultano molto più semplici da usare e possono coadiuvare gli esseri umani.

Ma partiamo da un esempio concreto di cosa può fare un sistema integrato di intelligenza artificiale. Nel marzo 2022 molti si aspettavano che la Russia si sarebbe mangiata l’Ucraina nel giro di qualche settimana. Cosa che, tra l’altro, sembra fosse nei piani degli stati maggiori russi, ma così non è andata. A fare la differenza è stato l’elemento tecnologico.

Le più avanzate tecnologie, principalmente statunitensi, stanno giocando un ruolo essenziale nel garantire la sopravvivenza ucraina sul campo di battaglia, almeno per quanto riguarda le operazioni di battlefield intelligence e ricognizione. «Costruiamo software che permettono a organizzazioni di integrare efficacemente dati, decisioni e operazioni» così recita il sito della società tecnologica statunitense Palantir. L’azienda, che dichiara circa un miliardo e mezzo di fatturato nel 2021, è decollata nel 2001, quando una delle agenzie di intelligence americane, la Central Intelligence Agency (Cia), aveva richiesto i suoi servizi per integrare informazioni altrimenti sparse per condurre operazioni di antiterrorismo. Oggi, grazie a Palantir, un soldato ucraino si siede di fronte a un computer portatile e osserva mappe digitali estremamente dettagliate che mostrano il campo di battaglia, per lo più ottenute da satelliti commerciali: circa quaranta volano ogni giorno sopra l’Ucraina. Con qualche clic del mouse il soldato vede le immagini termiche, che mostrano il fuoco dell’artiglieria, i carri armati, la disposizione delle forze nemiche. Con qualche altro clic si utilizza un programma di puntamento per selezionare un missile, un pezzo di artiglieria, o un drone armato per attaccare l’obiettivo. Questa è la guerra digitale che si combatte in Ucraina. Per quanto cinico possa risultare, è possibile affermare, in questo senso, che il Paese è oggi il primo esempio pratico di come verranno combattute le guerre in questo secolo.

La guerra algoritmica, come l’ha definita Alex Karp, amministratore delegato di Palantir, utilizza un modello digitale del campo di battaglia, permettendo ai centri di comando di eliminare la nebbia di guerra. Ciò che rende questo sistema rivoluzionario è che aggrega dati provenienti da fornitori commerciali. L’intelligenza artificiale, insomma, accelera il ciclo OODA, il ciclo decisionale osservare, orientare, decidere e agire, sviluppato dallo stratega militare dell’aeronautica degli Stati Uniti col. John Boyd, che ha applicato questo concetto alle fasi del combattimento. Se giocate a scacchi con un computer vedrete che il suo ciclo OODA è molto più veloce del vostro. Su un campo di battaglia date le variabili enormi l’intuito umano era in vantaggio. Ora con questi sistemi adattativi potrebbe non esserlo più. Non dobbiamo temere un terminator che ci insegua e ci spari. L’interfaccia umanoide per le AI è quantomai disfunzionale al momento. Quello che dobbiamo temere al momento è un generale computerizzato. Anche perché per quanto le AI siano adattative e veloci noi stessi infiliamo nelle medesime dei Bias cognitivi. È stata condotta una simulazione su modelli commerciali che può dare un’idea. Un team di ricerca di tre diversi atenei statunitensi (Georgia Institute of Technology, Stanford University e Northeastern University) ha condotto una serie di esperimenti, partendo da un’idea semplice: inserire quattro diversi modelli di intelligenza artificiale all’interno di un programma sviluppato dall’Hoover Institute che simula scenari di crisi internazionale. In alcuni casi, i software sono persino ricorsi all’uso di armi nucleari, giustificando le loro azioni virtuali con la ricerca della pace nel mondo.

Ovviamente l’esperimento è valido sino ad un certo punto. Però il fatto è che queste intelligenze artificiali hanno una forte capacità assertiva. Un Paese in guerra che raggiunga una serie di successi con una intelligenza artificiale sarà disposto ad ignorarne i consigli se ad un certo punto sembrassero moralmente inaccettabili.

Oppure, morale a parte, chi ci dice che l’intelligenza artificiale che ci ha aiutato ieri non venga hackerata domani, per darci consigli sbagliati? Si va verso un territorio ignoto.

Leave a comment

Your email address will not be published.