Perché nel primo giorno dell’attacco è stata colpita una scuola di Minab, vicino allo stretto di Hormuz? Secondo il New York Times, che ha attribuito la strage di 165 bambine alle forze Usa e non a quelle israeliane, si tratta di un tragico errore di mira. O meglio di qualcosa che va attribuito all’intelligenza artificiale. Secondo le immagini satellitari del 2013 esaminate dal Times, la scuola un tempo faceva parte della base navale delle Guardie Rivoluzionarie, ma a settembre 2016, come mostrano le immagini satellitari, lo stesso edificio era stato isolato e non era più collegato alla base. L’attacco alla scuola si basava insomma su informazioni obsolete e qualsiasi analisi delle immagini satellitari scattate dopo il 2013 avrebbe mostrato che l’edificio era stato trasformato in una scuola.

Come è potuto accadere? Facciamo un passo indietro: da tempo il sistema intelligente Maven dell’esercito, sviluppato dalla Palantir, sta generando informazioni da una quantità sorprendente di dati classificati provenienti da satelliti e da altri sistemi, contribuendo a fornire obiettivi in tempo reale e a stabilire le priorità di questi per le operazioni militari in Iran. Nel sistema è integrato lo strumento di intelligenza artificiale “Claude “di Anthropic, una tecnologia che la scorsa settimana è stata vietata dal Pentagono dopo accese negoziazioni sui termini del suo utilizzo in guerra. Nell’ultimo anno, i pianificatori militari hanno visto Claude, in abbinamento a Maven, trasformarsi in uno strumento di uso quotidiano nella maggior parte delle forze armate Usa e Nato ed è stato utilizzato anche per la pianificazione di un potenziale attacco in Iran: proprio questo sistema ha suggerito centinaia di obiettivi, ha fornito coordinate di posizione e ha assegnato la priorità a tali obiettivi in base all’importanza. Ma è incorso in molti errori, tra cui quello tragico Minab. Senza dire che esso è poco efficace, anzi disutile nel caso di batterie che si spostano in continuazione: così l’attacco iniziale ha completamente fallito l’obiettivo di inibire il contrattacco iraniano.

Insomma ci si è fidati ciecamente dell’IA e i risultati sono stati disastrosi. Paul Scharre, vicepresidente esecutivo del Center for a New American Security, ha detto: “Il cambiamento di paradigma fondamentale è che l’IA consente all’esercito statunitense di sviluppare sistemi di puntamento alla velocità di una macchina, anziché a quella di un essere umano. Gli svantaggi sono però che l’intelligenza artificiale sbaglia … Abbiamo bisogno che gli esseri umani controllino l’output dell’intelligenza artificiale generativa quando la posta in gioco è la vita o la morte”. Così gli attacchi statunitensi e israeliani hanno colpito a casaccio distruggendo anche almeno 13 ospedali in Iran, presi di mira dal sistema Maven – Claude che oggi il Pentagono mette in discusione. In effetti i sistemi di intelligenza artificiale basati su modelli linguistici di grandi dimensioni, sono intrinsecamente inaffidabili. I loro algoritmi garantiscono la produzione di errori, la cui percentuale aumenta con la dimensione dei modelli stessi. Lo si può vedere chiaramente esaminando Open Ai: il primo modulo sbagliava il 16% delle risposte, il terzo, molto più allargato del 33%, mentre il quarto il 48%. Insomma i modelli “più intelligenti” stanno in realtà peggiorando nel dare risposte corrette e di questo forse possiamo accorgercene anche noi.