IA E CONFLITTI: Una riflessione
- Virginia Zanetti
- 29 ott
- Tempo di lettura: 2 min
È chiaro che, nel sistema attuale, l’intelligenza artificiale non sia più soltanto un ausilio dell’industria o della medicina o un lontano algoritmo studiato nei laboratori. Da qualche anno, è entrata a far parte anche delle vite quotidiane di quasi tutti i cittadini che hanno a disposizione internet ma non solo. Proprio a causa della versatilità di questo strumento, gli usi che ne vengono fatti sono eterogenei e non sempre lodevoli. La situazione geopolitica attuale potrebbe infatti suggerirti uno spunto di riflessione:
che ruolo ha ed ha recentemente avuto l’intelligenza artificiale nei conflitti armati?
Dai droni capaci di colpire in autonomia agli algoritmi che prevedono movimenti nemici o suggeriscono strategie, la guerra del XXI secolo si gioca inevitabilmente anche sul terreno invisibile dei dati. Dietro ogni decisione tattica, infatti, dietro ad ogni immagine satellitare analizzata, ogni obiettivo selezionato, c’è un codice che “intuisce”, elabora e, in alcuni casi, decide. Proprio così:
l’intelligenza artificiale in certe circostanze e dopo aver ricevuto specifiche istruzioni, può decidere se colpire o meno un obiettivo, che però corrisponde a qualcosa di reale, tangibile e magari umano.
Negli ultimi anni, le potenze militari mondiali hanno investito ingenti somme di denaro nello sviluppo di sistemi d’arma basati sull’intelligenza artificiale.
Gli Stati Uniti per esempio, investono in sistemi come il “Project Maven” e il “JADC2”, che integrano dati e immagini per migliorare la precisione militare e la rapidità decisionale.
La Cina punta su una strategia di “fusione civile-militare”, sviluppando droni autonomi e tecnologie di sorveglianza.
Nel contesto israelo-palestinese, invece, l’intelligenza artificiale viene impiegata in strumenti di sorveglianza e analisi dei bersagli, come i sistemi “Lavender” e “Gospel”, sollevando gravi interrogativi etici sulla trasparenza, la responsabilità e la tutela dei civili.
È comunque indiscutibile il fatto che ci troviamo di fronte ad una nuova logica, quella della guerra algoritmica: ridurre l’incertezza, aumentare la velocità di reazione ed eliminare l’errore umano
Ma ogni algoritmo porta con sé un rischio, e ogni guerra automatizzata apre un dilemma.
Chi è responsabile se un’arma autonoma colpisce il bersaglio sbagliato? Può una macchina distinguere davvero tra un combattente e un civile?
Da qui un passaggio ulteriore, quello della “deumanizzazione” del conflitto: facendo decidere un agente esterno e meccanico, si rischia di rendere il conflitto distante dalla concezione umana, come se fosse meno reale, meno grave o meno violento. Per questo sarebbero decisamente necessarie misure di controllo e nuove leggi per definire e limitare questi strumenti.
Per il futuro ci si può interrogare quindi non tanto sull’efficacia di uno strumento come questo, ma sulla nostra capacità di saperlo gestire e misurare e su quanto sia essenziale regolamentare quella che potenzialmente potrebbe diventare un’arma fuori controllo.
.png)



Non saprei scegliere fra un'intelligenza artificiale che sbaglia obiettivo ucccidendo un civile invece che un militare, ed un militare umano che uccide un civile per scelta scellerata. L'AI non ama, ma nemmeno odia.