L’intelligenza artificiale nella difesa: la goccia sulla roccia del diritto internazionale

Qualche giorno fa, l’Ucraina ha annunciato l’intenzione di uscire dalla Convenzione di Ottawa, che proibisce l’uso delle mine antipersona. La Polonia e i Paesi baltici avevano già fatto lo stesso; Stati Uniti, Israele, Russia e Cina, per parte loro, non l’hanno mai sottoscritta. La decisione è tutt’altro che marginale: le mine antipersona, per definizione, violano il diritto umanitario internazionale, colpendo indiscriminatamente combattenti e civili anche molti anni dopo la fine delle ostilità. Ne sanno qualcosa le generazioni italiane del dopoguerra. Lo sapranno, con ogni probabilità, anche quelle ucraine: si stima che circa un quarto del territorio nazionale sia ora minato.
Ma la portata della decisione va oltre la contingenza bellica. Trasmette un messaggio politico preoccupante: quando la guerra si intensifica, i vincoli del diritto umanitario diventano negoziabili, superabili.
È un messaggio che arriva da più parti. Negli ultimi anni, la politica internazionale ha mostrato segni di regressione: è riemersa la cosiddetta gunboat diplomacy, la diplomazia della forza. Una concezione in cui il diritto di uno Stato si estende fino a dove arriva la sua capacità militare. L’invasione russa dell’Ucraina, il conflitto in corso a Gaza e persino le dichiarazioni estemporanee di Donald Trump su una possibile annessione del Canada o della Groenlandia sono variazioni contemporanee su un tema che si pensava archiviato dalla storia.
Questa logica sfida il fondamento stesso del diritto internazionale moderno: il divieto di conquista territoriale mediante la forza. L’abbandono del diritto di conquista fu il segno di un passaggio da una gestione coercitiva dei rapporti tra Stati a una regolata da norme condivise e istituzioni sovranazionali. In questo scenario, il diritto internazionale umanitario non è una pedanteria legale, ma l’espressione di un principio: anche nella guerra, ci sono limiti. È ciò che distingue un conflitto da una barbarie.
Il ritorno della gunboat diplomacy rappresenta un tentativo, neanche troppo velato, di invertire quella transizione e di superare il diritto internazionale.
l’IA applicata alla difesa potrebbe rivelarsi lo strumento decisivo per fare di questo tentativo un successo. L’uso dell’IA nella difesa consente una graduale e silenziosa erosione del diritto internazionale, potrebbe finire per ridurlo ad una struttura formale priva di efficacia. L’IA nella difesa potrebbe decretare la fine del diritto internazionale non con una rivoluzione a viso aperto, ma grazie ad una serie di infrazioni tattiche, abilmente distribuite.
La guerra in Ucraina ha segnato lo spartiacque nell’adozione della IA nella difesa, un’accelerazione non accompagnata da una regolamentazione. Nemmeno l'AI Act regola gli usi dell’IA nella difesa. Eppure in Ucraina, entrambi i fronti usano armi letali (potenzialmente) autonome prima ancora che esista un consenso sulla loro legalità. Israele ha usato IA per identificare bersagli a Gaza senza che ci fossero regole condivise sulle soglie di errore accettabili o livelli minimi di controllo umano. Intanto, i ripresentanti degli Stati Membri del gruppo delle Nazioni Uniti che lavora dal 2013 sulle armi autonome non hanno trovato un consenso neanche sulla definizione di questi sistemi d’arma.
Sarebbe naïve considerare questo vuoto regolamentativo come uno stallo temporaneo, risultato dell’annoso dilemma tra regolazione prematura ed inefficace o tardiva ed pleonastica. È qualcosa di più preoccupante: la creazione di un limbo normativo funzionale agli interessi sia degli Stati liberali sia di quelli autoritari. Entrambi convergono e alimentano un vuoto normativo pur di non limitare il potenziale dell’IA nella difesa, neanche quando questo può violare principi fondamentali come quelli di distinzione tra combattenti e non-combattenti.
Abbiamo visto lo stesso approccio alla regolamentazione delle posture internazionali con gli attacchi cyber tra Stati. In questo caso, il vuoto normativo ha facilitato posture aggressive, danni e rischi per le infrastrutture digitali dei nostri paesi. Non proprio la più illuminata delle scelte. Sarebbe bene evitarla quando dal cyber si passa alla guerra convenzionale.
La sovrapposizione tra la retorica muscolare della gunboat diplomacy e la discreta pervasività dell’IA è inquietante. Mentre l’attenzione pubblica si concentra, legittimamente, sugli effetti visibili della prima, la seconda lavora nell’ombra, erodendo lentamente la tenuta del diritto internazionale.
La soluzione non è rinunciare all’IA nella difesa, ma riconfigurare con chiarezza il perimetro normativo entro cui essa può operare. Serve un’interpretazione aggiornata dei principi del diritto umanitario internazionale che ne estenda la validità anche per le tecnologie emergenti. Il progresso tecnologico non deve coincidere con, o essere strumento di, un regresso giuridico o, peggio, con un regresso morale.
*Full Professor of Digital Ethics and Defence Technologies, Oxford Internet Institute, University of Oxford. Autrice di The Ethics of Artificial Intelligence in Defence, Oxford University Press, che sarà pubblicato in Italia da Raffaello Cortina.
La Repubblica