Etica e sistemi d’arma autonomi: la prospettiva della Croce Rossa Internazionale

Sistema aereo T-Hawk pilotato da remoto in Afghanistan Sistema aereo T-Hawk pilotato da remoto in Afghanistan © Esercito USA/CICR

A seguito di una riunione di esperti nell'agosto 2017, il CICR ha elaborato un documento in cui dichiara le sue conclusioni sulla relazione tra l’etica ed i sistemi d’arma autonomi

La discussione sulla dimensione etica del requisito del controllo umano sulle armi e conseguente uso della forza aveva l’obiettivo di valutare se il principio di umanità ed i dettami della coscienza pubblica potessero consentire ai sistemi d'arma autonomi (AWS) di prendere decisioni operative autonome e avere poteri di vita e morte. Constatata la legittimità dei due principi, che trovano riscontro giuridico nella secolare Clausola di Martens introdotta nelle Convenzioni dell'Aja, le organizzazioni umanitarie hanno avanzato, come principali contro-argomenti all’utilizzo degli AWS, le preoccupazioni sulla perdita del mandato umano, la perdita della dignità umana e l’erosione della responsabilità morale.

Per quanto riguarda il primo aspetto, il CICR ritiene che debba esserci uno standard minimo di controllo umano sull'uso di AWS, ottenibile con diversi espedienti (supervisione umana e opportunità di intervento, imposizione di controlli operativi, requisiti tecnici per una migliore prevedibilità e affidabilità, ecc.). Per preservare il mandato umano infatti, deve esserci prima di tutto una connessione diretta tra l'intenzione umana e le conseguenze dell'attacco che ne risulta.

In secondo luogo, per quanto riguarda l'elemento della dignità umana, il CICR sostiene che non possa importare  solamente se una persona viene uccisa, ma anche il modo in cui questo avviene, sottolineando ugualmente il processo decisionale quanto i risultati dell'operazione. Questi due aspetti sono strettamente interconnessi, poiché preservare il mandato umano in questi contesti è necessario a proteggere la dignità umana.

Inoltre, la necessità del mandato umano è legata ai concetti di responsabilità morale e accountability nell’attuazione dell’attacco. Infatti, ignorare l'intento di un attacco specifico annulla la responsabilità morale individuale, impedendo ulteriori considerazioni di umanità: la macchina può fornire una spiegazione causale, ma non una ragione, una giustificazione etica. Qualora mancasse poi trasparenza nel processo di interazione uomo-macchina, non è possibile attribuire responsabilità legale ad un comandante o operatore militare per le conseguenze dell'attacco.

La prevedibilità, l’accountability ed il grado di rischio sono questioni chiave considerate dalla CICR per valutare la legittimità di implementazione di AWS. La prevedibilità e l’accountability associano il mandato umano e l'intento dell’attacco al risultato finale e al suo effetto, contribuendo al livello di rischio generato dai collaterali. Gli AWS possono non soddisfare i due requisiti per molteplici motivi, sollevando quindi preoccupazioni etiche dovute alla minore prevedibilità delle conseguenze e dei rischi associati. Il problema della prevedibilità è anche legato alle eventuali incertezze della missione - derivate da vincoli temporali e spaziali e dall’ambiente operativo, dalle attività e dagli obiettivi -, ulteriormente influenzate dalle nuove applicazioni dell'intelligenza artificiale e dell'apprendimento automatico.

Pertanto, il CICR invita a considerare meglio una base etica per un controllo umano "significativo", "efficace" o "appropriato" sugli AWS, per assicurare il rispetto degli obblighi giuridici internazionali che regolano l'uso della forza nei conflitti armati e in tempo di pace. Il controllo umano, che potrebbe essere raggiunto solo imponendo maggiori vincoli all’autonomia di AWS, è necessario per salvaguardare il mandato e la dignità umana ed  assegnare responsabilità morale.

 

Per saperne di più, leggi :

https://www.icrc.org/en/document/ethics-and-autonomous-weapon-systems-ethical-basis-human-control

Letto 2892 volte