|
The increasing use of artificial intelligence (AI) techniques in the military raises multifarious questions, related not only to the ability of Autonomous Weapon Systems (AWS) to operate within the rules that international law provides for the use of force, but also to issues of international responsibility. In the event that, on the battlefield, AWS (e.g., a drone equipped with systems to select and engage targets without the need for human intervention) decide to employ force, even lethal force, against an impermissible target (e.g., an unarmed civilian), who would be held accountable? Plenty of actors have begun to speak of possible ‘accountability gaps’. This paper addresses the issue of international state responsibility and its limitations in satisfactorily regulating scenarios that contemplate the use of AWS.; Il crescente ricorso a tecniche di intelligenza artificiale (IA) nel settore militare solleva numerosi interrogativi, legati non solo alla capacità di sistemi d’arma autonomi (secondo l’acronimo inglese, AWS) di operare nel rispetto delle regole che il diritto internazionale prevede per l’impiego della forza, ma anche a questioni di responsabilità internazionale. Nel caso in cui, sul campo di battaglia, un sistema d’arma autonomo (ad es., un drone dotato di sistemi che consentano la selezione e l’ingaggio di obiettivi senza necessità di intervento umano) decidesse di impiegare forza, anche letale, nei confronti di un obiettivo non consentito (ad es., un civile disarmato), chi ne risponderebbe? Non a torto numerosi autori e Stati hanno iniziato a parlare di possibili «vuoti di responsabilità» (accountability gaps). Il presente contributo affronta il tema della responsabilità internazionale dello Stato e dei suoi limiti nel regolare, in modo soddisfacente, scenari che contemplino l’impiego di armi autonome.
|