Arma autònoma letal
Les armes autònomes letals (AAL) són un tipus de sistema autònom d'ús militar que pot buscar objectius de manera independent i involucrar-se (habitualment la neutralització de l'objectiu) segons les descripcions i restriccions prèviament programades informàticament.[1] Les AAL també es coneixen com a sistemes d'armes autònomes letals, sistemes d'armes autònomes, armes robòtiques, robots assassins.[2] Les AAL poden funcionar a l'aire, a terra, a l'aigua, sota l'aigua o a l'espai. L'autonomia dels sistemes actuals a partir del 2018 es va restringir en el sentit que un ésser humà dona l'ordre final d'atacar, tot i que hi ha excepcions amb certs sistemes "defensius".
Aspectes ètics i legals
[modifica]Possibles violacions de l'ètica i de lleis internacionals
[modifica]Stuart Russell, professor d'informàtica de la Universitat de Califòrnia a Berkeley, va afirmar la seva preocupació per les AAL, que veu són ètiques i inhumanes. El principal problema d'aquest sistema és que és difícil distingir entre combatents i no combatents.[3]
Alguns es preocupen (per exemple, Noel Sharkey 2012) sobre si les AAL violarien el dret internacional humanitari (DIH), especialment el principi de distinció, que requereix la capacitat de discriminar els combatents dels no combatents, i el principi de proporcionalitat, que requereix que els danys als civils siguin proporcionals a l'objectiu militar.[4] Sovint s'invoca aquesta preocupació com a motiu per prohibir del tot els “robots assassins”, però és dubtós que aquesta preocupació pugui ser un argument contra les AAL que no violin el dret internacional humanitari.[5][6][7]
Un informe del 2021 del Servei de Recerca del Congrés dels Estats Units afirma que "no hi ha prohibicions legals nacionals o internacionals sobre el desenvolupament de l'ús de les AAL", tot i que reconeix les converses en curs en el Conveni de les Nacions Unides sobre certes armes convencionals.[8]
Alguns diuen que les AAL difuminen els límits de qui és responsable d'un assassinat en particular.[9] El filòsof Robert Sparrow argumenta que les armes autònomes són responsables, però no moralment, de manera similar als nens soldats. En cada cas, argumenta que hi ha el risc que es produeixin atrocitats sense que un subjecte adequat en faci responsable, cosa que viola el jus in bello.[10] Thomas Simpson i Vincent Müller argumenten que poden facilitar saber qui va donar quina ordre.[11] De la mateixa manera, Steven Umbrello, Phil Torres i Angelo F. De Bellis argumenten que si les capacitats tècniques de les AAL fossin almenys tan precises com els soldats humans, donades les deficiències psicològiques dels soldats humans en la guerra, només s'haurien d'utilitzar aquests tipus de AAL ètiques. De la mateixa manera, proposen utilitzar l'enfocament del disseny sensible al valor com a marc potencial per dissenyar aquestes AAL per ajustar-les als valors humans i al dret internacional humanitari.[6] A més, les possibles infraccions del DIH per les AAL només són aplicables, per definició, en entorns de conflicte que impliquen la necessitat de distingir entre combatents i civils. Com a tal, qualsevol escenari de conflicte sense presència de civils, és a dir, a l'espai o a la mar profunda, no toparia amb els obstacles que planteja el DIH.[12]
Campanyes per prohibir les AAL
[modifica]La possibilitat d'AAL ha generat un debat significatiu, especialment sobre el risc que "robots assassins" vagin per la terra, en un futur proper o llunyà. El grup Campaign to Stop Killer Robots es va formar el 2013. El juliol de 2015, més de 1.000 experts en intel·ligència artificial van signar una carta advertint de l'amenaça d'una carrera armamentista d'intel·ligència artificial i demanant la prohibició de les armes autònomes. La carta es va presentar a Buenos Aires a la 24a Conferència Internacional Conjunta sobre Intel·ligència Artificial (IJCAI-15) i va ser co-signada per Stephen Hawking, Elon Musk, Steve Wozniak, Noam Chomsky, Jaan Tallinn o Demis Hassabis, entre d'altres.[13][14]
Segons PAX For Peace (una de les organitzacions fundadores de The Campaign to Stop Killer Robots), les AAL reduiran el llindar d'anar a la guerra a mesura que els soldats siguin retirats del camp de batalla i el públic estigui distanciat de prendre part en la guerra, donant als polítics i altres responsables de la decisió més espai per decidir quan i com anar a la guerra.[15] Adverteixen que un cop desplegats, les AAL dificultaran el control democràtic de la guerra, cosa que l'autor de Kill Decision, una novel·la sobre el tema, de l'especialista en informàtica Daniel Suarez, també va advertir que podrien recentralitzar el poder en poques mans, requerint molt poca gent per anar a la guerra.[15]
Hi ha llocs web que protesten contra el desenvolupament de les lleis presentant ramificacions indesitjables si continuen les investigacions sobre l'aparell d'intel·ligència artificial per a la designació d'armes. En aquests llocs web, les notícies sobre qüestions ètiques i legals s'actualitzen constantment perquè els visitants recuperin les notícies recents sobre reunions internacionals i articles de recerca relacionats amb les AAL.[16]
La Santa Seu ha demanat a la comunitat internacional que prohibeixi l'ús d'AAL en diverses ocasions. El novembre de 2018, l'arquebisbe Ivan Jurkovic, observador permanent de la Santa Seu davant les Nacions Unides, va afirmar que "Per evitar una cursa d'armaments i l'augment de les desigualtats i la inestabilitat, és un deure imperatiu actuar amb celeritat: ara és l'hora d'evitar que les AAL es converteixin en la realitat de la guerra del demà". L'Església es preocupa perquè aquests sistemes d'armes tinguin la capacitat d'alterar irreversiblement la naturalesa de la guerra, ... posant en dubte la humanitat de les societats.[17]
A partir del 29 de març de 2019, la majoria dels governs representats en una reunió de l'ONU per debatre el tema van afavorir la prohibició de les AAL.[18] Una minoria de els governs, inclosos els d'Austràlia, Israel, Rússia, el Regne Unit i els Estats Units, es van oposar a la prohibició.[18]
No prohibir-les, regular-les
[modifica]Un tercer enfocament se centra en regular l'ús de les AAL en lloc d'una prohibició.[19] El control d'aquestes armes probablement requerirà la institucionalització de noves normes internacionals incorporades a especificacions tècniques efectives combinades amb un seguiment actiu i una diplomàcia informal per part de comunitats d'experts, juntament amb un procés de verificació legal i política.[20][21][22][23]
Referències
[modifica]- ↑ Crootof, Rebecca «The Killer Robots Are Here: Legal and Policy Implications». 36 Cardozo L. Rev, 2015, pàg. 1837.
- ↑ Johnson, Khari. «Andrew Yang warns against 'slaughterbots' and urges global ban on autonomous weaponry». venturebeat.com. VentureBeat, 31-01-2020. [Consulta: 31 gener 2020].
- ↑ Russell, Stuart «Take a stand on AI weapons». International Weekly Journal of Science, vol. 521, 27-05-2015.
- ↑ Sharkey, Noel E. «The evitability of autonomous robot warfare*» (en anglès). International Review of the Red Cross, vol. 94, 886, 6-2012, pàg. 787–799. DOI: 10.1017/S1816383112000732. ISSN: 1816-3831.
- ↑ Müller, Vincent C. «Autonomous killer robots are probably good news» p. 67–81. Ashgate, 2016.
- ↑ 6,0 6,1 Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. «The future of war: could lethal autonomous weapons make conflict more ethical?» (en anglès). AI & Society, vol. 35, 1, 01-03-2020, pàg. 273–282. DOI: 10.1007/s00146-019-00879-x. ISSN: 1435-5655.
- ↑ Umbrello, Steven; Wood, Nathan Gabriel «Autonomous Weapons Systems and the Contextual Nature of Hors de Combat Status». Information, vol. 12, 5, 20-04-2021, pàg. 216. DOI: 10.3390/info12050216.
- ↑ Kelley M. Sayler (June 8, 2021). Defense Primer: Emerging Technologies. Congressional Research Service.
- ↑ Nyagudi, Nyagudi Musandu. «Doctor of Philosophy Thesis in Military Informatics (OpenPhD #openphd) : Lethal Autonomy of Weapons is Designed and/or Recessive», 09-12-2016. Arxivat de l'original el 2017-01-07. [Consulta: 6 gener 2017].
- ↑ SPARROW, ROBERT «Killer Robots». Journal of Applied Philosophy, vol. 24, 1, 2007, pàg. 62–77. ISSN: 0264-3758.
- ↑ Simpson, Thomas W «Just war and robots' killings». Philosophical Quarterly, vol. 66, 263, 2016, pàg. 302–22. DOI: 10.1093/pq/pqv075.
- ↑ Boulanin et al., “Limits on Autonomy in Weapon Systems,” SIPRI & ICRC (2020): 37.
- ↑ «Musk, Hawking Warn of Artificial Intelligence Weapons». WSJ Blogs - Digits, 27-07-2015. [Consulta: 28 juliol 2015].
- ↑ Gibbs, Samuel «Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons». The Guardian, 27-07-2015 [Consulta: 28 juliol 2015].
- ↑ 15,0 15,1 «Deadly Decisions - 8 objections to killer robots». [Consulta: 2 desembre 2016].
- ↑ «Front page» (en anglès). Ban Lethal Autonomous Weapons, 10-11-2017.
- ↑ «Holy See renews appeal to ban killer robots» (en anglès). Catholic News Agency.
- ↑ 18,0 18,1 Gayle, Damien. «UK, US and Russia among those opposing killer robot ban». the Guardian, 29-03-2019. [Consulta: 30 març 2019].
- ↑ Bento, Lucas. «No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law». Harvard Scholarship Depository, 2017. [Consulta: 14 setembre 2019].
- ↑ Geist, Edward Moore «It's already too late to stop the AI arms race—We must manage it instead». Bulletin of the Atomic Scientists, vol. 72, 5, 15-08-2016, pàg. 318–321. Bibcode: 2016BuAtS..72e.318G. DOI: 10.1080/00963402.2016.1216672. ISSN: 0096-3402.
- ↑ Maas, Matthijs M. «How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons». Contemporary Security Policy, vol. 40, 3, 06-02-2019, pàg. 285–311. DOI: 10.1080/13523260.2019.1576464. ISSN: 1352-3260.
- ↑ Ekelhof, Merel «Moving Beyond Semantics on Autonomous Weapons: Meaningful Human Control in Operation» (en anglès). Global Policy, vol. 10, 3, 2019, pàg. 343–348. DOI: 10.1111/1758-5899.12665. ISSN: 1758-5899.
- ↑ Umbrello, Steven «Coupling levels of abstraction in understanding meaningful human control of autonomous weapons: a two-tiered approach» (en anglès). Ethics and Information Technology, 05-04-2021. DOI: 10.1007/s10676-021-09588-w. ISSN: 1572-8439.