Kuka olisi vastuussa autonomisten aseiden teoista?

Kirjoittaja:

Moderni sodankäynti turvautuu yhä enemmän robottien käyttöön ja teknologian kehittyessä roboteista on mahdollista tehdä yhä autonomisempia. Robottien käyttöä sodissa perustellaan esimerkiksi sillä, että ne eivät toimisi tunteiden, kuten vihan tai koston, pohjalta, eivätkä ne väsy ja näin sorru inhimillisiin virheisiin. Ja tietysti ihmisten korvaaminen roboteilla säästäisi ihmishenkiä. Kuitenkin inhimillisten tunteiden puuttuminen ei ole pelkästään hyvä asia.

Vaarana on, että robotti ei kykenisi tekemään eroa siviilin ja sotilaan välillä, ei tunnistaisi antautuvaa taistelijaa tai pystyisi arvioimaan tilannetta inhimillisen kokemuksen valossa ja sen perusteella pidättäytyä tappamisesta. Ne voisivat tehdä tappamispäätökset itsenäisesti sen sijaan, että ihminen ohjaisi robotin toimintaa. Vaikka teknologia mahdollistaisi autonomiset robotit, liittyy niiden käyttöön lukuisia ongelmia. Yksi niistä on vastuu.

Robottien pelätään tekevän sodan aloittamisesta liian helppoa, etenkin jos ihmisten sijasta sodissa taistelisivat robotit, joita ei voida pitää vastuussa teoistaan. Vastuukysymys onkin yksi tärkeimmistä perusteista kieltää autonomiset aseet, sillä vaarana on, että ketään ei voitasi pitää vastuussa niiden teoista, jotka voisivat olla jopa sotarikoksia. Myös siviilien asema sodissa muuttuisi entistä kehnommaksi, jos kukaan ei olisi vastuussa eikä ketään rangaistaisi siviiliuhreista.

On esitetty, että robottien teoista voitaisiin pitää vastuussa esimerkiksi robotin ohjelmoijaa, komentajaa tai robottia itseään.


Kuva: GLAS-8/Flickr

Autonomiset robotit voisivat tehdä virheitä ja niiden seurauksena tappaa siviilejä. Virheet voisivat johtua ohjelmointivirheestä, mutta tästä ei voi silti syyttää ohjelmoijaa, ellei virhe johtuisi räikeästä huolimattomuudesta. Mikään järjestelmä ei ole virheetön, joten mahdollisuus siihen, että tappajarobotit syyllistyisivät sotarikoksiin olisi todennäköisesti ostajan tiedossa.

Vastuun voisi ajatella siirtyivän sille, joka päättäisi käyttää autonomista asetta huolimatta virheiden mahdollisuudesta. Mitä autonomisempi robotti olisi sitä vähemmän ohjelmoijalla on vaikutusvaltaa sen tekemiin päätöksiin taistelutilanteissa. Robotti oppisi kokemuksistaan ja hyödyntäisi tätä tietoa tulevissa päätöksissään. Se olisi siis itsenäinen toimija, joka voi tehdä valintoja. Ohjelmoijan pitämistä vastuussa robotin teoista voisi verrata tilanteeseen, jossa vanhempia pidetään vastuussa täysi-ikäisten lastensa teoista.

Komentajaa on totuttu pitämään vastuussa, jos aseet tappavat vääriä kohteita. Autonomisten aseiden autonomisuus ei kuitenkaan voi tarkoittaa pelkästään niiden mahdollisuutta toimia ennakoimattomasti. Autonomisten aseiden ero tavallisiin aseisiin on se, että ne pystyvät valitsemaan kohteensa ja tekemään tappamispäätöksen. Jos aseiden autonomia tarkoittaa sitä, että ihmisillä on vähemmän valtaa vaikuttaa niiden päätöksiin, emme voi luottaa niiden kohdistuvan pelkästään aiottuihin kohteisiin.

Autonomisten aseiden käyttöä perustellaan kuitenkin sillä, että niiden tekemät päätökset ovat luotettavampia ja tarkempia kuin ihmisten, ja tämä takia niiden käyttö olisi itse asiassa moraalisesti parempaa kuin tavanomaisten aseiden, joita operoivat ihmiset. Autonomisen robotin kohdalla emme voisi luottaa siihen, että sille annetut käskyt määräävät sen toiminnan. On mahdollista, että robotti päättäisi toimia toisin. Herääkin kysymys, voiko komentajaa pitää enää vastuussa sellaisista toimista, joita se ei voinut kontrolloida. Jos robotti todella valitsee itse kohteensa, on vaikea syyttää sen toiminnasta jotakuta muuta.

Voitaisiinko autonomista robottia siis pitää vastuussa teoistaan? Voimme osoittaa, että robotti on syyllistynyt johonkin tekoon, mutta on vaikea ajatella sen olevan moraalisesti vastuussa. Jotta joku voisi olla moraalisesti vastuussa esimerkiksi sotarikoksesta, meidän tulisi voida rangaista toimijaa. Robotin kohdalla rankaiseminen tuntuu kuitenkin oudolta, sillä rankaisemisella ei välttämättä saavutettaisi haluttuja tuloksia. Yksi sen tarkoituksista on, että rangaistus aiheuttaa jonkinlaista haittaa sen kohteelle. Hyvin pitkälle kehittynyt tekoäly voisi mahdollistaa robotilla jonkinlaisia epämiellyttäviä tuntemuksia, joita liittyy vapauden menetykseen tai robotin toimintakyvyn rajoittamiseen. Hyvin vakavista rikkomuksista robotti voitaisiin jopa tuhota. Vaikka tällaiset toimenpiteet toimisivat jonkinlaisena kostona, emme silti välttämättä kokisi, että robotti olisi todella kärsinyt.

Ongelmana on se, että robotti ei herättäisi ihmisyhteisössä empatiaa ja surua samalla tavoin kuin ihminen, jota rangaistaisiin, ja erityisesti, jos kävisi ilmi, että rangaistus oli aiheeton. Robotin kohtalo ei lopulta merkitsisi kenellekään mitään, joten sen rankaiseminen olisi pelkkä muodollisuus. Toisaalta jos robottia pidettäisiin osana ihmisyhteisöä ja se herättäisi ihmisissä tunteita, siitä tulisi moraalinen toimija, jota kohtaan meilläkin olisi velvollisuuksia. Samalla autonomisten robottien käyttöä sodissa ei voisi enää perustella sillä, että ne säästäisivät ihmishenkiä, jos robottien menetys aiheuttaisi vastaavia tuntemuksia kuin ihmissotilaan.

Sodan oikeuttamisen kannalta on ehdotonta, että joku on selkeästi vastuussa sodan tapahtumista. Vastuun ottaminen toisen kuolemasta osoittaa myös kunnioitusta vastustajan elämää kohtaan. Jos tulevaisuuden sodissa tappaminen ulkoistetaan autonomisille aseille, joiden teoista kukaan ei ole vastuussa, joudumme myös määrittelemään uudestaan moraalikäsityksemme.

Lähteet:
Sparrow, Robert (2007) “Killer Robots”, Journal of Applied Philosophy
http://www.stopkillerrobots.org/

Lehden numero: