Robottiaseet ja rauhankone – tekoälyn uhat ja mahdollisuudet

Kirjoittaja:

“Jos ihmisiltä kysytään haluavatko he että kehitetään tappajarobotteja, 80 prosenttia vastaa ei. Jos kysytään kumman haluat lähtevän sotaan, lapsesi vai robotin, 90 prosenttia valitsee robotin”, toteaa kognitiotiteen väitöskirjatutkija ja Moralities of Intelligent Machines tutkijaryhmän jäsen Mika Koverola. Hänen pääviestinsä on, että autonomiset aseet ovat aiheena monelle pelottava – ja samaan aikaan harvalla on kovinkaan realistista käsitystä siitä mitä tekoäly on.

Tekoälyt voidaan luokitella kahteen luokkaan: vahvaan tekoälyyn ja heikkoon tekoälyyn. Ensimmäisellä viitataan teknologiaan jolla on ihmisen tasoinen suorituskyky – ja jollaista ei tällä hetkellä ole olemassa. Heikkoa tekoälyä taas on jo laajalti kaikkialla yhteiskunnassa ja sitä on käytetty myös aseteknologian lisänä. Heikko tekoäly pystyy suoriutumaan yksittäisistä älyä vaativista tehtävistä.

Robottiaseet ovat autonomisia asejärjestelmiä

Autonomisella asejärjestelmällä tarkoitetaan asejärjestelmää, joka pystyy itsenäisesti päättämään tappavan voiman käytöstä. Nämä asejärjestelmät voidaan luokitella kolmeen ryhmään sen perusteella, mikä ihmisen rooli niiden käytössä on. Human in the loop –järjestelmässä asejärjestelmä kohdentaa iskun, mutta ihminen tekee päätöksen laukaisusta. Human on the loop -järjestelmässä asejärjestelmä toimii itsenäisesti mutta ihmisellä on mahdollisuus pysäyttää toiminta. Human off the loop -järjestelmässä asejärjestelmä on itsenäinen, eikä ihmistä tarvita sen toimintaan lainkaan.

Autonomisiin asejärjestelmien on ennustettu ratkaisevasti muuttavan sodankäyntiä. Niiden on muun muassa esitetty tekevän tappamisesta vähemmän henkilökohtaista, ja tätä kautta vähentävän sotilaiden psyykkistä kärsimystä. Toistaiseksi tutkimukset eivät ole tukeneet tätä väitettä. Myös sotilaallisten tappioiden on esitetty vähenevän, mutta vaikutusta siviiliuhrien määrään on mahdotonta ennustaa.

Toisaalta on riskinä, että kynnys voimankäyttöön laskee ja matalan asteen konfliktit lisääntyvät. Edessä saattaa olla myös voimatasapainon muutos. Joukkomäärään perustuva isojen valtioiden etulyöntiasema voi horjua: siinä, missä miljoonan rynnäkkökiväärin käyttöön tarvitaan miljoona sotilasta, voi miljoonaa taistelulennokkia ohjata paljon pienempi joukko.

Keinoäly sodassa ja rauhassa -seminaarin puhujat Vesa Kyyrönen, Mika Koverola ja Timo Honkela.

Kansainvälisessä oikeudessa autonomiset asejärjestelmät ovat puhuttaneet paljon viimeisen kymmenen vuoden ajan. Oikeudellinen keskustelu on ollut laajaa, sillä aihe ei rajoitu vain keskusteluun siitä onko niiden käyttö sodankäynnissä laillista vai ei, vaan myös esimerkiksi sopimusoikeudelliset aspektit ovat tärkeä osa keskustelua.

”Kansainvälinen oikeus on hyvin vakaa järjestelmä, joka perustuu siihen että olemassa olevia sopimuksia sovelletaan aina uusiin tilanteisiin”, toteaa oikeustieteen väitöskirjatutkija Vesa Kyyrönen.

”Yksi tärkeimmistä oikeudellisista normeista koskien uusia asejärjestelmiä on Geneven sopimuksen 1. lisäpöytäkirjassa oleva artikla 36. Se asettaa valtioille velvoitteen noudattaa kansainvälistä lainsäädäntöä uusia aseita kehitettäessä. Mikä tahansa ei käy.”

Lähtökohtaisesti autonomisiin asejärjestelmiin siis sovelletaan samaa laillisuusperiaatetta kuin perinteisempiin asejärjestelmiin. Kansainvälinen oikeus määrittää tiettyjä reunaehtoja, joiden tulee asejärjestelmien kohdalla täyttyä. Niitä ovat esimerkiksi erotteluperiaate, jonka mukaan asetta on oltava mahdollista käyttää niin, että taistelutilanteessa on mahdollista erottaa taistelun ulkopuolella olevat henkilöt.

Keinoäly rauhantekijänä

Mutta voisiko tekoälyn valjastaa sotateollisuuden sijaan palvelemaan rauhantyötä? Vastaus on kyllä, mikäli kysytään tekoälytutkijalta ja digitaalisten aineistojen tutkimuksen professorilta Timo Honkelalta. Hän on kehitellyt ajatuksen ’rauhankoneesta’. Ideana on, että tekoäly voi auttaa meitä ymmärtämään sekä omia että muiden tunteita. Parempi tunnemaailman ymmärrys auttaa ihmistä välttämään väkivaltaa ja sen sijaan kannustaa ennakoivaan neuvottelemiseen.

”Keskiössä on siis ihmisen tunnekokemus, ja se miten tunnekokemus vaikuttaa meihin ja millaisiin reaktioihin se johtaa,” Honkela selittää. ”Kyse on lisäksi pitkälti kielestä ja siitä, miten hahmotamme maailmaa. Ihminen toimii kieli- ja käsitejärjestelmän kautta, ja niin hieno kuin se järjestelmä onkin, siihen liittyy myös ongelmia. Ihmisten käsitykset asioista voivat poiketa merkittävästi toisistaan, mikä voi johtaa väärinymmärryksiin. Mitä esimerkiksi tarkoitetaan oikeudenmukaisuudella?”.

Rauhankone ei siis ole yksittäinen kone, vaan tekoälyn mahdollistama matalantason toimintaan perustuva laite tai sovellus, jollainen jokaisella ihmisellä voisi olla. Laite voisi auttaa analysoimaan merkityksiä ja siten lisäämään ymmärrystä ihmisten välillä, ja täten luomaan paremmat edellystykset ihmisten väliselle kunnioitukselle. ”Elämme maailmassa, jossa asiat ovat hyvin monimuotoisia. Suuri kysymys on siinä, miten lähestyä toisia ihmisiä rakentavalla, eikä tuhoavalla tavalla. Ajatukseni on, että nämä rauhankoneet voivat auttaa meitä tässä.”

Onko tekoäly uhka vai mahdollisuus?

Koverolan näkemyksen mukaan riski ei niinkään ole tekoäly itsessään, vaan ne epäterveet kehityssuunnat nyky-yhteiskunnassa, joita keinoäly voi nopeuttaa. Esimerkiksi ihmisten valvonta voi tekoälyn mahdollistaman teknologian myötä tulla huomattavasti helpommaksi. ”Tekoälyn kehitystä ei voi pysäyttää, enkä usko että edes haluamme sitä tehdä. Mutta se, mitä tulisi tehdä, on pitää huoli että kehitystä ohjataan parempaan suuntaan. Mitä laajemmin eettisiä ja moraalisia ongelmia huomioidaan näissä kehityskuluissa, sitä enemmän näin voidaan tehdä.”

Honkela on samoilla linjoilla. ”Rauhankoneen konseptissa ajatus lähtee siitä, että voimme vaikuttaa maailmaan siten että siitä tulee rauhanomaisempi sen sijaan että tuotetaan pahuutta ja kärsimystä.” Honkela myös pitää tärkeänä kansalaisyhteiskunnan roolia rauhankoneen kehittelyssä. ”Konseptin eteenpäin viemisessä tärkeää on yhteiskunnallisen keskustelu. Sitä tarvitaan muun muassa arvopohjan muotoilussa. Kun esimerkiksi kehitetään tiettyä järjestelmää, sillä tulisi luottamuksen ylläpitämiseksi olla avoin lähdekoodi.”

Kyyrönen ei myöskään usko että tekoälyn kehitystä voi pysäyttää. ”Tekoäly tulee olemaan osa tulevaisuuden yhteiskuntia. On vaikea nähdä vielä, mihin kaikkeen tekoälyllä vahvistetut asejärjestelmät kehittyvät tulevaisuudessa. Kansainvälinen oikeus lähtee siitä standardista, että jokainen asejärjestelmä arvioidaan aina yksi kerrallaan ja pidän tätä hyvänä lähtökohtana myös autonomisten asejärjestelmien kohdalla. Lisäksi suhtaudun skeptisesti täyskieltojen toimivuuteen – etenkin jos ne eivät ole globaalilla tasolla saavutettuja vaan yksittäisten valtioiden tekemiä.”

Katso lisää rauhanjärjestöjen robottiase-kampanjoinnista:

 

Artikkeli pohjautuu 22.11.2017 järjestettyyn seminaariin ’Keinoäly sodassa ja rauhassa’. Seminaarin puhujina olivat Vesa Kyyrönen, Timo Honkela ja Mika Koverola.

Lehden numero: