Valitse sivu

Oikeuspositivismin mukaan normi on pätevä, jos sen on antanut siihen oikeutettu taho oikealla tavalla. Normin sisältö ei ole pätevyyden ehto. Tällöin oikeusjärjestys on puhtaasti ihmisen luomaa, ihmisen kädenjälkeä, ihmisen toiminnan tulosta. Oikeuspositivismi on pohjana länsimaisissa oikeusjärjestelmissä.

Oikeuskelpoisuuden myöntäminen on päätös

Kysymys siitä, voidaanko tekoälylle, automaattisille tai autonomisille järjestelmille myöntää oikeuskelpoisuus, elektroninen persoona -status (ePersons) tai muita oikeuksia tai velvollisuuksia, on vähemmän mielenkiintoinen. Vastaus on yksinkertainen kyllä: kyse on vain siitä, päätetäänkö antaa tietynlainen asema näille tahoille. Elämme modernin oikeuspositivismin aikakautta, jolloin oikeusjärjestyksemme normit ovat ihmisen päättämiä, luomia ja tekemiä. Kyse on päätöksestä. 

Mielekkäämpää on kysyä: onko se kannattavaa ja tavoiteltavaa? Ketä se hyödyttää ja ketä ei? Mitä ongelmia se ei ratkaise? Mitä ongelmia se ratkaisee? Mitä ongelmia se luo? Kenen intressejä se tukee ja kenen ei? Kumpia on loppujen lopuksi enemmän: hyötyjä vai haittoja?

Euroopan parlamentin päätöslauselma 

Euroopan parlamentin päätöslauselma 16. helmikuuta 2017 suosituksista komissiolle robotiikkaa koskevista yksityisoikeudellisista säännöistä käsitellään nimensä mukaisesti yksityisoikeudellisia sääntöjä.

”Y. toteaa, että robotiikan ja tekoälyn kehittämisessä saavutetun vaiheen perusteella on asianmukaista lähteä liikkeelle yksityisoikeudellisista vastuukysymyksistä;”

Päätöslauselma ei kuitenkaan vastaa ylempänä heittämiini kysymyksiin. Se on vain reagointia siihen, missä tällä hetkellä mennään. Kysymyksiä ovat herättäneet tilanteet, jossa autonominen robotti tai järjestelmä on aiheuttanut vahingon, jota robotin valmistaja tai ohjelmiston kehittäjä ei ole voinut ennakoida. Siksi parlamentti on päättänyt lähteä vastuukysymyksistä liikkeelle. Olemme vasta vastaamassa kysymyksiin: onko kannattavaa nähdä tekoäly ja robotiikka oikeussubjekteina? Ratkaiseeko oikeuskelpoisuuden antaminen tekoälylle sen ongelman, että vahingonkärsijä saa korvauksen kärsimästään vahingosta? Pitäisikö tekoäly nähdä oikeushenkilönä, kuten yrityksetkin? Vai olisiko helpompaa rakentaa pakollinen vakuutusjärjestelmä tekoälyn ja sen innovaatioiden ympärille, samaan tapaan miten liikennevakuutukset ovat pakollisia kulkuneuvoissa?

Juristin ei ole mielenkiintoista ryhtyä tekniikan asiantuntijaksi, ja pohtia onko robotiikka ja tekoäly sillä tasolla, että ne voisivat olla vastuussa tekemisistään. Enemmänkin: onko siinä järkeä oikeusjärjestyksemme kannalta, että tekoäly nähtäisiin oikeudellisena henkilönä, joka voisi olla vastuussa aiheuttamistaan vahingoista? 

Tekoälyn vastuu valtuutuksen nojalla

Toinen tapa tarkastella autonomisia järjestelmiä, robotiikkaa ja tekoälyä ja niiden paikkaa oikeusjärjestelmässämme, on valtuutuksen kautta. Valtuutus on oikeustoimi, jolla päämies oikeuttaa toisen (edustajan) toimimaan puolestaan. Valtuutuksen tekijän (päämiehen) on oltava oikeustoimikelpoinen, mutta valtuutetun ei tarvitse olla. 

Miten vastuukysymyksiä voidaan lähestyä tilanteessa, jossa vahinko oli ennalta näkemätön ”päämiehelle”, joka käytti tekoälyä edustajana? Mireille Hildebrandt ”Law for Computer Scientists” -blogissaan esittää ratkaisuja tähän kysymykseen.

Keinotekoinen ”tekoälyinen” edustaja voidaan nähdä vain työkaluna ja ulottaa sen käyttö ankaran vastuun piiriin. Huolimattomuudella tai tarkoituksella vahingon syntymisen kannalta ei ole tällöin merkitystä, koska kyse olisi ankarasta vastuusta. Toinen suhtautumistapa voisi olla se, että laki mahdollistaisi oikeustoimien mitätöimisen, joissa tapahtuu sellainen vahinko, jota ei olla pystytty ennalta näkemään. Tällainen suhtautuminen ei kuitenkaan kannustaisi innovaatioihin ja hidastaisi teknistä kehitystä. 

Millainen olisi tekoälyn vastuu valtuutuksen nojalla, jos se olisi oikeuskelpoinen?

Entäpä jos oikeusjärjestys tunnustaisi tekoälyn oikeuskelpoiseksi toimijaksi? Jos tekoäly voitaisiin rekisteröidä esimerkiksi oikeushenkilönä, se voisi toimia päämiehen puolesta ja valtuuttamana. Jos tekoäly ylittäisi valtuutensa, päämies olisi silti vastuussa tietyissä tapauksissa tiettyjen periaatteiden ja olosuhteiden vallitessa. Tällöin tilanne ei eroaisi ankaran vastuun tilanteesta mitenkään, eli päämies olisi siltikin vastuussa. Tekoäly voisi itse olla vastuussa teoistaan, tilanteissa, joissa päämies ei olisi vastuussa, kuten jos tekoäly ylittäisi toimivaltuutensa tai kelpoisuutensa. Tällöin käytännön kannalta tekoälylle olisi pakollista perustaa jokin ”vahingonkorvausrahasto”, josta voitaisiin korvata vahingot vahinkoa kärsineille. 

Tällä hetkellä monissa oikeusjärjestelmissä tekoälyllä ei ole oikeuskelpoisuutta ja sitä voidaan lähinnä käyttää vain työkaluna. Kuitenkin on täysin mahdollista lähestyä tekoälyä toisella tavalla, myöntämällä sille oikeuskelpoisuus, jolloin se voisi itse olla vastuussa aiheuttamistaan vahingoista. 

Kysymys tekoälyn paikasta oikeusjärjestyksessämme on normatiivinen

Normatiivinen etiikka on suosituksia siitä, mitä pitäisi tehdä, kun taas deskriptiivinen etiikka kuvailee vallitsevia moraalisia instituutioita. Eli se, annetaanko tekoälylle tietty oikeudellinen asema, on normatiivinen kysymys: kannattaako niin tehdä, kuka siitä hyötyy ja kuka ei, onko se suositeltavaa ja kenen näkökulmasta.

Hyötyykö meidän yhteiskunta siitä? Kysymys on normatiivinen, eettinenkin.

-Juliana Laurila, Oikeustieteenylioppilas
Vieraileva kirjoittaja

Seuraa meitä somessa, niin pysyt aina ajan tasalla asunto- ja kiinteistöoikeudellista asioista. 

Seuraa meitä Facebookissa tästä!
Seuraa meitä LinkedInissä tästä!

Muita aiheeseen liittyviä blogikirjoituksia

Tarvitsetko apua jossain asiassa?