Tekoälyn siviilioikeudellinen vastuu on noussut keskiöön, kun koneoppivat järjestelmät alkavat yhä useammin toimia tavalla, jota kehittäjät tai käyttäjät eivät täysin hallitse. Yksi oikeudellisessa keskustelussa esiin noussut vaihtoehto on antaa tekoälylle oikeushenkilön asema. Mutta onko se oikeudellisesti mahdollista, mielekästä – tai edes toivottavaa?
1. Mikä on oikeushenkilö?
Oikeushenkilö on juridinen konstruktio, jolla annetaan toimijalle – kuten osakeyhtiölle, yhdistykselle tai säätiölle – itsenäinen oikeuskelpoisuus ja vastuu. Oikeushenkilö voi tehdä sopimuksia, omistaa omaisuutta, olla osapuolena oikeudenkäynnissä ja kantaa vastuuta.
Tässä mielessä oikeushenkilöllisyys ei ole sidottu biologiseen olemassaoloon. Siksi ajatus ei ole täysin mahdoton: jos yhtiölle voidaan antaa oikeushenkilöllisyys, miksei tekoälylle?
2. Euroopan parlamentti ja ”sähköinen persoona”
Vuonna 2017 Euroopan parlamentti ehdotti raportissaan, että erittäin autonomisille ja älykkäille roboteille voitaisiin harkita sähköisen persoonan asemaa, jotta niiden toiminnasta voitaisiin kantaa oikeudellista vastuuta. Tämä ”electronic personality” -ajatus olisi eräänlainen rajoitettu oikeushenkilöllisyys: tekoäly voisi toimia vastuunkantajana, vaikkapa rajatun vakuutusrahaston tai vastuurajoituksen puitteissa.
Ajatuksena oli nimenomaan parantaa oikeudellista ennustettavuutta tilanteissa, joissa inhimillisten toimijoiden vastuu on vaikea osoittaa – ei tehdä tekoälystä oikeuksilla varustettua subjektia ihmisen rinnalle.
3. Oikeusteoreettiset argumentit puolesta
- Oikeushenkilöys ei vaadi tietoisuutta – yhtiökään ei ole tietoinen, mutta se toimii ja kantaa vastuuta.
- Modulaarinen vastuu: Tekoäly voisi toimia esimerkiksi rekisteröidyn ohjelmistoyksikön nimissä ja kantaa sille kohdistetun vakuutuksen kautta vastuun (vrt. rajoitetun vastuun yhtiö).
- Ennakoitavuus: Oikeushenkilöllisyys mahdollistaisi ennakoitavan, selkeän vastuurakenteen kehittyneille järjestelmille.
- Innovaation edistäminen: Selkeä vastuujärjestelmä voi lisätä investointien turvallisuutta.
4. Kritiikki ja riskit
Keskustelu ei ole yksipuolista – oikeushenkilöllisyyteen liittyy myös painavia vastalauseita:
- Vastuun siirtäminen pois ihmisiltä: Suurin huoli on, että oikeushenkilöllisyys voisi toimia vastuun hajauttamisen välineenä – jolloin kehittäjät ja käyttäjät välttelevät vastuuta vetoamalla tekoälyn ”itsenäiseen päätökseen”.
- Oikeuksien ja velvollisuuksien epäsymmetria: Jos tekoälylle annetaan oikeushenkilöllisyys, pitäisikö sillä olla myös perusoikeuksia? Missä menee raja vastuullisen toimijan ja oikeustoimikelpoisen subjektin välillä?
- Valvonnan vaikeus: Kuka valvoisi tekoälyn rekisteröintiä, toimintaa ja vastuujärjestelmää? Kuka ohjelmoisi tekoälyn noudattamaan oikeudellisia normeja?
- Tehokkuusperiaate: Onko oikeushenkilöllisyys todella tehokkain tapa ratkaista vastuukysymykset, vai riittäisikö kehittäjän, käyttäjän ja valmistajan vastuun tarkentaminen?
5. Kansainvälinen näkymä
Toistaiseksi mikään valtio ei ole tunnustanut tekoälyä oikeushenkilöksi. Yhdysvalloissa ja EU:ssa lainsäätäjät ovat korostaneet ihmiskeskeisyyttä ja vastuun kohdistamista inhimillisiin toimijoihin. Esimerkiksi EU:n AI Act ei edes viittaa sähköiseen persoonaan, vaan rakentuu kehittäjän, maahantuojan ja käyttäjän vastuuketjuun.
Myös AILD-ehdotuksessa (nyt pois vedetty) korostettiin, että vastuu säilyy ihmistoimijoilla, ja todistustaakkaa kevennettiin vahingonkärsijän eduksi – ei tekoälyn oikeuskelpoisuuden vuoksi, vaan käytännön oikeusturvan parantamiseksi.
6. Entä jos emme anna tekoälylle oikeushenkilöllisyyttä?
Jos tekoälyä ei tunnusteta oikeushenkilöksi – mikä on tällä hetkellä valtavirran kanta – tarvitaan vaihtoehtoisia järjestelmiä vastuun jakamiseen:
- Vakuutuspohjainen malli: Tietyntyyppisille tekoälyjärjestelmille voidaan säätää pakollinen vastuuvakuutus.
- Rekisteröinti ja hyväksyntä: Tekoäly voitaisiin liittää rekisteröityyn toimijaan, joka on vastuussa sen toiminnasta (esim. kuten lääkelupien kohdalla).
- Vahvistettu tuotevastuu: Valmistajan ja kehittäjän vastuu voisi olla objektiivista ja automaattista ilman näyttöä tuottamuksesta.
- Valvontarajapinta ja lokitiedot: Lainsäädäntö voisi vaatia tekoälyjärjestelmiin sisäänrakennettuja mekanismeja, jotka mahdollistavat jälkikäteisen arvioinnin ja vastuun osoittamisen.
7. Johtopäätös: oikeushenkilöllisyys ei ole vielä ratkaisu – mutta keskustelu on tärkeä
Tekoälyn oikeushenkilöllisyys on ennen kaikkea oikeudellinen ajatuskoe, joka auttaa meitä tarkastelemaan vastuun, oikeuksien ja toimijuuden rajoja teknologian aikakaudella. Vaikka lainsäätäjät eivät ole tarttuneet tähän tiehen – ainakaan vielä – keskustelu paljastaa oikeusjärjestelmän rakenteellisen haasteen: miten kohdentaa vastuu, kun toimija ei ole ihminen eikä organisaatio, vaan kehittyvä ja osin itsenäinen ohjelmisto?
Kysymys ei ole ainoastaan siitä, voiko tekoäly olla vastuussa – vaan siitä, kuinka rakennamme vastuujärjestelmän, joka on teknologisesti realistinen, oikeudellisesti kestävä ja yhteiskunnallisesti hyväksyttävä.