Tekoälyjärjestelmät tekevät yhä useammin päätöksiä, jotka vaikuttavat konkreettisesti ihmisten oikeuksiin, turvallisuuteen ja omaisuuteen. Mutta mitä tapahtuu, kun tekoälyjärjestelmä aiheuttaa vahinkoa – ja kuka siitä vastaa? Lue lisää: Tekoälyn siviilioikeudellinen vastuu – mitä nyt, kun AILD kaatui?
Euroopan komissio pyrki vastaamaan tähän haasteeseen julkaisemalla vuonna 2022 ehdotuksen tekoälyn siviilioikeudelliseksi vastuudirektiiviksi (Artificial Intelligence Liability Directive, AILD). Tarkoituksena oli helpottaa vahingonkärsijöiden asemaa ja yhdenmukaistaa vastuusääntöjä tekoälyn osalta EU:n alueella. Helmikuussa 2025 komissio kuitenkin veti ehdotuksensa pois – mutta se ei tarkoita, että keskustelu olisi päättynyt. Päinvastoin: nyt kysytään, millä keinoin tekoälyn aiheuttamien vahinkojen korvausvastuu tulisi tulevaisuudessa ratkaista.
1. Mikä oli AILD ja mitä se tavoitteli?
AILD-ehdotuksen ytimessä oli ei-sopimukseen perustuvan siviilioikeudellisen vastuun sääntely tilanteissa, joissa tekoälyjärjestelmän toiminta tai käyttö aiheuttaa vahinkoa. Ehdotuksen tavoitteet olivat kolmeen pääkohtaan tiivistettävissä:
- Todistustaakan keventäminen: Vahingonkärsijän ei tarvitsisi osoittaa, miten tekoäly aiheutti vahingon – erityisesti korkean riskin tekoälyjärjestelmien kohdalla.
- Vastuun selkeyttäminen: Tavoitteena oli luoda oikeudellinen kehys, jossa määriteltäisiin, milloin kehittäjä, tarjoaja tai käyttäjä on vastuussa tekoälyn aiheuttamasta vahingosta.
- Yhdenmukaisuus EU:ssa: Pyrkimyksenä oli yhdenmukaistaa toimintatapoja ja näin estää jäsenvaltioiden välisiä ristiriitoja vastuukäytännöissä sekä lisätä oikeusvarmuutta tekoälymarkkinoilla.
Direktiiviehdotus olisi täydentänyt muuta sääntelyä, kuten tuotevastuudirektiiviä ja AI Actia. Ehdotuksella ei olisi säädetty tekoälylle itsenäistä oikeushenkilöllisyyttä. Direktiiviehdotuksen periaatteena oli, että vahingonkorvausvastuu säilyy ihmistoimijoilla – mutta vahingonkorvausvastuun perusteen olemassaolon arviointia helpotetaan tekoälyn teknisen erityisluonteen vuoksi.
2. Miksi AILD-ehdotus vedettiin pois?
Helmikuussa 2025 Euroopan komissio ilmoitti vetävänsä AILD-ehdotuksen pois. Päätöksen taustalla oli useita tekijöitä:
- Yhteisymmärryksen puute: Neuvoston ja parlamentin välillä ei ollut näköpiirissä poliittista tahtoa viedä ehdotusta maaliin.
- Teollisuuden kritiikki: Useat teollisuudenalat näkivät AILD:n lisäävän oikeudellista epävarmuutta ja sääntelytaakkaa. Kahdentoista järjestön muodostama koalitio, mukaan lukien MedTech Europe, kehotti avoimesti vetämään ehdotuksen pois.
- Sääntelyn päällekkäisyys: Samaan aikaan uudistettiin tuotevastuudirektiiviä ja viimeisteltiin AI Actia. AILD nähtiin monien mielestä liiallisena tai epäselvänä lisäyksenä jo tiivistyvään voimaan tulevaan sääntely-ympäristöön.
- Kilpailukykypaineet: AILD:n pelättiin hidastavan innovaatioita etenkin verrattuna Yhdysvaltoihin ja Aasiaan, joissa siviilioikeudellinen vastuu jätetään usein oikeuskäytännön ratkaistavaksi.
Komission virallinen viesti oli, että sääntelyä arvioidaan uudelleen ja mahdollisista jatkotoimista tiedotetaan myöhemmin.
3. Mitä vaihtoehtoja jää jäljelle?
Vaikka AILD vedettiin pois, tekoälyn siviilioikeudellisen vastuun sääntelytarve ei ole kadonnut. Komissio voi esittää uudenlaisia sääntelyehdotuksia tai jättää enemmän vastuuta jäsenvaltioiden kansalliselle lainsäädännölle.
Alla on hahmoteltu neljä mahdollista tulevaisuuden lähestymistapaa:
3.1. Uusi, selkeämpi direktiiviehdotus myöhemmin
Komissio voi palata asiaan myöhemmin esittämällä uudistetun ehdotuksen, jossa vältetään AILD:n kritisoituja piirteitä (esim. epäselvä soveltamisala, monimutkainen todistustaakkajärjestelmä). Uudessa ehdotuksessa voitaisiin esimerkiksi:
- Rajoittaa soveltamisala vain tietyntyyppisiin korkeaa riskiä aiheuttaviin tekoälyjärjestelmiin.
- Tukeutua suoremmin AI Actin määritelmiin ja sääntelyrakenteisiin.
- Perustaa malli laajennettuun tuotevastuuseen ja lakisääteisiin vakuutuksiin.
Tämä olisi poliittisesti haastavaa, mutta teknisesti mahdollista – etenkin, jos AI Actin toimeenpano osoittaa käytännön puutteita vastuukysymyksissä.
3.2. Kansallisten lakien kautta sääntelyä – hajautettu malli
Jos EU-tasolla ei synny uutta ehdotusta, vastuu voi siirtyä jäsenvaltioiden omaan sääntelyyn. Esimerkiksi:
- Sisällyttää tekoälyä koskevia vastuusäännöksiä jo olemassa olevaan hallinto- ja vahingonkorvauslainsäädäntöön.
- Säätää uusia nimenomanaan tekoälyä koskevia lakeja.
- Jättää uuden lainsäädännön laatimatta ja nojautua täysin yleisiin vahingonkorvausoikeuden periaatteisiin, jolloin tuleva oikeuskäytäntö muovaa näiden periaatteiden soveltamista tekoälyyn.
Tämän mallin heikkoutena olisi se, että oikeudellinen yhtenäisyys EU:n sisällä rapautuisi, ja toimijoiden olisi vaikeampi arvioida vastuunsa rajat eri markkinoilla.
3.3. Tuotevastuudirektiivin uudistus riittäväksi perustaksi?
Komission hanke, Product Liability Directive (PLD), on parhaillaan uudistettavana. Hanke ulottuu jatkossa myös ohjelmistoihin ja tekoälyjärjestelmiin. Joissain kommenteissa on esitetty, että uudistettu PLD voisi riittää kattamaan tekoälyn vahinkotilanteet – ainakin silloin, kun kyse on virheellisestä tuotteesta.
Tämä ratkaisu ei kuitenkaan kata tilanteita, joissa tekoäly toimii “virheettömästi” teknisesti, mutta lopputulos on oikeudellisesti tai eettisesti ongelmallinen (esim. syrjivä algoritmi).
3.4. Vahvempi rooli tuomioistuimille ja oikeuskäytännölle
Eräs käytännöllinen vaihtoehto on jättää tekoälyn vastuu tuomioistuinten oikeuskäytännön kehitettäväksi, erityisesti common law -maissa (esim. Irlanti) ja osin myös siviilioikeudellisissa järjestelmissä.
Tuomioistuimet voisivat kehittää uudenlaisia tulkintalinjoja siitä, milloin tekoälyn käyttö on ollut huolimatonta tai milloin toimija on vastuussa tekoälyn “päätöksistä”. Tämä kehitys olisi kuitenkin hidasta ja epäyhtenäistä – eikä tarjoaisi sääntelyvarmuutta alan toimijoille.
Tämä vaihtoehto sopii huonosti civil law -maihin, joihin pääosa Euroopan valtioista lukeutuu. Civil law -järjestelmässä aktiivinen rooli on lain säätäjällä, eikä tuomioistuimella / oikeuskäytännöllä. Peruste yksittäistapauksen ratkaisemiseen haetaan lähtökohtaisesti laista -ennakkopäätösten rooli tulee kysymykseen lähinnä tapauksissa, joihin laki ei anna vastausta.
Civil law -järjestelmässä olisi hankala nähdä (käytännön tasolla likipitäen mahdotonta), että tekoälyn vastuu rinnastuisi ns ankaraan vastuuseen tai että tekoälyllä olisi itsenäisen oikeushenkilön piirteitä, ellei tällaisista olisi laissa nimenomaisesti säädetty. Tämän vuoksi ratkaisun jättäminen oikeuskäytännön varaan ei ole toimiva järjestely Suomessa, eikä missään muussakaan civil law -maassa.
4. Lopuksi – ratkaisu on välttämätön, suunta avoin
AILD-direktiivin poisvetäminen ei tarkoita, että tekoälyn vastuukysymykset olisi ratkaistu – päinvastoin, ne ovat nyt ehkä vielä näkyvämmässä roolissa. Yritykset, kuluttajat ja julkishallinto tarvitsevat selkeän kehyksen, jonka mukaan tekoälyjärjestelmien aiheuttamia vahinkoja käsitellään oikeudellisesti.
Olipa tuleva ratkaisu uusi EU-direktiivi, päivitetty tuotevastuusääntely tai kansallinen lainsäädäntö, yksi asia on selvä: tekoälyn oikeudellinen vastuukysymys on pysyvä osa tulevaisuuden oikeuskäytäntöä – ja oikeudellisella yhteisöllä on keskeinen rooli sen hahmottamisessa.
Kun tekoälyä jo nyt käytetään hyvin yleisesti erilaisissa tilanteissa, on täysin selvää, että tilanteita, joissa tekoäly aiheuttaa vahinkoa tulee yhtä enenevä määrä. Meillä ei kuitenkaan ole oikeudellisia valmiuksia näitä tilanteita ratkaista.