Johdanto:

Tekoälyä hyödyntävät organisaatiot kohtaavat uusia oikeudellisia haasteita tekijänoikeuksien ja muiden rekisteröityjen immateriaalioikeuksien saralla. Kun tekoälyä käytetään sisällön luomiseen tai päätöksentekoon, voi seurauksena olla tekijänoikeuden, tavaramerkkien, patenttien tai mallioikeuksien loukkauksia. Voiko tekoäly loukata tekijänoikeutta?

Tämä artikkeli on suunnattu organisaatioiden johdolle, lakiasiantuntijoille ja tekoälyratkaisujen kehittäjille. Artikkeli käsittelee kattavasti, miten tekoälyn käyttö kytkeytyy immateriaalioikeuksiin erityisesti Suomen ja EU:n oikeuden näkökulmasta. Aihetta tarkastellaan pohdiskelevasti ja monesta kulmasta, viitaten ajankohtaiseen sääntelyyn, oikeuskäytäntöön sekä viranomaisten linjauksiin.

1. Tekoälyn koulutusaineiston käyttö ja tekijänoikeudelliset riskit

Tekstin- ja tiedonlouhinnan poikkeus (DSM-direktiivi):
Tekoälyn kouluttaminen tapahtuu tyypillisesti syöttämällä algoritmille valtavia määriä dataa (tekstiä, kuvia, koodia, tms.), jotta tekoäly oppii tunnistamaan malleja ja tuottamaan ennusteita. Mikäli tässä koulutusdatassa on tekijänoikeudella suojattua materiaalia, nousee esiin kysymys: onko kopiointi ja käyttö sallittua ilman lupaa?

Ennen vuotta 2023 Suomen tekijänoikeuslaissa ei ollut nimenomaista poikkeusta, joka sallisi teosten kopioinnin tekoälyn opettamista varten​. EU:n ns. DSM-direktiivi (2019/790) toi kuitenkin uusia tekijänoikeuden rajoituksia, erityisesti tekstin- ja tiedonlouhintaa koskevat artiklat 3 ja 4.

Suomessa nämä on pantu täytäntöön tekijänoikeuslain muutoksella (voimaan 2023), jossa säädettiin uudesta 13 b §:stä​. Tekijänoikeuslain 13 b § sallii teosten kappaleiden valmistamisen tekstin- ja tiedonlouhintaa varten tietyin ehdoin​.

Ensinnäkin vaaditaan, että käyttäjällä on laillinen pääsy aineistoon – toisin sanoen teos on oikeudenhaltijan luvalla saatavilla (esim. julkaistu internetissä vapaasti tai hankittu lisenssillä)​.

Toiseksi oikeudenhaltija voi nimenomaisesti kieltää teoksensa käytön tekstin- ja tiedonlouhintaan joko sopimusehdoin tai teknisin keinoin (esim. metadataan liitetyllä TDM-varauksella)​. Jos tällaista nimenomaista varaumaa ei ole tehty, saa teoksen kopioida ja säilyttää louhintaa varten.

Sen sijaan tieteelliseen tutkimukseen liittyvä tekstin- ja tiedonlouhinta on vieläkin laajemmin sallittua: tutkimusorganisaatiot ja kirjastot voivat tehdä ja säilyttää teoskappaleita tutkimusprojektin tekstinlouhintaa varten, eikä tekijä voi estää tätä sopimuksin​.

Nämä uudet poikkeukset perustuvat DSM-direktiiviin – tutkimuskäyttöön tarkoitettu poikkeus on direktiivissä pakollinen, kun taas kaupalliseen / yleiseen käyttöön tarkoitettu poikkeus oli jäsenmaille harkinnanvarainen​.

Riskit ja epäselvyydet koulutusaineiston käytössä:
Vaikka 13 b § antaa uuden mahdollisuuden hyödyntää olemassa olevia aineistoja tekoälyn koulutuksessa, siihen liittyy epävarmuuksia. DSM-direktiivissä ei mainittu tekoälyä tai koneoppimista erikseen, eikä Suomen lain esitöissäkään tätä kysymystä ole avattu​. Onkin osin tulkinnanvaraista, kattaako tekstin- ja tiedonlouhinnan poikkeus nimenomaan laajamittaisen tekoälyjen kouluttamisen.

Laajasti tulkiten 13 b § voidaan nähdä soveltuvan myös tekoälyn opettamiseen, koska koneoppiminen nojaa olennaisesti datan louhintaan​. Toisaalta on argumentteja, joiden mukaan tekoälymallin tallentama tieto ei ole vain “analyysia” vaan saattaa sisältää osia suojatuista teoksista pysyvämmin, mikä menisi poikkeuksen ulkopuolelle​. Tällä hetkellä asiasta ei ole vielä oikeuskäytäntöä; linjaukset täsmentyvät ajan myötä tuomioistuimissa tai viranomaisten ohjeistuksissa​.

On hyvä huomata, että 13 b §:n soveltuminen edellyttää oikeudenhaltijan mahdollisuutta kieltää käyttö.

Käytännössä ennen vuotta 2023 julkaistu aineisto on voitu kerätä tekoälyjen oppiaineistoksi aikana, jolloin tekijöillä ei ollut vielä tietoa tai keinoja estää louhintaa. Monien nykyisten tekoälyjen taustalla onkin massiiviset internetin tietoaineistot, joiden osalta lupia ei ilmeisesti ole pyydetty​. Tekoälyn kouluttaminen tällaisella materiaalilla liikkuu harmaalla alueella – Yhdysvalloissa vastaavaa on puolustettu fair use -opilla (kohtuullinen käyttö), mutta EU:ssa nojaudutaan tarkempiin poikkeussäännöksiin​.

Mikäli organisaatio kouluttaa tekoälymallin itse, riskinä on tekijänoikeuden loukkaus, jos data sisältää suojattuja teoksia eikä käyttöön sovellu poikkeus tai lupa.

DSM-direktiivin implementointi Suomessa:
Suomessa DSM-direktiivin mukaiset poikkeukset on siis sisällytetty lakiin, mutta ilman nimenomaista mainintaa tekoälystä. Tekijänoikeuslain 13 b § jakautuu kahteen osaan:

1) Yleinen louhintapoikkeus (joka kattaa myös kaupalliset käyttötarkoitukset) – oikeudenhaltija voi kieltää tämän käytön etukäteen, ja

2) Tutkimuspoikkeus – pakottava poikkeus tieteelliseen tutkimukseen, jota ei voi rajoittaa​.

Oikeudenhaltijat voivat toteuttaa kielto-oikeuttaan esimerkiksi asettamalla verkkoon sisältöä, jonka metatiedoissa ilmoitetaan, ettei sisältöä saa käyttää tekoälyjen koulutukseen​.

On syytä seurata, miten eri EU-maat tulkitsevat poikkeuksia; direktiivin jättämä liikkumavara voi johtaa tulkintaeroihin​.

Musiikki- ja kuvataiteen aloilla tekijät ovat vaatineet, ettei tekoälylle anneta uusia erityisvapauksia: tekoälynkin on noudatettava samoja pelisääntöjä kuin muut – oikeudenhaltijoiden luvatta teoksia ei saisi käyttää koulutusaineistona​.

Licensointi ja sopimuskeinot:
Poikkeusten ohella toinen lähestymistapa on huolehtia aineistojen lisensoinnista. Suomessa on pitkä perinne sopimuslisenssijärjestelmistä, joiden avulla laajojakin aineistomassoja voidaan lisensoida kollektiivisesti​.

Tekijänoikeusjärjestöt (kuten Kopiosto, Teosto, Sanasto) ovat ryhtyneet pohtimaan ratkaisuja, joilla tekoälyn koulutusdatan käyttö voitaisiin sopimusperusteisesti sallia korvausta vastaan​.

Myös kansainvälisesti isot toimijat ovat tehneet lisenssidiilejä: esimerkiksi OpenAI on ilmoittanut lisensoineensa kuvapankkien materiaalia parantaakseen kuvanluontimallien laillisuutta​.

Organisaatioiden kannattaa selvittää, onko tarvittava data saatavilla lisensoiden tai avoimella lisenssillä (kuten Creative Commons), mikä pienentää riskiä huomattavasti.

Yhteenveto: Tekoälyn koulutusaineiston käyttöön liittyy merkittäviä tekijänoikeudellisia kysymyksiä. Uusi lainsäädäntö (DSM-direktiivi / tekijänoikeuslaki 13 b §) antaa jonkinlaisen pohjan aineiston louhintaan, mutta tulkinnanvaraa on. Organisaatioiden tulisi varmistaa, että koulutusdata on hankittu laillisesti: joko poikkeusten sallimissa rajoissa tai oikeudenhaltijoiden luvalla. Muutoin on vaarana, että jo tekoälyn opetusvaiheessa syntyy luvattomia kappaleen valmistamisia, jotka voivat johtaa korvausvaatimuksiin.

2. Tekoälyn tuottamat sisällöt ja immateriaalioikeusloukkaukset

Tekoälyn avulla voidaan luoda hämmästyttävän aidon tuntuisia tekstejä, kuvia, ohjelmakoodia, musiikkia ja muita sisältöjä. Vaikka nämä tuotokset saattavat muodollisesti olla uusia, ne eivät synny tyhjästä – tekoäly mallintaa olemassa olevaa aineistoa. Siksi herää kysymys: voivatko tekoälyn tuottamat sisällöt loukata jonkun toisen immateriaalioikeuksia?

Alla tarkastellaan erikseen tekijänoikeutta, tavaramerkkejä, patentteja ja mallioikeuksia tämän kysymyksen valossa.

AI-tuotos ja olemassa olevien teosten samankaltaisuus:
Yksi keskeinen riski on, että tekoäly tuottaa teoksen, joka on suojatun teoksen muunnelma tai suora kopio ilman lupaa. Tällainen tilanne voi syntyä tahattomasti – käyttäjä antaa vain lyhyen kehotteen (promptin) eikä tiedä, perustuuko tulos johonkin olemassa olevaan teokseen​.

Tekijänoikeuslain näkökulmasta teoksen muuntelu (esim. kääntäminen, jatko-osan kirjoittaminen, kuvasta toisen version tekeminen) on teoksen johdannaisteos, jonka valmistaminen ja yleisön saataviin saattaminen edellyttää alkuperäisen tekijän luvan​. Näin ollen, jos tekoäly generoi vaikkapa tekstikatkelman, joka on olennaisilta osin sama kuin jonkun aikaisemmin kirjoittama kappale, tai kuvan, joka jäljittelee toisen teosta, lopputulos saattaa rikkoa tekijänoikeutta.

Käytännössä loukkaus toteutuu, jos tekoälyn ulostulossa on riittävästi alkuperäisen teoksen ilmentymiä. Esimerkiksi tekoäly saattaa tuottaa ohjelmakoodia, joka on lähes identtinen olemassa olevan lähdekoodin kanssa, tai kirjoittaa runon, joka sisältää käännöksenä tunnetun laulun sanoitukset. Mikä tahansa kyllin omaperäisen osan kopiointi ilman lupaa rikkoo tekijän yksinoikeutta kopioida teostaan​.

Erityisen ongelmallista on, että käyttäjä ei välttämättä tunnista kaikkia tekoälyn tuottamien sisältöjen lähteitä – tekoäly voi yhdistellä aineistoa tavoilla, joista lopputuloksen alkuperä on epäselvä​.

Tapaus: Koodin generointi ja Copilot:
Ohjelmistokehityksessä on raportoitu tapauksia, joissa tekoäly (kuten GitHub Copilot) tuottaa koodia, joka on kopioitu suoraan sen koulutusdatasta. Jos koulutusdata sisältää vaikkapa avoimen lähdekoodin ohjelmia, joita suojaa tekijänoikeus ja lisenssiehdot, voi tekoälyn tuottama koodi rikkoa näitä ehtoja. Esimerkiksi Copilotin on havaittu toisinaan tulostavan jopa pitkiä koodinpätkiä GPL-lisensoiduista projekteista sana sanalta. Mikäli kehittäjä sisällyttää tällaista koodia omaan ohjelmistoonsa noudattamatta GPL-lisenssin ehtoja (esim. avoimuusvaatimusta), syntyy tekijänoikeuden loukkaus.

Tämän riskin tiedostaen Microsoft (Copilotin taustalla) on ilmoittanut vastuunrajoitusten sijaan ottavansa vastuun mahdollisista tekijänoikeusvaateista, joita Copilotin ohjeenmukaisesta käytöstä asiakkaalle seuraa​.

Tämä on poikkeuksellinen esimerkki – yleensä tekoälypalvelun tuottaja ei suoraan lupaa korvata käyttäjän puolesta, mutta Microsoftin linjaus kertoo siitä, että tunnistetaan koodigeneroinnin kopiointiriski ja pyritään lisäämään käyttäjän turvaa.

Tekoäly ja tyyli / genre:
Usein tekoälyä käytetään tuottamaan sisältöä jonkun tunnetun tyylin mukaisesti. Pelkkä tyylin jäljittely ei sinänsä ole tekijänoikeudellisesti kiellettyä – tekijänoikeus suojaa ilmaisun muotoa eikä ideoita tai yleisiä tyylejä.

On siis laillista, että tekoäly kirjoittaa tarinan “Shakespearen tyylillä” tai piirtää kuvan impressionistiseen maalaustyyliin, kunhan se ei kopioi konkreettisia suojattuja elementtejä.

Tästä huolimatta tyylin imitoinnilla voi olla haitallisia vaikutuksia alkuperäisille tekijöille (esim. elävien taiteilijoiden töiden markkina-arvoon), ja rajatapauksia on nähty: jos jäljitelty tyyli on erittäin tunnistettava ja tekoälyn tuotos muistuttaa liikaa tiettyä teosta, raja voi ylittyä​.

Ainakin yksi tunnettu palvelu, OpenAI:n DALL-E-kuvageneraattori, onkin kieltänyt käyttäjiä antamasta kehotteita, joissa pyydetään matkimaan nimeltä mainitun elossa olevan taiteilijan tyyliä​. Tällä pyritään estämään mahdollisia tekijänoikeus- tai moraalisen oikeuden loukkauksia sekä suojaamaan taiteilijoita liialliselta tyylivarkaudelta.

Muut immateriaalioikeudet tekijänoikeuden ohella:
Tekijänoikeuden lisäksi on syytä muistaa ns. lähioikeudet. Esimerkiksi valokuvat voivat nauttia tekijänoikeuden sijaan valokuvaajan lähioikeutta, ja äänitteet äänitetuottajan suojaa.

Tekoälyn generoidessa sisältöä, tekoäly voisi teoriassa käyttää osia suojatuista valokuvista tai äänitteistä. Nämä tilanteet tulkitaan samalla tavoin: jos tunnistettava osa suojatusta aineistosta on mukana lopputuloksessa ilman lupaa, oikeudenhaltijan yksinoikeutta on loukattu.

Myös moraaliset oikeudet on syytä huomioida: tekijällä on oikeus tulla tunnustetuksi ja oikeus vastustaa teoksensa halventavaa muuntelua. Jos tekoälyn tuotos esimerkiksi muuntelee tunnettua teosta tekijän kannalta loukkaavalla tavalla, alkuperäinen tekijä voi vedota moraalisiin oikeuksiinsa​.

Tekijänoikeussuoja tekoälyn tuotokselle:
Aihetta sivuten on tärkeää ymmärtää, että kaikki tekoälyn tuottamat sisällöt eivät itse saa tekijänoikeussuojaa. Sekä EU:ssa että Suomessa katsotaan, että tekijänoikeus syntyy vain ihmiselle – teoskynnyksen ylittävän luovan panoksen tehneelle luonnolliselle henkilölle​.

Täysin itsenäisesti generoidut kuvat, tekstit tms. jäävät yleensä vaille tekijänoikeuden antamaa suojaa, koska niiden tekijäksi ei voida osoittaa ihmistä.

Tämä tarkoittaa, että tekijänoikeudetonkin AI-tuotos voi silti loukata toisen oikeuksia: teoksen vapaa hyödyntäminen koskee vain niitä osia, jotka eivät ole peräisin suojatusta aineistosta. Esimerkiksi jos tekoäly luo kuvan, johon ei synny kenellekään tekijänoikeutta, kuvaa saa sinänsä vapaasti käyttää – paitsi jos kuvassa on elementtejä, jotka kopioivat toisen suojattua teosta (tai sisältävät vaikkapa jonkun logoja, joihin on suojattuja oikeuksia)​.

Organisaation näkökulmasta tämä on kaksiteräinen miekka: AI-tuotokset saattavat olla “tekijänoikeusvapaita” uusien oikeuksien osalta, mutta samalla niissä piilee riski, että ne sisältävät osia, jotka altistavat vaatimuksille.

Tavaramerkki on rekisteröity oikeus, joka suojaa tiettyä tunnusmerkkiä (nimi, logo, iskulause tms.) tietyissä tuoteryhmissä. Tekoäly voi loukata tavaramerkkiä kahdella pääasiallisella tavalla:

(a) tekoäly generoi sisältöä, joka sisältää toisen tavaramerkin ilman lupaa, tai

(b) tekoäly luo uuden tunnuksen, joka on sekoitettavissa aiempaan tavaramerkkiin.

Esimerkiksi kuvageneraattori saattaa tuottaa kuvan, jossa näkyy tunnettu logo tai brändin nimi. Jos organisaatio käyttäisi tällaista kuvaa markkinoinnissaan, se voisi syyllistyä tavaramerkin loukkaukseen – erityisesti jos käyttö vihjaa yhteydestä oikeudenhaltijaan tai muuten haittaa tavaramerkin erottamiskykyä.

Samoin tekstigeneraattori saattaa luoda mainostekstin, jossa kilpailijan tuotenimiä käytetään harhaanjohtavasti.

Tavaramerkkilaki kieltää merkin käytön elinkeinotoiminnassa tavoilla, jotka aiheuttavat sekaannusvaaran tai hyödyntävät aiemman merkin mainetta ilman lupaa (ns. laajennettu suoja tunnetuille merkeille).

Toinen skenaario on uuden brändin kehittäminen tekoälyn avulla. Jos tekoäly ehdottaa organisaatiolle uutta nimeä organisaation tuotteelle, on mahdollista, että sama tai samankaltainen nimi on jo rekisteröity tavaramerkiksi jollekin toiselle. Pelkkä tekoälyn antama vakuutus nimen “keksimisestä” ei takaa, etteikö markkinoilla olisi jo saman niminen suoja.

Tässä on vaara astua toisen tavaramerkkioikeuden piiriin – organisaatio saattaa lanseerata AI:n keksimän nimen vain joutuakseen muuttamaan sen, mikäli käy ilmi, että nimi loukkaa rekisteröityä tavaramerkkiä.

Konkreettinen esimerkki: AI luo logon ja brändinimen ravintolalle, mutta lopputulos muistuttaa erehdyttävästi tunnetun pikaruokalan tunnusta. Tällöin loukkausvaade on todennäköinen. (Huomattakoon, että AI:n tuottamalle sisällölle itsessään – kuten logolle – ei synny tekijänoikeutta ilman ihmispanosta, joten suojan hakeminenkin voi osoittautua vaikeaksi.​

Tavaramerkkien osalta ennaltaehkäisy on avainasemassa: Organisaatioiden tulisi arvioida AI:n tuottamat nimet ja visuaaliset elementit samoin kuin ihmisten luomat – tekemällä tarvittavat tavaramerkkiselvitykset (esim. onko nimi vapaa rekisteröitäväksi, tai loukkaako se olemassa olevia oikeuksia) ennen käyttöä. Jos tekoäly tuottaa sisällön, jossa on toisten tavaramerkkejä, on yleensä varminta poistaa tai korvata ne​, ellei käyttöön ole lisenssiä tai perustetta (esim. sallittu vertailumainonta tms.).

Patenttioikeuden kannalta tekoälyn käyttö herättää hieman toisentyyppisiä kysymyksiä. Patentti suojaa keksintöä (tyypillisesti teknistä ratkaisua) ja antaa haltijalle yksinoikeuden hyödyntää keksintöä taloudellisesti.

Patenttiloukkaus tapahtuu, jos joku valmistaa, käyttää, myy tai tuo maahan patentilla suojattua tuotetta tai menetelmää ilman lupaa.

Tekoäly voi mahdollistaa patenttiloukkauksen esimerkiksi auttamalla kehittämään tuotteen, joka osoittautuu kuuluvan jonkun toisen patentoiman keksinnön piiriin. Kuvitellaan, että insinööritiimi käyttää generatiivista tekoälyä suunnittelemaan uuden mekanismin koneeseen. AI ehdottaa ratkaisua X, jota tiimi alkaa hyödyntää. Myöhemmin selviää, että ratkaisu X on olennaisilta osin jo suojattu kilpailijan patentilla. Vaikka keksintö tuli “tekoälyn ideana”, se ei oikeuta sen käyttöön, jos joku muu omistaa siihen patentin. Organisaatio voi näin tahtomattaan syyllistyä patentin loukkaukseen alkaessaan valmistaa tai kaupata AI:n ehdottamaa tuotetta.

Patenttiloukkauksessa tekijän tahallisuus tai tietoisuus ei ole ratkaisevaa – riittää, että patentin suojapiiriin kuuluvaa tuotetta valmistetaan tai käytetään.

Toinen ulottuvuus on tekoälyn rooli keksijänä. Jos tekoäly itsenäisesti tuottaa uuden teknisen ratkaisun (kuten algoritmin tai koneen osan), voiko organisaatio patentoida sen?

Nykykäytännön mukaan patentin hakijana ja keksijänä tulee olla ihminen tai yritys (yritykselläkin on aina inhimillinen keksijä taustalla). Tekoälyä ei voi merkitä keksijäksi, mikä on tullut ilmi ns. DABUS-tapauksissa, joissa tekoälyä yritettiin nimetä patenttihakemuksessa keksijäksi – hakemukset hylättiin niin Euroopassa kuin Yhdysvalloissa, koska laki edellyttää inhimillistä keksijää.

Tämä ei sinänsä ole loukkauskysymys, mutta vaikuttaa siihen, miten AI:n avulla syntyneitä keksintöjä voidaan suojata. Organisaation kannalta kannattaa sopia, että jos työntekijät käyttävät tekoälyä tuotekehityksessä, mahdolliset keksinnöt raportoidaan ja patenttihakemuksissa nimetään ihmiset keksijöiksi (esimerkiksi niitä, jotka ideoivat tai ratkaisivat ongelman AI:n avustuksella).

Yhteenvetona patenttien osalta: tekoäly ei “vapauta” patenttivastuusta. Kaikki tavanomaiset freedom-to-operate -selvitykset ja patenttiseuranta tulee yhä tehdä, vaikka tuote-idea olisi peräisin tekoälyltä. Mikään lainsäädäntöpoikkeus ei salli patentoitujen keksintöjen hyödyntämistä sillä perusteella, että keksinnön generoi AI.

Mallioikeus (yhteisömalli EU:ssa, kansallinen mallisuoja) suojaa tuotteen tai esineen ulkomuotoa. Rekisteröity malli antaa haltijalleen yksinoikeuden käyttää mallia ja kieltää muita valmistamasta samannäköisiä tuotteita.

Tekoälyn yhteydessä mallioikeuden loukkaus voi aktualisoitua erityisesti visuaalisessa suunnittelussa: jos AI-generaattori luo vaikkapa uuden tuolin designin tai pakkauksen ulkoasun, joka on liian samanlainen kuin jonkun toisen jo rekisteröity malli, loukkausriski on ilmeinen.

Esimerkki: Yritys hyödyntää generatiivista tekoälyä muotoilussa ja saa aikaan auton korimallin, joka muistuttaa läheisesti toisen valmistajan nykyistä automallia. Mikäli tällä toisella valmistajalla on mallisuoja (tai jopa tekijänoikeussuoja, jos muotoilu ylittää teoskynnyksen), uuden mallin käyttäminen voi rikkoa suojaa.

Erityisesti EU:ssa yhteisömallin suoja ulottuu myös itsenäisesti luotuihin samannäköisiin malleihin – tekijänsä vilpitön mieli ei poista loukkausta. Tekoälyn tuottama samankaltaisuus ei siis ole puolustus, vaan lopputulosten visuaalinen vertailu ratkaisee.

Organisaatioiden on syytä arvioida tekoälyn generoimat designit huolella: ovatko ne riittävän omaperäisiä ja erottuvia?

Kannattaa suorittaa mallioikeustietokantojen hakuja samaan tapaan kuin tavaramerkkien kohdalla. Lisäksi, jos AI-tuotos yhdistelee tunnettuja design-elementtejä (esim. klassikkohuonekalun jalat ja toisen tuotteen selkänoja), lopputulos voi olla sekamuoto, joka saattaa loukata useampaakin suojaa.

Yksi olennainen suositus on pitää ihminen silmälläpitäjänä suunnittelussa – varmistaa, että AI:n ehdotuksia muokataan ja arvioidaan siten, ettei tietämättään kopioida toisen mallia.

3. Esimerkkitilanteita mahdollisista loukkauksista

Seuraavassa on muutamia konkreettisia esimerkkejä, jotka havainnollistavat, miten tekoälyn käyttö voi johtaa immateriaalioikeusloukkauksiin eri sisällöntuotannon muodoissa:

  • Kuva (tekijänoikeus & tavaramerkki): Markkinointitiimi generoi tekoälyllä mainoskuvan uudesta tuotteesta. Kuvassa AI on piirtänyt taustalle tunnetun taideteoksen (tekijänoikeudella suojattu maalaus) sekä näkyviin sattumalta erään globaalin brändin logon. Yritys julkaisee kuvan huomaamatta näitä yksityiskohtia. Tuloksena on kaksoisriski: taideteoksen luvaton kopiointi mainoskuvassa rikkoo tekijänoikeutta ja logon luvaton käyttö saattaa loukata tavaramerkkiä. Tämä esimerkki korostaa tarkastuksen tarvetta AI:n luomille kuville – ne voivat sisältää yksityiskohtia, joita tekoäly “muisteli” datastaan (kuten kuuluisa logo tai vesileima)​.
  • Ohjelmakoodi (tekijänoikeus): Ohjelmistokehittäjä käyttää AI-avustajaa kirjoittaakseen koodia nopeammin. Hän pyytää tekoälyä toteuttamaan tietyn toiminnallisuuden, ja tekoäly tuottaa lähes täydellisen koodin vastaukseksi. Myöhemmin paljastuu, että generoitu koodi on kopioitu suoraan suositusta avoimen lähdekoodin kirjastosta, joka on GPL-lisensoitu. Kehittäjä on sisällyttänyt koodin tuotteeseensa suljetussa lähteessä, mikä rikkoo GPL:n ehtoja. Näin organisaatioon kohdistuu tekijänoikeusloukkausväite – he ovat levittäneet koodia ilman siihen oikeuttavaa lisenssiä. Huomio: Microsoftin Copilot-palvelu pyrkii vähentämään tätä riskiä mm. suodattamalla liian pitkiä yhtenäisiä koodikatkelmia ja tarjoamalla asiakkailleen vakuutuksen vastuunjaosta mahdollisissa loukkaustilanteissa​.
  • Teksti (tekijänoikeus): Yrityksen viestintäosasto kokeilee ChatGPT:tä lehdistötiedotteen luonnosteluun. He antavat tekoälylle vain muutaman avainsanan ja pyytävät muotoilemaan tekstin. Tekoäly tuottaa sujuvan tiedotteen. Julkaisun jälkeen eräs toimittaja huomaa, että tiedote sisältää lähes sanasta sanaan otteen eräästä aiemmin julkaistusta uutisartikkelista, josta AI oli oppinut tyylin. Tässä tapauksessa AI:n tuotos on luvattomasti lainaillut suojattua tekstiä, ja yritys tuli saattaneeksi tuon katkelman yleisön saataviin omissa nimissään. Tekijänoikeuden haltija (toimittaja tai mediayhtiö) voisi vaatia hyvitystä luvattomasta käytöstä. Käyttäjän on erittäin vaikea tunnistaa tällaisia piilolainauksia etukäteen.
  • Nimi (tavaramerkki/toiminimi): Startup-yritys pyytää tekoälyä keksimään nimen uudelle sovellukselleen. AI ehdottaa nimeä, joka kuulostaa hyvältä ja uniikilta. Yritys alkaa käyttää nimeä markkinoinnissa, mutta saa pian lakitoimistolta kirjeen: valittu nimi on sekoitettavissa erään toisen teknologiayrityksen rekisteröityyn tavaramerkkiin (tai toiminimeen). Koska yritys toimii samalla alalla, nimien samankaltaisuus aiheuttaa sekaannusvaaran. Tässä esimerkissä tekoälyn ehdotus johti tavaramerkkiloukkaukseen, vaikka se ei ollut ilmeinen. Yrityksen on nopeasti vaihdettava brändiään ja mahdollisesti korvattava vastapuolen kuluja.

Nämä esimerkit osoittavat, että tekoälyn generatiiviset kyvyt voivat tuottaa sisältöä, joka kätkee sisäänsä toisten oikeudella suojattua aineistoa. Koska tekoäly ei “ymmärrä” juridisia rajoja, vastuu on aina käyttäjällä ja organisaatiolla tunnistaa ja hallita riskit.

4. Vastuun kohdentuminen tekoälyn käytössä

Kun tekoälyä hyödynnetään ja lopputuloksena syntyy mahdollinen immateriaalioikeuden loukkaus, on selvitettävä kuka on vastuussa – käyttäjä, kehittäjä vai organisaatio, ja millä perusteella.

Tällä hetkellä voimassa olevassa lainsäädännössä ei ole erityissääntöjä, jotka vapauttaisivat tekoälyn käyttäjän vastuusta tai siirtäisivät sen automaattisesti tekoälyn kehittäjälle.

Periaatteessa pätee sama lähtökohta kuin muussakin toiminnassa: se osapuoli, joka tekee loukkaavan teon, kantaa vastuun.

Käyttäjän vastuu:
Tekoälyn käyttäjä (esimerkiksi organisaation työntekijä tai sisällöntuottaja) on tyypillisesti se, joka antaa tekoälylle tehtävän ja hyödyntää tulosta. Mikäli käyttäjä syöttää palveluun suojattua aineistoa ja pyytää tekoälyä muokkaamaan sitä luvattomasti (esim. “laajenna tämän tekstin sisältöä” tai “muunna tämä kuva toiseen tyyliin”), käyttäjä syyllistyy todennäköisesti tekijänoikeusloukkaukseen – aivan kuten jos hän teettäisi saman muokkauksen ihmisellä​.

Samoin, jos käyttäjä julkaisee tekoälyn generoiman sisällön esimerkiksi yrityksen verkkosivuilla tai tuotteessa, ja sisältö osoittautuu loukkaavaksi (kopioi toisen teosta tms.), käyttäjä tai tämän taustalla oleva organisaatio on vastuussa julkaisutoiminnasta.

Lainsäädäntö kohdistaa teoksen käyttämiseen liittyvät velvollisuudet aina ihmisiin tai oikeushenkilöihin, ei tekoälyyn sinänsä – tekoälyä ei voi haastaa oikeuteen, mutta palvelun käyttäjä voidaan. Käyttäjän vastuuta korostaa se, että hän on yleensä paras taho arvioimaan riskit ainakin syöttämänsä aineiston osalta.

Yllä (kohdassa 3) mainituissa esimerkeissä käyttäjä olisi voinut joissain tapauksissa estää loukkauksen: ei pidä pyytää tekoälyä luomaan sellaista teosta, joka suoraan perustuu syötettyyn suojattuun aineistoon ilman lupaa​.

Mikäli tekoälyä käyttää vain apuvälineenä analysointiin tai luonnosteluun – mutta ei julkaise sen tuotoksia sellaisenaan – riski vähenee. Kuitenkin lopputulos ratkaisee: se organisaatio tai henkilö, joka laittaa loukkaavan sisällön saataville yleisölle, on tyypillisesti vastuussa loukkauksesta (tekijänoikeuslain mukaan mm. teoksen yleisölle välittäminen tai kappaleen levittäminen ilman lupaa on loukkaus).

Kehittäjän / palveluntarjoajan vastuu:
Entä tekoälyn kehittäjä tai tarjoaja (esim. yritys, joka on luonut ja ylläpitää generatiivista AI-palvelua)? Voidaanko heitä pitää vastuullisina, jos heidän työkalunsa tuottaa laittomia tuloksia?

Tämä kysymys on uusi ja vailla suoraa oikeuskäytäntöä Suomessa / EU:ssa. Lähtökohtaisesti pelkkä työkalun tarjoaminen ei tee kehittäjästä vastuussa toisen tekemistä loukkauksista – samaan tapaan kuin tekstinkäsittelyohjelman valmistajaa ei syytetä plagioinnista, vaikka käyttäjä kopioisi sillä kirjan luvun. Kuitenkin tekoälysovellusten kohdalla raja ei ole täysin selvä: tekoäly on aktiivisempi toimija kuin perinteinen ohjelma, ja palveluntarjoaja usein hallitsee sen toimintaa (mm. mitä dataa se on koulutettu ja miten se suodattaa outputtia).

Eräissä tapauksissa kehittäjä voi syyllistyä välilliseen vastuuseen (contributory or vicarious liability angloamerikkalaisittain) jos hän on mahdollistanut ja edesauttanut loukkauksia. EU-oikeudessa tunnetaan myös verkon välityspalveluiden vastuuvapaussäännöt (ns. safe harbor -periaatteet), mutta ne koskevat yleensä tilanteita, jossa palvelun sisältö tulee käyttäjiltä. Tekoälyn generoitua sisältöä ei suoraan voi luokitella käyttäjän syötteeksi – se on ikään kuin palvelun omaa tuottoa käyttäjän aloitteesta.

On mahdollista, että tuomioistuimet joutuvat ratkaisemaan, missä määrin AI-palvelun tarjoaja on vastuussa esimerkiksi koulutusvaiheessa tapahtuneesta tekijänoikeuden loukkauksesta (jos dataa käytettiin luvatta) tai siitä, ettei palvelu tunnista ilmeisiä loukkauksia outputissa.

Käytännön linjauksia: Tällä hetkellä monet tekoälypalveluiden tarjoajat pyrkivät rajaamaan omaa vastuutaan käyttöehdoissa. Usein ehdoissa todetaan, että käyttäjä yksin vastaa sisällöstä, jonka tekoäly tuottaa hänen toimestaan, ja että käyttäjän tulee varmistaa ettei sisältö riko lakia. Toisaalta vastuulliset toimijat ottavat askelia riskien minimoimiseksi: esimerkiksi OpenAI on rakentanut suodattimia ja rajoituksia estääkseen ilmeisiä loukkauksia (kuten mainittu DALL-E:n esto taiteilijoiden tyylin kopioimiselle)​.

Microsoft puolestaan on markkinoinut Copilot-ohjelmaansa lupaamalla asiakkaalle, että Microsoft kantaa vastuun mahdollisista tekijänoikeusvaatimuksista, mikäli Copilotin ohjeidenmukainen käyttö johtaa vaateisiin​. Tämä lupaus on eräänlainen vakuutus: se ei muuta lain mukaista perusvastuuta (käyttäjä olisi muuten vastuussa), mutta Microsoft sitoutuu taloudellisesti auttamaan.

Tällaiset käytännöt viittaavat siihen, että palveluntarjoajatkin tunnustavat roolinsa – heidän intressissään on luoda luotettavia palveluja, joita käyttäjät uskaltavat hyödyntää ilman kohtuuttomia riskipaineita​.

Organisaation vastuu (työnantaja/yhteisö):
Kun tekoälyä käytetään organisaation toiminnassa, on huomioitava myös työnantajavastuu ja yleiset periaatteet. Jos työntekijä syyllistyy työtehtävissään immateriaalioikeuden loukkaukseen (esim. julkaisee yrityksen nimissä AI:n tuottaman, mutta toisen tekijän suojattua tekstiä sisältävän artikkelin), vastuu kohdistuu käytännössä työnantajaan. Työnantaja vastaa työntekijän toimista työn puitteissa ulkopuolisiin nähden. Organisaatio voi toki sisäisesti kohdistaa seuraamuksia huolimattomalle työntekijälle, mutta ulospäin yritys yleensä joutuu vastaamaan loukkausväitteisiin. On siis organisaation edun mukaista kouluttaa työntekijöitään ja laatia selkeät pelisäännöt tekoälyn käytölle (ks. suositukset jäljempänä).

Oikeudellinen kehikko ja tuleva vastuusääntely:
Euroopan komission tekoälyvastuudirektiivin (AI Liability Directive), tarkoituksena on helpottaa vahingonkärsijän asemaa näyttökysymyksissä tekoälyn aiheuttamissa vahingoissa. Vaikka se keskittyy lähinnä vahingonkorvaus- ja tuotevastuu-tilanteisiin (esim. tekoäly aiheuttaa fyysistä haittaa), voi se epäsuorasti vaikuttaa myös immateriaalioikeudellisiin vastuuasetelmiin. Tällä hetkellä kuitenkin immateriaalioikeusloukkauksien vastuu määräytyy olemassa olevien periaatteiden mukaan: jokainen ketjussa – käyttäjä, organisaatio, kehittäjä – voi tietyissä olosuhteissa olla vastuussa omasta myötävaikutuksestaan loukkaukseen.

Viime kädessä vastuun kohdentuminen tekoälytilanteissa on tapauskohtaista ja tulee tarkentumaan oikeuskäytännön myötä. Varmaa on, että tekoäly itsessään ei ole oikeussubjekti, joten vastuu ei voi jäädä “tekoälylle” – aina löytyy taho, johon vaateet osoitetaan, yleensä sille, jolla on kontrolli käyttöön tai joka hyötyy lopputuloksesta.

5. AI Act -asetuksen velvoitteet immateriaalioikeuksien näkökulmasta

Euroopan unionin historiallinen AI Act -asetus (tekoälysäädös) on hyväksytty EU:n toimielimissä ja astu voimaan asteittain. AI Act on ensimmäinen laaja-alainen sääntökokonaisuus tekoälylle, ja sen päätavoitteita ovat luottamuksen lisääminen tekoälyyn, perusturvavaatimusten asettaminen ja perusoikeuksien suojelu tekoälyn käytössä. Vaikka AI Act keskittyy mm. tekoälyn riskiluokitteluun (kielletyt käytöt, korkeariskiset sovellukset jne.), siihen sisältyy myös immateriaalioikeuksien kannalta merkittäviä velvoitteita, erityisesti generatiivisiin tekoälymalleihin liittyen.

AI Act ja tekijänoikeus (Article 53):
Asetus ei suoraan muuta tekijänoikeuslakeja, mutta se sisältää säännöksiä, jotka on nimenomaisesti tarkoitettu ehkäisemään tekijänoikeusloukkauksia tekoälyn yhteydessä​. Generatiivisten yleistarkoitukseen soveltuvien AI-mallien (General Purpose AI, kuten suuret kielimallit GPT-4, DALL-E-kuvamallit jne.) tarjoajille asetetaan velvollisuuksia, jotka liittyvät aineiston hallintaan ja läpinäkyvyyteen. Erityisen tärkeä on vaatimus noudattaa EU:n tekijänoikeusdirektiiviä koulutusdatan osalta: palveluntarjoajien on käytettävä “viimeisintä teknologiaa” tunnistaakseen ja kunnioittaakseen oikeudenhaltijoiden tekemiä nimenomaisia varauksia, joilla he kieltävät teostensa käytön tekstin- ja tiedonlouhintaan (sisältäen tekoälyjen harjoittamisen)​.

Toisin sanoen, tekoälymallin kehittäjän on pystyttävä havaitsemaan, jos jokin data (vaikkapa verkkosivu) on merkitty siten, että sisältöä ei saa käyttää AI-koulutuksessa, ja jätettävä tällainen data käyttämättä. Tämä koskee riippumatta siitä, missä maassa varsinainen koulutus tapahtuu – EU haluaa varmistaa, ettei sen alueella toimiva tarjoaja kierrä sääntöä kouluttamalla mallin muualla​.

Lisäksi AI Act velvoittaa generatiivisten mallien tarjoajia dokumentoimaan ja julkaisemaan tietoja käyttämistään aineistoista siinä määrin kuin se on mahdollista paljastamatta liikesalaisuuksia​.

Tämä tarkoittaa, että jatkossa isoilla tekoälymalleilla tulisi olla eräänlainen “data-luettelo” tai ainakin selitys siitä, mitä aineistoja on käytetty koulutuksessa. Kyseinen velvoite heijastaa lainsäätäjän pyrkimystä läpinäkyvyyteen: sekä valvovat viranomaiset että ehkä jopa käyttäjäyhteisöt voivat näin paremmin arvioida, onko tekoälyn oppimateriaali kerätty laillisesti (tekijänoikeuksia kunnioittaen).

Sisällön tunnistettavuus ja vesileimat:
AI Act sisältää myös transparenssivaatimuksia tekoälyn tuottamalle sisällölle. Asetuksen mukaan generatiivisen tekoälyn tarjoajien on huolehdittava, että tekoälyn tuottama sisältö on tunnistettavissa tekoälyn tuottamaksi​.

Käytännössä tämä voi tarkoittaa vaatimusta lisätä näkymättömiä vesileimoja, metatietotunnisteita tai muita keinoja, joilla esimerkiksi kuva voidaan jälkikäteen varmuudella todeta AI:n tekemäksi.

Erityisesti tietyntyyppiset sisällöt (kuten deepfake-materiaalit tai julkista mielipidettä muokkaamaan tarkoitetut generoidut tekstit) on merkittävä selkeästi, jotta yleisö ei erehdy pitämään niitä aitoina​.

Tämäkin liittyy immateriaalioikeuksiin välillisesti: kun sisältö on merkitty AI-tekoiseksi, mahdolliset oikeudenhaltijat osaavat paremmin epäillä, että sisältö on voinut hyödyntää heidän teoksiaan.

Myös tekijänoikeusvaatimusten esittäminen helpottuu, jos generoidun materiaalin alkuperä (AI) on tiedossa – se poistaa yhtä epävarmuustekijää.

Korkean riskin järjestelmien data-laatu:
AI Act luokittelee tietyt tekoälysovellukset korkean riskin (high-risk) kategoriaan, joille on asetettu joukko vaatimuksia ennen markkinoille saattamista. Näihin kuuluvat mm. datan laatuun ja hallintaan liittyvät vaatimukset. Vaikka ne on kirjoitettu ensisijaisesti esim. syrjimättömyyden ja turvallisuuden takaamiseksi, datan laatuvaatimukset merkitsevät käytännössä myös sitä, että laitonta dataa ei tule käyttää.

Voidaan katsoa, että korkean riskin AI-systeemin kehittäjä rikkoisi asetuksen vaatimuksia, jos sen koulutusdata sisältäisi ilmeisen laittomasti hankittua materiaalia (esim. tekijänoikeutta loukkaavaa sisältöä). Näin immateriaalioikeuksien kunnioittaminen kytkeytyy osaksi laatu- ja turvallisuusnäkökulmaa: plagioidusta tai varastetusta datasta koulutettu malli voi aiheuttaa oikeudellisia ja mainehaittoja, joten se on riskienhallintamielessäkin torjuttavaa.

Yhteenveto AI Actin IPR-vaikutuksista:
AI Act luo puitteet, joissa tekoälymallien tarjoajat velvoitetaan toimimaan olemassa olevien immateriaalioikeuslakien mukaisesti ja ehkäisemään loukkauksia ennalta. Heidän on kunnioitettava tekijöiden opt-out-oikeutta koulutusdatassa​, pidettävä kirjaa koulutusmateriaalista ja varmistettava generoidun sisällön tunnistettavuus​.

Vaikka AI Act ei suoraan muuta tekijänoikeuslain sisältöä (esim. ei määrää, kuka on AI-teoksen tekijä tms.)​, se täydentää sitä säätämällä näitä uusia velvollisuuksia ja sanktioimalla niiden laiminlyönnin. Asetuksen rikkomisesta voi seurata merkittäviä hallinnollisia sakkoja, jotka osaltaan pelotteena kannustavat yrityksiä ottamaan immateriaalioikeudet vakavasti tekoälykehityksessä​.

AI Act jättää kuitenkin joitakin kysymyksiä yhä avoimiksi – esimerkiksi se ei ratkaise lopullisesti tekoälyn luomusten tekijänoikeudellista asemaa tai omistajuutta, vaan nämä jäänevät tuomioistuinten linjattaviksi tapaus kerrallaan​.

6. Epävarmuustekijät ja avoimet oikeudelliset kysymykset

Tekoälyn ja immateriaalioikeuksien rajapinta on edelleen uudenlaista oikeudellista maastoa. Useat kysymykset odottavat selkeyttä lainsäätäjältä tai oikeuskäytännöltä. Tässä joitakin keskeisiä avoimia kysymyksiä ja epävarmuustekijöitä:

  • Tekijänoikeudelliset rajat tekoälyn koulutuksessa: Vaikka DSM-direktiivin mukaiset poikkeukset on luotu, yhä kiistellään, missä laajuudessa ne sallivat tekoälyjen kouluttamisen. Onko esimerkiksi kokonaisen internet-arkiston kopiointi mallin opetusta varten sallittua, jos sivustojen metadatassa ei ollut kieltovarausta? Entä jos varausta ei ollut vielä keksitty koulutushetkellä? Nämä ovat kysymyksiä, joihin ei ole yksiselitteistä vastausta. Yhdysvalloissa vireillä olevat oikeustapaukset (useita kanteita on nostettu OpenAI:ta ja Stable Diffusionin kehittäjiä vastaan tekijänoikeusloukkauksista) voivat antaa ensinäyttöä, mutta EU:ssa toistaiseksi vastaavia juttuja ei ole ratkottu​. On mahdollista, että lähivuosina EU:ssa nähdään oikeudenkäyntejä, joissa luodaan ennakkoratkaisuja esim. tekoälyn “muistaman” aineiston kopioinnin sallittavuudesta.
  • AI:n luomusten tekijänoikeussuoja ja omistajuus: Kuten edellä todettiin, pääsääntö on ettei puhtaasti AI:n luomalla teoksella ole tekijänoikeussuojaa (ihmistekijän puuttuessa). Mutta rajatapauksia on paljon: entä jos ihminen on hieman muokannut AI:n luomaa sisältöä – missä vaiheessa syntyy riittävä inhimillinen panos? Tämä “teoskynnys” ja ihmisen osallisuuden vaatimus tulee todennäköisesti vastaan riidoissa, joissa kiistellään onko jokin sisältö suojattu vai ei. Esimerkiksi markkinointikampanjan lopputuote voi koostua osin AI-generoidusta materiaalista ja osin ihmisen suunnittelemasta – jos kilpailija kopioi kampanjaa, voiko oikeudenhaltija vedota tekijänoikeuteen vai katsotaanko, että teos oli osin vailla suojaa? Oikeus voi joutua erittelemään sisältöä osiin ja ratkaisemaan, mitkä elementit ovat suojattuja​.
  • Myös lähioikeuksien mahdollinen soveltaminen AI-tuotoksiin on avoinna: on pohdittu, pitäisikö AI-luomuksille luoda jokin uudenlainen suoja (naapuruusoikeus) tekijänoikeusjärjestelmään​. Toistaiseksi sellaista ei ole, mutta keskustelu jatkuu.
  • Vastuun jakautuminen ja vastuusäännöt: Kuten kohdassa 4 käsiteltiin, ei ole vielä oikeustapauksia, joissa tuomioistuin olisi punninnut tekoälypalvelun tarjoajan vastuuta käyttäjän tekijänoikeusloukkauksesta. On epäselvää, missä menee raja “neutraalin välineen” ja aktiivisen sisältötuottajan välillä palveluntarjoajan näkökulmasta. Digitaalisten palvelujen lainsäädäntö (kuten EU:n uusi digitaalisten palvelujen asetus, DSA) saattaa tulla sivuamaan AI:ta, jos AI-mallien tuotokset jaetaan verkkoalustoilla – mutta suoraan AI-generaattoreita DSA ei kata. Tulevaisuudessa saatetaan nähdä lainsäädäntöä tai oikeustapauksia, jotka määrittävät, onko generatiivinen tekoäly enemmän verrattavissa kustantajaan (jolla olisi sisältövastuuta) vai työkaluun (joka on käyttäjän vastuulla).
  • Rajapinta tekijänoikeuden ja dataprotektion välillä: Toinen uusi elementti on se, että tekoälyjen koulutusdata sisältää usein henkilötietoja (kuten nimiä, kuvien yhteydessä olevia henkilöitä tms.) – jolloin GDPR (EU:n tietosuoja-asetus) astuu kuvaan. Esimerkiksi ChatGPT:n koulutusdataan sisältyi valtavasti nettitekstiä, joka voi sisältää tunnistettavia henkilöitä koskevia tietoja. Italiassa tietosuojaviranomainen puuttui tähän ja vaati OpenAI:lta selvityksiä. Immateriaalioikeuksien kannalta tämä kytkeytyy tekijänoikeusasiaan siten, että samalla kun oikeudenhaltijat vaativat korvausta teostensa käytöstä​, myös tietosuojaviranomaiset vaativat yksityisyydensuojan toteutumista. Molemmat voivat rajoittaa datan vapaata keräämistä AI:n nieluun. Epävarmuutta aiheuttaa, miten nämä kaksi oikeudenalaa sovitetaan yhteen: voiko tekoälyä kouluttaa julkisilla henkilötiedoilla, entä jos teksti on suojattu? Onko lopputuloksen anonymisointi keino välttää GDPR-ongelmat, mutta entä tekijänoikeus?
  • Moraaliset oikeudet ja hyvän tavan mukaisuus: Tekijänoikeus sisältää taloudellisten oikeuksien ohella moraalisia oikeuksia, kuten oikeuden tulla nimeksi mainituksi ja oikeuden estää teoksen halventava käyttö. Tekoälyn tuottamat sisällöt voivat joskus loukata näitäkin oikeuksia – esim. jos AI “jatkaa” tunnetun kirjailijan keskeneräistä teosta omalla tekstillään, alkuperäinen tekijä (tai tämän perilliset) saattaisivat kokea, että tekoälyn versio loukkaa teoksen henkeä. Tällaisiin tapauksiin ei ole vielä oikeustapauksia, mutta moraalisten oikeuksien suoja on vahva (ja luovuttamaton) Suomessa. Ne luovat siis eräänlaisen pohjavireen: vaikka taloudellisia oikeuksia yritettäisiin sovittaa AI-aikakauteen, tekijän kunnia- ja arvostussuoja asettavat reunaehtoja esimerkiksi sille, miten teoksia voidaan AI:n avulla manipuloida.
  • Kansainvälinen ulottuvuus: Tekoäly on globaali ilmiö, ja usein sekä mallit että data liikkuvat yli rajojen. EU:n ja Suomen säännökset eivät yksin ratkaise kaikkea – esimerkiksi Yhdysvaltojen mahdollinen fair use -tulkinta voi erota EU-linjasta. Jos tekoälypalvelu toimii EU:n ulkopuolella, mutta tarjoilee sisältöä eurooppalaisille, mikä laki pätee? AI Act pyrkii varmistamaan, että suuret mallit noudattavat EU-sääntöjä riippumatta siitä, missä ne teknisesti koulutetaan​. Silti lainkäyttöalueiden rajat tuovat epävarmuutta. Myös patenttien ja tavaramerkkien osalta tilanne on alueellinen: tekoäly voi “keksiä” ratkaisun, joka on patentoitu USA:ssa muttei EU:ssa, jne. Organisaatioiden on navigoitava näissä monijurisdiktioympäristöissä.
  • Oikeussuojakeinot ja valvonta: Vielä avoinna on, miten käytännössä oikeudenhaltijat tulevat valvomaan oikeuksiaan AI:n aikakaudella. Tuleeko esimerkiksi teoksia fingerprinttaavia järjestelmiä, jotka tunnistavat, jos AI-output sisältää pätkiä alkuperäisteoksesta? Voivatko oikeudenhaltijat kerätä näyttöä tekoälyn “syyllisyydestä” jos malli on suljettu eikä paljasta dataansa? AI Act velvoittaa tietyissä tapauksissa datan jakamiseen ja viranomaisyhteistyöhön, mikä voi auttaa todisteiden saantia​. Kuitenkin moni tapaus voi jäädä näyttökynnyksen taakse: jos kirjailija epäilee teoksensa vaikuttaneen AI:n vastaukseen, mutta vastaavuus on osittain sattumanvaraisen oloista, on vaikea viedä asiaa eteenpäin. Tämäkin epävarmuus todennäköisesti hälvenee ajan myötä kun kehittyy sekä teknisiä että oikeudellisia mekanismeja tilanteiden arviointiin.

Yhteenvetona, tekoälyn ja immateriaalioikeuksien alueella paljon on vielä tulkinnanvaraa. Nykyiset lait antavat puitteet, mutta uusia ennakkotapauksia ja mahdollisesti lainsäädännön hienosäätöä tarvitaan. Vaikka AI Act asettaa raamit oikeuksien kunnioittamiselle, monien konkreettisten tilanteiden selkeyttäminen jää tuomioistuinten tehtäväksi​. Organisaatioiden kannattaa seurata tiiviisti kehitystä ja olla valmis mukauttamaan käytäntöjään uusien linjausten mukaan.

7. Käytännön suositukset oikeudellisten riskien hallintaan

Vaikka epävarmuustekijöitä on, organisaatiot voivat jo nyt tehdä paljon vähentääkseen immateriaalioikeudellisia riskejä tekoälyn käytössä. Seuraavassa on keskeisiä suosituksia riskienhallintaan:

7.1. Varmista koulutusdatan laillisuus: Jos organisaatio kehittää omaa tekoälymallia tai kouluttaa olemassa olevaa mallia omalla datalla, huolehdi että data on hankittu luvallisesti. Hyödynnä tekijänoikeuslain poikkeuksia vastuullisesti – varmista laillinen pääsy aineistoon ja tarkista, ettei oikeudenhaltija ole kieltänyt käyttöä​.

Julkisesta verkosta peräisin olevan datan osalta pyri selvittämään sivuston käyttöehdot tai robot.txt -tiedoston ohjeet. Harkitse avoimen datan ja public domain -aineistojen käyttöä ensisijaisesti. Tarpeen mukaan solmi lisenssisopimuksia: esim. osta kuvapaketteja tai tekstiarkistoja lisenssillä tekoälyn koulutukseen, tai käytä Suomen sopimuslisenssijärjestelmän mahdollisuuksia​.

Dokumentoi, mitä dataa on käytetty ja millä perusteella – tämä auttaa osoittamaan jälkikäteen hyväuskoisuutta ja lainmukaisuutta.

7.2. Tutustu tekoälytyökalujen käyttöehtoihin: Mikäli organisaatiosi käyttää kolmannen osapuolen tarjoamia AI-palveluja (kuten suuria kielimalleja pilvipalveluna, kuvageneraattoreita ym.), lue huolellisesti palvelun käyttöehdot. Niistä ilmenee usein, kuka omistaa oikeudet tuotettuun sisältöön ja mitä rajoituksia datan käyttöön liittyy.

Moni työkalu ilmoittaa käyttäjän omistavan outputin, mutta samalla muistuttaa, ettei sisältö välttämättä ole tekijänoikeudellisesti suojattu ilman ihmisen panosta​.

Ehdot saattavat sisältää myös lupauksia tai rajoituksia palveluntarjoajan puolesta: esim. tietoa siitä, miten koulutusdata on hankittu lainmukaisesti (tai varoituksia, jos ei ole).

On tärkeää ymmärtää, mitä palvelun antama “output ownership” tosiasiassa tarkoittaa – se ei poista kolmansien osapuolien oikeuksia, jos output sisältää suojattua materiaalia.

Jos ehdot ovat epäselvät tai kohtuuttomat, harkitse vaihtoehtoista työkalua.

7.3. Laadi selkeät sopimukset ja roolit: Kun organisaatio teettää esimerkiksi mainostoimistolla sisältöä, jossa hyödynnetään tekoälyä, tai kun organisaatio ostaa tekoälypalvelun, sopimuksiin on syytä kirjata immateriaalioikeuksia koskevat ehdot.

Määrittele, kenelle syntyy omistusoikeus AI:n tuottamaan aineistoon (siltä osin kuin suojaa syntyy) ja kenellä on oikeus hyödyntää sitä.

Sisällytä ehto, että palveluntuottaja vakuuttaa noudattaneensa tekijänoikeuslakeja esim. koulutusdatan osalta – näin vastuuta voidaan tarvittaessa kohdentaa sopimusrikkomuksena, jos jokin menee vikaan.

Sopimuksissa voi myös olla korvausvastuuta koskevia ehtoja: esimerkiksi alihankkija sitoutuu vastaamaan, mikäli sen toimittama AI-generoitu materiaali rikkoo kolmannen oikeuksia​.

Selkeät sopimusehdot ehkäisevät myöhempiä riitoja ja varmistavat, että kaikki osapuolet tiedostavat vastuualueensa.

7.4. Dokumentoi luomisprosessi: Suositeltavaa on ylläpitää jonkinlaista lokia tai dokumentaatiota siitä, miten tekoälyä on käytetty sisällön luomisessa. Kirjaa ylös tärkeimmät kehotteet (promtit), valinnat ja mahdolliset ihmisen tekemät muokkaukset lopputulokseen​. Jos valmista sisältöä jouduttaisiin puolustamaan oikeudessa, tällä dokumentaatiolla voitaisiin osoittaa, missä määrin ihminen on tuottanut luovan panoksen (mikä auttaa osoittamaan teoskynnyksen ylittymistä suojan kannalta)​.

Toisaalta dokumentit voivat paljastaa, että output on syntynyt AI:n kautta – mikä on rehellisyyden ja avoimuuden kannalta tärkeää esimerkiksi tieteellisissä julkaisuissa tai kilpailutöissä. Jotkut alat alkavat jo vaatia, että AI:n käyttö ilmoitetaan.

Sisäisesti dokumentaatio auttaa myös oppimaan: siitä näkee, millaiset prosessit tuottavat hyviä ja laillisesti ongelmattomia lopputuloksia.

7.5. Tarkista ja arvioi AI:n tuotokset ennen käyttöä: Ota käyttöön käytäntö, että yksikään tekoälyn generoima sisältö ei mene suoraan julkisuuteen ilman ihmisen tarkastusta. Tarkistuslistaan tulisi kuulua ainakin: sisältääkö materiaali mitään tunnistettavia lainauksia tai elementtejä, jotka kuuluvat jollekulle muulle? Tee tarvittaessa hakuja: esimerkiksi kopioi pidempiä tekstinpätkiä hakukoneeseen selvittääksesi, tulevatko ne suoraan jostain olemassa olevasta tekstistä.

Kuvien osalta hyödynnä käänteistä kuvahakua tai erikoistuneita työkaluja nähdäksesi, muistuttaako AI-kuva liikaa jotain tunnettua kuvaa.

Koodin osalta, vertaile AI:n antamaa koodia tunnettuun avoimeen lähdekoodiin (monille kirjastoille on hakukoneita). Jos löytyy vastaavuuksia, harkitse uudelleenkirjoittamista omin sanoin / keinoin, tai pyydä tekoälyä tuottamaan vaihtoehtoinen versio.

Varo erityisesti nimiä ja brändejä: jos AI:n tekstissä esiintyy yritysten tai tuotteiden nimiä, arvioi onko niiden käyttö kontekstissa sopivaa vai voisiko se loukata tavaramerkkiä tai antaa väärän vaikutelman.

Lyhyesti sanottuna: pidä AI-tuotosta raakaversiona, jota pitää kuraattorina käsitellä ennen sen julkaisemista.

7.6. Luo organisaation sisäiset ohjeet tekoälyn käyttöön: Kattava AI-politiikka organisaatiossa auttaa yhtenäistämään toimintatapoja​. Ohjeessa voidaan määritellä esimerkiksi:

  • Mihin käyttötarkoituksiin tekoälyä saa hyödyntää (esim. ideoiden generointi kyllä, mutta suoraan julkaisukelpoisen materiaalin teko vain tietyin ehdoin).
  • Mitä aineistoa tekoälylle saa syöttää: kieltää luottamuksellisten tai tekijänoikeudella suojattujen aineistojen syöttäminen julkisiin AI-palveluihin, ellei ole lupaa. (Monet AI-palvelut myös opettavat malliaan käyttäjien antamilla syötteillä, mikä voi vuotaa tietoja ulkopuolelle.)
  • Laadunvarmistus: vaadi, että aina on ihmisen hyväksyntä AI:n sisällölle ennen sen käyttöä yrityksen ulkoisessa toiminnassa.
  • Immateriaalioikeuksien kunnioittaminen: muistuta, että vaikka AI tuottaa sisällön, se ei takaa vapaita oikeuksia – käyttäjän on varmistettava, ettei lopputulos perustu luvatta toisten teoksiin.
  • Tietosuoja: ohjeista, ettei henkilötietoja tai arkaluonteista infoa syötetä tekoälyihin (paitsi jos käytössä on nimenomaan siihen tarkoitettu, sopimuksin suojattu AI-ratkaisu).
  • Tekijänoikeusmerkinnät: jos AI:ta on käytetty, pitääkö lopputuotteessa ilmoittaa siitä (esim. “Tämän kuvan pohjana on käytetty tekoälyn generoimaa luonnosta” tms.), vai pidetäänkö prosessi sisäisenä.

Sisäiset ohjeet lisäävät tietoisuutta ja antavat johdolta signaalin, että aiheen riskit otetaan vakavasti. Sisäiset ohjeet auttavat myös etiikan ja vastuun kysymyksissä – vastuullinen tekoälyn käyttö voi olla jopa kilpailuetu.

7.7. Seuraa lakikehitystä ja päivitä käytäntöjä: Immateriaalioikeuksien ja tekoälyn kenttä elää jatkuvasti. EU:n AI Act astuu voimaan asteittain 2025–2026, ja sen toimeenpanon yksityiskohdat täsmentyvät ajan myötä​.

Kansallisesti saatetaan säätää lisälakeja tai ohjeistuksia.

Oikeustapauksia tulee sekä EU:sta että muualta (esim. USA:n oikeudenkäynnit, CJEU:n ennakkoratkaisut).

Organisaatioiden on tärkeää pysyä ajan tasalla – esimerkiksi tekijänoikeusjärjestöjen, patenttivirastojen tai alan julkaisujen uutiskirjeet voivat olla hyödyksi. Jos (ja kun) uusia sääntöjä tai linjauksia tulee, päivitä organisaation ohjeita ja sopimusmalleja näitä vastaavasti.

7.8. Harkitse vakuutuksia ja suojaavia sopimuslausekkeita: Kuten mainittua, jotkut palveluntarjoajat tarjoavat indemniteettejä eli korvausvastuun jakamista.

Selvitä, kattaako organisaation nykyinen vastuuvakuutus IP-riskit myös silloin, kun vahinko aiheutuu tekoälyn toiminnasta. Vakuutusyhtiöt kehittävät mahdollisesti erityisiä tuotteita AI-riskeihin.

Myös alihankintasopimuksissa voidaan käyttää vakuuslausekkeita – esimerkiksi sisällyttää ehto, että sisältö ei loukkaa kolmansien oikeuksia ja jos loukkaa, toimittaja vastaa.

Tällaiset varautumiskeinot eivät estä loukkausta tapahtumasta, mutta voivat pelastaa taloudellisesti pahimmalta.

7.9. Kouluta henkilöstöä: Uuden teknologian myötä myös osaamista on päivitettävä. Järjestä lakitiimin tai ulkopuolisen asiantuntijan voimin koulutuksia siitä, mitä tekijänoikeus ja muut IP-oikeudet tarkoittavat tekoälyn yhteydessä.

Käy läpi konkreettisia do’s and don’ts -esimerkkejä (esim. “Älä syötä kokonaista asiakkaan lähettämää tekstidokumenttia julkiseen ChatGPT:hen”, “Älä julkaise AI:n kirjoittamaa blogitekstiä tarkistamatta plagiointia”).

Kun työntekijät ymmärtävät sekä mahdollisuudet että riskit, he osaavat hyödyntää tekoälyä tehokkaammin turvallisella tavalla.

Muistuta myös siitä, että tekoäly ei korvaa tervettä maalaisjärkeä ja kriittistä arviointia – lopullinen vastuu on aina ihmisellä.

7.10. Kehitä teknisiä suojatoimia: Jos organisaatio rakentaa omia AI-työkaluja, niiden sisään voidaan leipoa tiettyjä rajoituksia: esim. suodattimia, jotka estävät mallia tuottamasta tekstiä, joka on peräisin suoraan tietyistä lähteistä (tunnetuista teksteistä) tai kuvia, joissa tunnistuu tiettyjä tunnusomaisia piirteitä (kuten vesileimoja).

Vaikka täydellinen suodatus on vaikeaa, monet kaupalliset toimijat ovat jo kehittäneet “sisällöntarkistajia” AI:lle.

Myös avoimen lähdekoodin yhteisöissä on työkaluja, joilla voi yrittää tunnistaa AI-mallin outputista potentiaalisia tekijänoikeusloukkauksia (esim. copy detection -algoritmit).

Organisaatioiden, joille generatiivinen tekoäly on olennainen osa ydinliiketoimintaa, kannattaa investoida tällaisiin turvatoimiin.

8. Lopuksi:

Tekoälyn hyödyntäminen tarjoaa valtavia mahdollisuuksia luovuuteen, innovaatioihin ja tehokkuuteen. Samalla tekoäly haastaa perinteiset immateriaalioikeudelliset ajattelumallit.

Organisaatioiden johdon, lakimiesten ja kehittäjien on tehtävä tiivistä yhteistyötä navigoidakseen tätä uutta aluetta.

Huolellisella ennakoinnilla, jatkuvalla oppimisella ja vastuullisella käytöllä on mahdollista hyödyntää tekoälyä turvallisesti – siten, että kunnioitetaan tekijöiden ja keksijöiden oikeuksia ja vältetään loukkaukset. Lainsäädäntö ja oikeuskäytäntö kehittyvät ajan mukana, mutta proaktiivinen riskienhallinta on paras turva.

Tämä artikkeli toivottavasti auttaa hahmottamaan keskeiset kysymykset ja toimii tukena organisaatioiden laatiessa omia käytäntöjään tekoälyn aikakaudella.

Tutustu myös artikkeliimme