Lainalaisuusperiaate koskee myös tekoälyä

Perustuslakiin pohjautuvan lainalaisuusperiaatteen mukaan julkisen vallan käytön tulee perustua lakiin. Vallankäyttöä ovat toimet, joilla vaikutetaan jotenkin yksilön tai yhteisön oikeuksiin, velvollisuuksiin tai asemaan. Tämä koskee myös tekoälyratkaisuja. Vaikka asian pystyisi tekemään näennäisen kätevästi tekoälyllä, ei siihen voi tuoda tekoälyä teknologiakärki edellä, vaan asia on tuotava lainsäädäntö huomioiden tai uuden lainsäädännön kautta.

Lainalaisuusperiaate ei tässä kohtaa ole mitenkään turha hidaste, vaan suojaa Suomessa asuvia ihmisiä ja heidän muodostamiaan yhteisöjä liian innokkaalta uusien teknologioiden käytöltä. Nopeasti käyttöön otetut suurten teknologiafirmojen tarjoamat generatiivisen tekoälyn ratkaisut ovat nimittäin alttiita tietovuodoille (tietosuoja, tietoturva) ja virheellisen tai asenteellisen lopputuloksen tuottamiselle (oikeusturva, luottamuksensuoja, yhdenvertaisuus, syrjimättömyys, tiedonsaantioikeus, läpinäkyvyys). Monesta tekoälyyn liittyvästä asiasta säädetään EU:n tekoälyasetuksessa, mutta näistä asioista säädetään ennestään mm. yleisessä tietosuoja-asetuksessa (GDPR), tietosuojalaissa, laissa julkisen hallinnon tiedonhallinnasta, Suomen perustuslaissa, hallintolaissa, yhdenvertaisuuslaissa, laissa naisten ja miesten välisestä tasa-arvosta ja julkisuuslaissa eikä tekoälyasetusta laadittu ohittamaan em. periaatteita.

Lait on huomioitava muutenkin

Lakia ei toki voida rikkoa muissakaan kuin vallankäyttöön liittyvissä toimissa: perustuslaki toteaa ykskantaan, että kaikessa julkisessa toiminnassa on noudatettava tarkoin lakia. Tekoälyn myötä tämä voi tulla pohdittavaksi monessa eri kohtaa. Päättäjät, asiantuntijat ja virkamiehet tuntevat yleensä joitakin lakeja, jotka tulevat kyseeseen tekoälyasiassa, mutta eivät välttämättä tule ajatelleeksi kaikkia asiaan liittyviä säädöksiä. Otetaan muutama esimerkki:

Generatiivisen tekoälyn sovellusten yleiset kielimallit perustuvat laajojen, loppukäyttäjälle tuntemattomien aineistojen käyttöön mallin koulutusvaiheessa. Näihin aineistoihin sisältyy nykytilanteessa melko todennäköisesti tekijänoikeussuojattua materiaalia. Materiaali on voitu hankkia piratoituna tai se on voinut olla verkossa avoimesti saatavilla – jälkimmäinenkään ei tarkoita, että sitä voisi aina vapaasti käyttää. Tässä on epäeettisen toiminnan ohella oikeudellinen riski. On mahdollista, että materiaalia saa käyttää tekoälyn tiedonlouhintaan, kunhan prosessi ei tuota liian samankaltaista kopiota, mutta toistaiseksi ollaan epävarmalla alueella.

Tekijänoikeudet on julkishallinnossa syytä huomioida toiseltakin kannalta: kuka omistaa oikeudet tekoälyn eri asteisella käytöllä muokattuun aineistoon? Viranomaispäätöksillä ja -lausumilla sekä muutamilla muilla aineistoilla (ks. tekijänoikeuslain 9. §) ei ole tekijänoikeussuojaa, mutta julkishallinto tuottaa paljon muutakin kirjallista materiaalia.

Tekoäly-chatbotteja rajoittava laki digitaalisten palvelujen tarjoamisesta on varmasti tiedossa (palveluautomaatiossa tuotettavan neuvonnan tietosisällön asianmukaisuus on etukäteen varmistettava), mutta neuvontatilanne voi ulottua myös hallintolain alle, mikäli se kehittyy sellaiseksi, että annetaan neuvoja, jotka vaikuttavat asiakkaan oikeustilaan.

EU:n tekoälyasetus suunniteltiin täydentämään yleistä tietosuoja-asetusta. GDPR siis koskee myös tekoälyjärjestelmiä ja on syytä muistaa generatiivista tekoälyä käytettäessä. Mihin antaa tarkoituksella tai tarkoittamattaan pääsyn, mitä tietoa jakaa eteenpäin, miten yksilöiden omat tietosuojaoikeudet toteutuvat…

Summa summarum: se, että jotain asiaa ei säädellä EU:n tekoälyasetuksessa ja siihen liittyvässä kansallisessa lainsäädännössä, tai lainsäädäntö ei vielä ole tullut joltain osin voimaan, ei ole merkitsevää, mikäli asia on laiton muun lainsäädännön nojalla.

Vaikka toiminta ei olisi laitonta, voi se olla epäeettistä

Osa eettisistä kysymyksistä on otettu huomioon EU:n tekoälyasetuksessa. Nämä liittyvät esim. henkilöiden profilointiin ja tunteiden tunnistamiseen. Suuria osa-alueita kuitenkin jäi sivuun.

Asia, josta ei Suomessa juuri puhuta, on työperäinen hyväksikäyttö laajojen kielimallien koulutuksessa. Julkishallinnon ei pitäisi käyttää malleja, joissa on työvoiman riiston vaara, vaan selvittää ennen palveluun sitoutumista sen taustat. Tilaajavastuulaki velvoittaa tilaajaa selvittämään työoikeudelliset olot, mutta se ei sovi ohjelmistohankintoihin. Hankintalaki sopii, mutta se jättää tämän harkinnanvaraisiin poissulkuperusteisiin, ja päälle vielä hankintayksikölle näyttövelvoitteen. Työperäiseltä hyväksikäytöltä voidaan näin ollen sulkea silmät silloin, kun se tapahtuu jossain kaukana ja pitkän ketjun välityksellä. Eettistä se ei kuitenkaan koskaan ole.

Suurten kielimallien koulutus ja käyttö tuottavat myös suuren ympäristökuorman ja joillakin maailman alueilla niitä varten rakennetut datakeskukset vaikuttavat jo paikallisiin energia- ja vesioloihin. Vaikka asia Suomessa saattaa vaikuttaa kaukaiselta, ollaan saman kysymyksen äärellä kuin edellisessä kappaleessa. Globaali kestävä kehitys on – jos ei vielä suoraan lainsäädännössä, kuitenkin yleisesti hyväksytyissä periaatteissa, jotka ilmenevät esim. YK:n kestävän kehityksen tavoiteohjelmassa.

Tulevien ongelmien välttämiseksi olisi hyödyllistä listata itselleen, mitkä lait juuri minun tehtävääni koskevat ja miten käyttämäni tekoälyn koulutusvaihe, käyttö ja tulosten hyödyntäminen niihin nähden asemoituvat. Ja miten on eettisten periaatteiden laita?

Valtion johdon näytettävä mallia

Ja kun puhutaan valtiolla työskentelevien tekoälykyvykkyydestä, on puhuttava myös valtion johdosta. Huolestuttavia esimerkkejä voitiin lukea Suomen Kuvalehden jutusta numerossa 22/2025, jota varten oli tehty kysely ja haastateltu kansanedustajia. Vastanneet 27 edustajaa jakautuivat välille totaalikieltäytyjistä aktiivikäyttäjiin. Useimmat korostivat, että eivät syöttäisi tekoälysovelluksiin salaista materiaalia. Tekoälyä kuitenkin saatettiin käyttää tiedonhaussa tai omien puheiden luonnostelussa. Kun täysistuntojen pöytäkirjojen laatimisessa käytetään nykyään apuna kielimalli-tekoälyä, on päädytty osittaiseen tekoälyltä tekoälylle -tilanteeseen. Kaikki eivät olleet kuulleet eduskunnan yhdeksänkohtaisesta ohjeesta, tekoälyhuoneentaulusta, joka linjaa mm. tietojen syötöstä, tulosten tarkistuksesta ja kehottaa osallistumaan koulutuksiin.

Aiemmin sovellukset toimivat itse raamina niiden käytölle eli väärinkäytön mahdollisuudet olivat rajalliset (tietojen luvaton katselu esimerkkinä). Generatiivisen tekoälyn aikakaudella etukäteen rajoittaminen on vaikeampaa, joten jokaisen vastuulle jää ymmärtää, miten työkalua sopii lain ja moraalin puitteissa käyttää.

Onko generatiivinen tekoäly oikea ratkaisu?

Oma kysymyksensä on se, mihin generatiivista tekoälyä julkishallinnossa lopulta tarvitaan. Emme mene siihen tässä kirjoituksessa syvällisemmin, mutta mainitsemme, että moniin prosesseihin riittäisi kenties jo käsittelyn virtaviivaistaminen ja sääntöpohjainen päättely. Näiden jälkeen voi miettiä, olisiko hyötyä jostain tehtäväkohtaisesta tekoälymallista, jota voisi kouluttaa itse omistetuilla aineistoilla. Jos sen jälkeen vielä näyttää, että nimenomaan generatiivinen tekoäly olisi ratkaisu, on todellakin syytä käydä tekstissä esitetty lainalaisuus/laillisuuspohdinta huolella läpi. Ja muistaa, että virheistä vastaa aina ihminen.

Lakeja ei tule muuttaa hypen ajamana

Petteri Orpon hallituksen ohjelmassa todetaan: ”Digitalisaation ja teknologisen kehityksen luonne vaatii, että sääntelyä päivitetään” ja tämä koskee niin EU-sääntelyä kuin kansallista ja nimenomaan mm. tekoälyn käyttöä mahdollistavaan suuntaan. Erityisesti on nostettava esiin otsikon “Digitaalinen ja tehokas julkinen hallinto” alta kohta, jossa hallitus mahdollistaa tekoälyn avulla tehtävät automaattiset viranomaispäätökset.

Oikeusministeriö on nyt käynnistänyt esiselvityksen tekoälyn käytön edellytyksistä päätöksenteossa. Valtiovarainministeriö puolestaan valmistelee lainsäädäntöä, joka mahdollistaisi tekoälyn nykyistä laajemman käytön viranomaisneuvonnassa.

Kiire muuttaa lakeja, ottaa perälaudat pois, on kuitenkin yksi tekoälyhypen huolestuttavia sivuvaikutuksia. Emme mene tässä jutussa edes digipudokkaisiin, joiden määrä lisääntyy, kun palveluita ja päätöksiä siirretään yhä enemmän automaation hoidettaviksi. Kielimalli-tekoälyt ovat jo itsessään niin ongelmallisia, että ne eivät saa olla perustana tarpeellisen sääntelyn purkamiselle.

Lokakuussa julkistettiin Agentic State -visiopaperi, joka sai Suomessakin jonkin verran julkisuutta. Sen sisältö on täysin ristiriidassa nykyiseen kansalaisia suojaavaan lainsäädäntöön nähden. Paperissa perustuslaillisista periaatteista mainittiin lähinnä niiden lakievoluutiota hidastava vaikutus. Visiossa julkishallinto paimentaisi itse keräämäänsä ja muualta haalittua aineistoa, jolla ruokittaisiin tekoälyagentteja, jotka sitten muun muassa voisivat tehdä rutiininomaisia päätöksiä esimerkiksi lupa-asioihin liittyen. Vasta erityistä huomiota vaativissa ongelmatapauksissa ihminen tuotaisiin osaksi päätöksentekoa – muutoin agentit hoitaisivat kansalaisten asiat ja esimerkiksi laskisivat politiikkatoimien vaikutukset. Lopputulokseksi saadaan kansalainen hallinnon ja teknologian sätkynukkena. Kenties kuitenkin haluamme pitää ihmiset ja yhdessä hyväksytyt periaatteet keskiössä. Se tekisi hyvää myös demokratialle.

Kirjoittaja

Reija Haapanen

Puheenjohtaja, Vastuullinen tekoäly ry

Kirjoittaja

Erkki Mervaala

Tutkija, Suomen ympäristökeskus

Vastaa

Pakolliset kentät on merkitty *