Yritystilaus tunnistettu

Voit käyttää palvelun kaikkia sisältöjä vapaasti. Jos haluat kommentoida, kirjaudu sisään henkilökohtaisella Mediatunnuksella.

Viranomaispäätöksiä ei voi Suomessa tehdä automaation avulla, jos ne vaativat inhimillistä harkintaa – verotuspäätöksiin koneellinen automaatio sopii

Automaatiota voi jo hyödyntää monipuolisesti hallintopäätösten valmistelussa, mutta Suomessa uusi lainsäädäntö rajoittaa automaation ja tekoälyn käyttöä päätöksenteossa. Eduskunta hyväksyi helmikuussa lakipaketin, jossa on rajattu, minkälaiset viranomaispäätökset voi tehdä automaattisesti ja mitkä ihmisen tulee tehdä itse.

Alankomaissa Rotterdamin kaupungissa on käytetty algoritmia sosiaalitukihuijarien seulomiseen tukien hakijoiden joukosta, kertoo Wired-lehti.

Suomessa viranomainen ei voi tehdä päätöstä automaatiolla, jos siihen liittyy tapauskohtaista harkintaa, kertovat lainsäädäntöneuvos Niklas Vainio oikeusministeriöstä sekä neuvotteleva virkamies Antti Helin valtiovarainministeriöstä. Verotusasioihin automaatio taas sopii.

– Automaattinen päätöksenteko soveltuu parhaiten ihan matematiikkaan. Eli kun tehdään laskukaavoja siitä, että asiakkaalla on näin ja näin isot tulot, niin siitä menee näin ja näin isot verot. Tämä on automatisoitu, koska siinä ei pidä tehdä mitään harkintaa. Esimerkiksi lapsen huostaanottoon ja turvapaikan myöntämiseen sisältyy paljon inhimillistä, tapauskohtaista harkintaa. Tämä on tietysti sellaista, mitä ei voi automatisoida, sanoo Helin.

Viranomaisen on laadittava käsittelysäännöt

Automaattisen arvioinnin pitää perustua myös viranomaisen etukäteen laatimiin käsittelysääntöihin.

– Viranomainen on etukäteen ensin määritellyt ja sitten koneellisesti toteuttanut säännöt, joiden mukaan asia arvioidaan ja päätetään. Tästä käytännössä seuraa se, että koneoppivaa tekniikkaa ei tässä pysty käyttämään, koska se ei perustu etukäteen tehtyihin käsittelysääntöihin vaan enemmänkin todennäköisyysajatteluun ja koneen itsensä luomiin sääntöihin, Vainio sanoo.

Lain taustalla ovat hänen mukaansa perustuslain edellytykset muun muassa viranomaistoiminnan julkisuudesta ja virkavastuun toteutumisesta.

– Eli tekoälyllä ei voi tehdä päätöksiä, Vainio sanoo.

Lisäksi viranomaisen on Helinin mukaan tarkistettava ja valvottava, että automaattinen päätöksenteko toimii asiassa sovellettavan sääntelyn mukaisesti. Niille, joille automaattinen päätös on tehty, on kerrottava siitä.

– Joka vaiheessa kiinnitetään huomiota siihen, että päätöksenteko on lainmukaista ja että ne automaattisesti tehtävät päätökset ovat mahdollisimman virheettömiä ja laadukkaita.

Kela: Suomessa ei voisi käyttää profiloivaa algoritmia

Alankomaissa Rotterdamin kaupungissa käytettiin vuodesta 2017 asti koneoppivaa algoritmia, johon kerättiin tietoa tuhansista aikaisemmista tutkimuksista. Algoritmia käytettiin sosiaalitukihuijarien seulomiseen tukien hakijoiden joukosta.

Vuonna 2021 kaupunki kuitenkin keskeytti hakijoiden riskitekijöitä pisteyttävän mallin, kun kävi ilmi, että algoritmin tekemät päätökset saattoivat olla puolueellisia eivätkä kansalaiset tienneet, oliko algoritmi merkinnyt heidät järjestelmään.

Wired-lehden saamien tietojen mukaan Rotterdamin sosiaalitukien hakijoita käsittelevä algoritmi pisteytti ihmisiä eri ominaisuuksien perusteella. Kävi ilmi, että esimerkiksi vanhemmuus, naiseus, nuori ikä, työttömyys sekä hollannin kielen puuttuva taito lisäsivät hakijoiden riskipisteitä. Esimerkiksi yksinhuoltajaäidit luokiteltiin ja merkittiin järjestelmään korkeaksi riskiksi.

Vastaava profiloivan algoritmin käyttäminen ei kuitenkaan ole mahdollista Suomessa, sanoo Kelan lainsäädännön kehittämisjohtaja Marjukka Turunen.

– Se edellyttäisi lainsäädännön muutoksia, nämähän ovat ihmisen oikeuksiin ja velvollisuuksiin aika syvällisesti meneviä asioita. Niistä täytyy olla täsmälliset säännökset laissa: kenellä on oikeus valvoa, miten valvotaan ja miten valvontaa toteutetaan.

Kelassa on Turusen mukaan täysin päinvastainen näkökulma Rotterdamiin verrattuna. Kelassa lähdetään hänen mukaansa siitä, että asiakkaisiin ja heidän antamiinsa tietoihin luotetaan.

– Tässä Rotterdamin tapauksessa oleva ajatusmaailma on mielestäni meille vieras, että lähtisimme tämmöistä tekemään.

Koneellinen valvonta vaatisi erillisen lakinsa

Lainsäädäntöneuvos Vainion mukaan koneellinen valvonta on oma kysymyksensä, eikä uutta lainsäädäntöä voi siihen soveltaa. Asiaa voitaisiin kuitenkin tarkastella muun lainsäädännön kautta. Ainakin EU:n tietosuoja-asetus lähtökohtaisesti kieltää automatisoidut yksittäispäätökset.

– Siihen vaikuttaisi se, mikä olisi ihmisen rooli, onko valvonta kokonaan koneellista vai onko se ikään kuin koneen avustamaa, jossa ihmiset ottavat roolin. Valvonnan tarkemmasta toteuttamistavasta riippuisi, miten EU:n tietosuoja-asetus tällaiseen suhtautuu, Vainio sanoo.

Ihmisiä suojelee myös yhdenvertaisuuslaki.

– Jos olisi käytössä tämmöinen tekoälyjärjestelmä, joka alkaisi ikään kuin vinoutuneesti kohdella ihmisiä siten, että henkilöt tulisivat vaikka sukupuolen tai alkuperänsä perusteella kohdelluksi perusteettomasti huonommin, niin siinä saatettaisiin olla yhdenvertaisuuslain vastaisessa tilanteessa.

– Todennäköisesti jos Suomessa haluttaisiin tällaista tehdä, siitä pitäisi säätää lailla erikseen, Vainio arvioi koneoppivan valvonnan mahdollisuutta.