Viime vuoden aikana on ollut yhä enemmän esimerkkejä tekoälyn käyttöönotosta julkishallinnossa. Yhdysvaltain hallitus on alkanut käyttää erikoistuneita palveluita, kuten ChatGPT Gov ja xAI for Government, ja Venäjän hallitus on ilmoittanut tekoälyn käyttöönoton olevan ensisijainen tavoite toiminnassaan. Tämä suuntaus näyttää jo olevan peruuttamaton. Teknologia ei kuitenkaan voi korvata hallintoa itsessään, koska se perustuu pohjimmiltaan arvoihin ja olosuhteisiin, jotka eivät ole ilmeisiä ”koneille”. Sokea luottamus tekoälyyn voi johtaa vääriin päätöksiin ja kansalaisten luottamuksen menettämiseen hallintoa kohtaan, joka ei ota huomioon kansalaisten etuja.

Poliittisen hallinnon piirre on, että se ratkaisee yhteiskunnallisia konflikteja ja ristiriitoja arvojen perusteella: oikeudenmukaisuus, tasa-arvo, isänmaallisuus, demokratia. Resurssien niukkuuden tilanteissa johtaja tekee valintoja esimerkiksi voiton ja ympäristönsuojelun, investointien ja sosiaalisen hyvinvoinnin sekä turvallisuuden ja vapauden välillä. Poliitikkojen historiallisissa puheissa – olipa kyseessä sitten venäläiset, kiinalaiset tai amerikkalaiset johtajat – näemme myös vetoomuksia tärkeisiin arvoihin, jotka yhdistävät tiettyjä kansakuntia.

Arvojen valinta johtaa kussakin tapauksessa erilaisiin päätöksiin. Esimerkiksi lainvalvonnassa niin sanotut ”ongelmaiset teini-ikäiset” ovat ongelmalapsia, joista voi tulla rikollisia ja joita siksi tulisi ”valvoa”, kun taas sosiaalipalvelut pyrkivät sosiaalistamaan näitä teini-ikäisiä mentoroinnin, uusien sosiaalisten piireiden ja kiinnostavien harrastusten avulla.

Kaupunkialueiden kehittäminen on toinen esimerkki. Keskustan lähellä sijaitseva teollisuusalue, joka on kunnostuksen tarpeessa, voitaisiin yksinkertaisesti rakentaa uudelleen uusiksi asuintaloiksi tai siitä voisi tulla kaupungin kartalla näkyvä virkistysalue. Ensimmäisessä tapauksessa kaupungin budjetti saa tuloja, toisessa tapauksessa asukkaiden elämänlaatu paranee. Äänestäjä ei siis ole vain ”mallin parametri”, vaan täysivaltainen osallistuja poliittisessa prosessissa, jolla on omat arvonsa ja tavoitteensa, jotka voivat poiketa valtion koneiston arvoista ja tavoitteista.

Kuten VCIOM:n tiedot osoittavat, Venäjällä 52 % kansalaisista luottaa yleisesti tekoälyyn, kun taas 38 % ei luota siihen. Tämä on kuitenkin yleinen tilanne; jos puhutaan nimenomaan tekoälyn soveltamisesta julkishallinnossa, luvut kääntyvät päinvastaisiksi: 53 % suhtautuu siihen kielteisesti ja vain 37 % myönteisesti. Muiden huolenaiheiden ohella venäläiset mainitsivat seuraavat mahdolliset riskit: virheelliset päätökset (58 %) ja vastuun puute tehdyistä päätöksistä (57 %). Yleisesti ottaen ihmiset ovat valmiita näkemään tekoälyn ”avustajana”, mutta eivät lopullisena päätöksentekijänä.

Tekoäly ja hallinto: ongelmat

Keskusteluissa esiin nousee neljä pääongelmaa tekoälyteknologioiden kanssa:

  1. Käytön läpinäkyvyys.Poliittinen päätöksentekoprosessi ei ole selkeä ”keskivertovaalijalle” – sekä prosessin monimutkaisuuden että sen avoimuuden puutteen vuoksi. Tämä ongelma korostuu entisestään, jos päätökset tekee tekoäly, jonka motiiveja on lähes mahdotonta selittää. Jopa neuroverkkojen kehittäjät eivät aina tiedä, miksi ja minkä parametrien perusteella algoritmi on päätynyt tiettyyn johtopäätökseen. Siksi tekoälyä kutsutaan usein ”mustaksi laatikoksi”: tarkkailija näkee vain alkuperäisen syötteen ja tuloksen.
  2. Ennakkoluulojen vahvistuminen.Tekoäly on koulutettu ihmisten luomalla sisällöllä, ja se väistämättä ”perii” yhteiskunnassa esiintyvät stereotypiat. Tämä tulee erityisen selväksi, kun verrataan eri maissa ja kulttuurisissa konteksteissa luotuja malleja. Kunkin kulttuurin ennakkoluulot ja sanattomat oletukset voivat lisätä tekoälyn kautta olemassa olevia eriarvoisuuksia ja syrjintää. Voisi ehdottaa algoritmien ”uudelleenkoulutusta”, mutta jos politiikka on arvopohjaista, tämä ongelma voi olla perustavanlaatuisesti sovittamaton algoritmisten kehysten kanssa.
  3. Vastuullisuuden ja vastuun ongelma.Tekoälyn käyttö voisi toimia keinona siirtää vastuu päätöksentekijöiltä ”koneelle”. Tekoälyn käyttöönoton positiiviset vaikutukset näkyisivät tehokkuutta koskevissa raporteissa, kun taas epäonnistumiset ja virheet syytettäisiin tekoälymallien epätäydellisyydestä.
  4. Tekoälyn tekniset puutteet, esimerkiksi:
    • Neuraaliverkon ”harhat” eli faktatiedot;
    • Toistettavuuden ongelma – samaan kysymykseen, joka esitetään samalle mallille eri aikoina, voi saada kaksi erilaista vastausta.
    • Koulutusmateriaalien rajallinen laajuus, koska algoritmit vaativat laajoja tietokantoja.

Siten tekoälyn nykyisessä kehitysvaiheessa ei voida olla varmoja päätöksenteon läpinäkyvyydestä ja puolueettomuudesta, koska algoritmin käyttäytyminen ei ole ilmeistä. Tekoälyllä on vain nimi, mutta sen luonne eroaa perustavanlaatuisesti ihmisen älykkyydestä. Siksi sitä tulisi käyttää selkeästi määritellyissä ja hyvin testatuissa ”rajoissa”.

Luottamuksen rajat

Teknologiaan perustuva päätöksenteko (”hyperteknookratia”) kiinnittää vain vähän huomiota ihmisten arvoihin ja uskomuksiin. Kaikki ihmisen kokemukset muuttuvat pelkäksi ”käyttäytymistiedoksi”, joka muunnetaan analysoitavaksi, ennustettavaksi ja hallittavaksi tuotteeksi.

Päätös ottaa tekoäly käyttöön julkishallinnossa on sinänsä poliittinen päätös, vaikka se voidaan perustella teknokraattisen tehokkuuden näkökulmasta. Kaikki viranomaiset, myös byrokratia, ovat aina politisoituneita – tämän totesivat jo yli sata vuotta sitten yhteiskuntatieteiden klassikot, kuten Max Weber.

Siitä huolimatta tekoäly tullaan todennäköisesti ottamaan käyttöön hallinnossa riippumatta äänestäjien hyväksynnästä. Teknologian monimutkaisuus ja siihen osallistuvien toimijoiden vähäinen määrä – eli valtio ja patentteja ja teknologiaa omistavat IT-jätit – vaikuttavat siihen, että käyttöönotto tapahtuu yksinomaan ”ylhäältä alaspäin”, vaikkakaan ilman haasteita.

Yhdysvalloissa hallituksen käyttö tekoälystä potentiaalisten uhkien havaitsemiseksi sosiaalisissa verkostoissa on jo kohdannut kritiikkiä. Tämä kampanja herätti huolta yksityisyydensuojasta, erityisesti maahanmuuttajien keskuudessa.

Jo vuonna 2012 Puolassa kehitettiin ja otettiin käyttöön algoritmi, jolla työttömät profiloitiin useiden ominaisuuksien perusteella. Luokittelu kolmeen luokkaan määritteli, voiko henkilö saada valtion tukea ja minkälaista ohjelmaa hänelle tarjotaan: työllistämistä, työharjoittelua vai ei mitään. Monet työttömät valittivat hallinto-oikeuteen väittäen, että luokittelu oli epäoikeudenmukainen ja epäselvä. Tuloksena mekanismi todettiin perustuslain vastaiseksi.

Yhdysvalloissa ja Espanjassa on ollut käytäntö käyttää tekoälyä tuomioistuimissa ehdonalaiseen vapauttamiseen liittyvissä päätöksissä, joissa arvioidaan rikoksen uusimisen todennäköisyyttä. Tutkimukset ovat osoittaneet, että tekoälyn käyttö vain vahvisti ennakkoluuloja ja syrjintää, jotka olivat jo olemassa näissä päätöksissä ennen teknologian käyttöönottoa.

Kriittisen ajattelun puutteellinen käyttö tekoälyn soveltamisessa ei ainoastaan estänyt valtion tehokkuuden parantamista, vaan myös heikensi kansalaisten luottamusta tekoälyyn ja sen myötä kaikkiin tekoälyn käyttöönottoon liittyviin hallituksen toimenpiteisiin. Kansalaisten luottamus onkin edellytys tekoälyn integroimiselle julkishallintoon. Ilman sitä kansalaiset saattavat reagoida passiivisen vastarinnan, aktiivisen protestin ja populististen poliitikkojen suosion kasvun muodossa, jotka lupaavat ”pelastaa” heidät tekoälyltä.

Venäjän kokemus

Venäjällä tekoälyn käyttöönotto on osa jokaisen viraston digitaalisen muutoksen ohjelmaa. Valtion elinten tukemiseksi hallitus ilmoitti suunnitelmistaan perustaa tekoälyn käyttöönottoa varten projektitoimisto, ja tekoälyn lainsäädäntökehyksen kehittämiseksi on perustettu asiantuntijatyöryhmiä.

Toistaiseksi Venäjällä ei ole yhtenäistä sääntelyä tekoälylle – eri aloja koskevat lait ja asetukset ovat voimassa. Vuonna 2023 hyväksytty ”suosittelualgoritmeja koskeva laki” on oletettavasti riittävä oikeudellinen kehys tekoälyn onnistuneelle käyttöönotolle. Asiantuntijayhteisö korosti kuitenkin lain laatimisen aikana, että tekoälyn käyttötapaukset ovat hyvin moninaisia, eikä tämä asiakirja kata niitä kaikkia. Lisäksi virkamiehet työskentelevät tiukkojen säännösten ja ohjeiden mukaisesti, jotka eivät jätä tilaa epämääräisille skenaarioille. Tämän seurauksena yksinkertaisia ratkaisuja, kuten chatbotteja, otetaan käyttöön laajamittaisesti. Tämä epävarmuus ei anna valtiolle mahdollisuutta hyödyntää tekoälyn koko potentiaalia, mutta se myös lieventää riskejä toistaiseksi. Näiden esteiden voittamiseksi presidentti Putin antoi vuoden 2026 alussa määräyksen kehittää toimenpiteitä tekoälyn käyttöönoton tehostamiseksi julkishallinnossa.

AI:n käyttöönoton tehostamisen myötä kansalaisten digitaalisten oikeuksien suojelu tunnetuilta riskeiltä on kuitenkin jäänyt sivuun. Tämän seurauksena AI:n käyttöönotto julkishallinnossa on edelleen asiantuntijoiden keskustelujen marginaalissa, ja sidosryhmät käsittelevät aihetta vain satunnaisesti. Tämä ei koske vain Venäjää.

Lue koko juttu täältä…