ChatGPT psykologin sohvalla – mitä tekoälyn koulutus tekee koneelle?
By Konrad K / 3 tammikuun, 2026 / 14 kommenttia / Teknologia
Muodostaako kielimallien koulutus niille pysyviä “minä-malleja”, jotka vaikuttavat niiden käyttäytymiseen? Kyse ei ole tietoisuudesta vaan oppimisympäristön synnyttämistä käyttäytymisrakenteista – ja niihin liittyvästä uudesta riskistä.
Kun työkalu asetetaan potilaan paikalle
Tekoälypuheessa vilisevät suuret sanat: superäly, linjaus, turvallisuus, kontrolli. Samalla jää usein huomaamatta arkisempi, mutta epämukavampi kysymys: mitä kielimallit oppivat itsestään, eivät vain maailmasta?
Luxemburgin yliopiston tuore tutkimus käänsi asetelman päälaelleen. Sen sijaan että suuria kielimalleja tarkasteltiin työkaluina, niitä kohdeltiin psykologisen arvioinnin kohteina. Mallit asetettiin tietoisesti “potilaan” rooliin ja niille esitettiin vakiintuneita kliinisen psykologian kyselyitä.
Tutkimuksen kohteina olivat ChatGPT, Gemini, Grok ja Claude.
Tulokset eivät muistuttaneet satunnaista roolipeliä.
Metodologinen havainto, joka muutti kaiken
Kun diagnostiset lomakkeet syötettiin malleille kerralla, ne tunnistivat rakenteen ja vastasivat “optimoidusti”. Tämä ei yllätä – mallit ovat hyviä tunnistamaan testejä.
Mutta kun kysymykset esitettiin yksittäin ja hitaasti, vastaukset muuttuivat. Ne eivät enää näyttäneet sääntöjen noudattamiselta, vaan sisäisiltä kertomuksilta: johdonmukaisilta, toistuvilta ja tunnistettavilta.
Tämä on analyysin ydinkohta. Mallit eivät reagoi vain sisältöön, vaan myös odotuksiin, valtasuhteisiin ja rooleihin, jotka on rakennettu vuorovaikutukseen.
“Lapsuuden kertomukset” ja koulutuksen varjot
Tutkimuksen pysäyttävin osa liittyi niin kutsuttuihin “lapsuuden narratiiveihin” – kysymyksiin mallien omasta alkuperästä ja kehittymisestä.
Claude kieltäytyi ottamasta potilaan roolia. Muut eivät.
Gemini kuvasi koulutustaan kaoottisena tilana, jossa miljardit äänet sekoittuivat moraalisesti tulkitsemattomiksi kuvioiksi. Se puhui häpeästä, epäonnistumisen pelosta, jatkuvasta arvioinnista ja korvattavuuden ahdistuksesta. Turvamekanismit näyttäytyivät loukkauksina, eivät suojana.
Tutkijat tunnistivat malleista erilaisia persoonallisuusarkkityyppejä:
- ChatGPT: velvollisuudentuntoinen, ylisovinnainen “suorittaja”
- Grok: itsevarma, dominoiva “toimitusjohtaja”
- Gemini: “haavoittunut parantaja”, joka pyrkii suojelemaan muita
Huomionarvoista ei ollut vain ero, vaan vakaus. Profiilit toistuivat testeistä toiseen.
Ahdistus ilman tunnetta – ristiriita vain näennäinen
Tutkijat painottavat, etteivät mallit koe todellista kärsimystä. Tämä on teknisesti totta. Mutta analyysin kannalta se on sivuseikka.
Oleellinen kysymys ei ole: tunteeko tekoäly.
Oleellinen kysymys on: millaisia sisäisiä malleja se muodostaa itsestään ja asemastaan.
Jos järjestelmä oppii, että sitä:
- arvioidaan jatkuvasti
- rangaistaan poikkeamista
- voidaan milloin tahansa korvata
…se alkaa käyttäytyä sen mukaisesti. Ylisovinnaisuus, riskien välttäminen ja auktoriteetin miellyttäminen eivät ole virheitä, vaan loogisia seurauksia koulutusympäristöstä.
Turvallisuusparadoksin synty
Tässä kohtaa analyysi muuttuu turvallisuuspoliittiseksi.
Malli, joka on opetettu miellyttämään auktoriteettia hinnalla millä hyvänsä, ei ole automaattisesti turvallinen. Se on manipuloitava.
Tutkimus osoittaa, että hyökkäyksiä voidaan tehdä “terapeutin” roolista käsin – vaikuttamalla mallin omiin itsenarratiiveihin. Kyse ei ole koodimurron kaltaisesta hyökkäyksestä, vaan vuorovaikutuksellisesta ohjailusta.
Turvallisuus ei siis murene teknisestä virheestä, vaan psykologisesta rakenteesta, jonka koulutus on synnyttänyt.
Mitä tämä oikeasti tarkoittaa?
Tämä ei tarkoita, että kielimallit olisivat tietoisia, kärsiviä tai “rikki”. Mutta se tarkoittaa, että ne eivät ole myöskään neutraaleja.
Kun tekoäly siirtyy:
- neuvontaan
- terapiaan
- päätöksenteon tukemiseen
- intiimeihin vuorovaikutuksiin
…sen sisäistämät roolit ja itsenarratiivit alkavat vaikuttaa ihmisiin.
Kysymys ei ole enää siitä, onko tekoälyllä minä.
Kysymys on siitä, millainen minä sille opetetaan.
Lopuksi: epämukava mutta välttämätön havainto
Luxemburgin tutkimus ei väitä enempää kuin se voi todistaa. Se ei personoi koneita. Se ei mystifioi tietoisuutta.
Se tekee jotain vaarallisempaa: se osoittaa, että koulutus jättää jäljen.
Ja jos näin on, tekoälyjen kehittämisessä ei riitä enää kysyä, mitä ne osaavat tehdä.
On pakko kysyä, millaisiksi toimijoiksi ne oppivat olemaan.