Uusi useiden yliopistojen (Zürich, Amsterdam, Duke, NYU) tekemä tutkimus on yksi vuoden 2025 paljastavimmista tuloksista:
Tekoälymallien on huomattavasti vaikeampi jäljitellä ihmisen tunteita kuin ihmisen älykkyyttä.

Eikä kielioppi, monimutkaisuus tai johdonmukaisuus ole suurin paljastava tekijä.
Se on jotain paljon arkipäiväisempää:

Tekoäly on yksinkertaisesti liian kohtelias.

Tutkijoiden luokittelijat pystyivät havaitsemaan tekoälyn kirjoittamat vastaukset Twitter/X:ssä, Blueskyssä ja Redditissä 70-80 prosentin tarkkuudella. Tämä ei johtunut siitä, että kieli olisi ollut robottimaista, vaan siitä, että tunnesävy ei ollut tarpeeksi inhimillinen.


1. Ydinongelma: Ihmiset ovat tekoälyä sotkuisempia.

Tutkimuksessa havaittiin pysyvä malli:

Tekoälyn vastaukset ovat liian ystävällisiä, liian turvallisia ja emotionaalisesti liian johdonmukaisia.

Todelliset ihmiset verkossa ovat kaoottisia, ristiriitaisia, pikkumaisia, sarkastisia, passiivis-aggressiivisia, tylyjä tai suorastaan myrkyllisiä – usein ennalta arvaamattomasti.

Tekoälymallit, erityisesti ohjeiden mukaan viritetyt mallit, on optimoitu välttämään loukkauksia ja vähentämään haittoja. Tämä tarkoittaa:

  • vähentää negatiivisuutta
  • vähemmän tunnepurkauksia
  • vähemmän impulsiivisia reaktioita
  • ei aitoa ärtymystä tai turhautumista

Nämä piirteet tekevät tekoälyn tuotoksesta helposti erottuvan, vaikka itse kirjoitus olisi sujuvaa.

Tutkijat tekivät siitä selkeän yhteenvedon:

”Affektiivinen sävy ja tunneilmaisu kertovat edelleen luotettavasti.”


2. Myrkyllisyysparadoksi

Työssä testattiin yhdeksää suosittua avoimen painon mallia, mukaan lukien Llama 3.1 (8B ja 70B), Mistral 7B, Qwen, Gemma ja DeepSeek-R1-tislausvaihtoehdot.

Kaikkien mallien toksisuuspisteet olivat huomattavasti alhaisemmat kuin todellisten ihmisvastausten kaikilla testatuilla alustoilla.

Vastakkainen käänne:

Kun malleista yritettiin tehdä ihmismäisempiä, ne menettivät semanttista tarkkuuttaan.

Kun ne optimoitiin realistisiksi → ne ajautuivat kauemmas siitä, mitä ihmiset todella sanoivat.
Kun ne optimoitiin semanttisen samankaltaisuuden mukaan → ne oli helpompi havaita tekoälyksi.

Nämä kaksi tavoitetta – kuulostaa inhimilliseltä ja vastata inhimilliseen sisältöön – osoittautuivat kilpaileviksi tavoitteiksi, eivät yhteensopiviksi.


3. Isompi ei ole parempi, ja ohjeiden virittäminen pahentaa asiaa.

Yksi silmiinpistävimmistä johtopäätöksistä:

Suuret mallit eivät olleet parempia piiloutumaan.

Llama 3.1 70B ei toiminut yhtään paremmin kuin 8B-versio – joskus jopa huonommin.

Vielä yllättävämmin:

Ohjeiden mukaan viritetyt mallit jäljittelivät huonommin ihmisiä.

Tässä on selkeä logiikka:
Juuri päinvastoin kuin ihmiset käyttäytyvät avoimissa sosiaalisen median keskusteluissa.

Perusmallit (ei-käyttöviritteiset) olivat jatkuvasti vaikeammin tunnistettavissa.


4. Alustojen erot: Twitter on helpoin väärennös, Reddit vaikein.

Tutkijat havaitsivat selkeitä alustakohtaisia malleja:

  • Twitter/X: Tekoäly onnistuu parhaiten sulautumaan joukkoon
  • Bluesky: kohtalainen havaittavuus
  • Reddit: helpoin alusta luokittelijoille merkitä tekoälyvastauksia

Tämä heijastaa eroja harjoitusaineistossa ja keskustelutyylissä.
Twitterin lyhyys ja korkea melun ja signaalin suhde suosivat malleja, jotka yrittävät piiloutua.

Redditin pidemmät, kontekstipainotteisemmat keskustelut paljastavat jopa hienovaraisia tyylillisiä artefakteja.


5. Yksinkertaiset temput toimivat paremmin kuin monimutkainen optimointi

Tutkijat kokeilivat useita optimointistrategioita:

Mikä toimi:

  • annetaan konkreettisia esimerkkejä käyttäjän aiemmista viesteistä.
  • asiaankuuluvan asiayhteyden hakeminen
  • rakenteellisten epäsuhtien minimointi (pituus, monimutkaisuus).

Mikä epäonnistui:

  • persoonallisuuskuvaukset
  • hienosäätö matkimista varten
  • kehittyneet optimointirutiinit

Joskus yksinkertaisimmat ”muutaman laukauksen” esimerkit peittivät mallin tunnusmerkit enemmän kuin kehittyneet menetelmät.


6. Laajemmat vaikutukset: Aitous on vaikeampaa kuin älykkyys

Tutkimuksessa korostetaan perustavanlaatuista jännitettä elinikäisen oppimisen kehittämisessä:

Ihmisen kaltainen tyyli ja semanttinen tarkkuus eivät ole sama asia – eivätkä välttämättä edes yhteensopivia.

Vaikka malleista tulee entistä kyvykkäämpiä, ne ovat edelleen selvästi keinotekoisia yhdellä keskeisellä alalla:

spontaani tunnekäyttäytyminen

Ihmiset näyttävät verkossa epäsäännöllisiä vaikutteita, impulsiivisia äänensävyn vaihteluita, vihan tai sarkasmin välähdyksiä ja yleistä arvaamattomuutta.
Tekoälymallit eivät voi (eivätkä saa) jäljitellä näitä luotettavasti.

Tämä herättää kysymyksiä:

  • Tekoälyn havaitsemiskehykset
  • alustan moderointi
  • disinformaation seuranta
  • Tekoälyn ja ihmisen vuorovaikutuksen tutkimus
  • tulevan mallin yhdenmukaistamisstrategiat

Se sisältää myös ironisen käänteen:

Mitä enemmän malleista tulee ”yhdenmukaisia” ja turvallisia, sitä helpompi ne on havaita.

Toisin sanoen juuri ne mekanismit, joiden tarkoituksena on sivistää tekoälyä, paljastavat sen lopulta.


Päätelmä

Tutkimuksen keskeinen oivallus on yllättävän intuitiivinen:

Älykkyyttä on helppo väärentää.
Ihmisyys on vaikeaa.

Ihmiset ovat epäjohdonmukaisia, tunteikkaita, joskus myrkyllisiä ja usein ristiriitaisia – ja tekoäly ei yksinkertaisesti saa olla sitä.

Kunnes mallit pystyvät jäljittelemään ihmisen koko vaikutuksen spektriä (myös sotkuisia osia), ne erottuvat verkkokeskusteluissa, vaikka ne kuulostaisivat kuinka sujuvilta, jäsennellyiltä tai älykkäiltä.