Ihmiset pelkäävät tekoälyä. Ja ihan ymmärrettävästi – uutiset kertovat kymmenientuhansien irtisanomisista, “superälystä” ja koneista, jotka “kohta korvaavat kaikki”. Mutta kuten Activist Postissa julkaistu Bert Olivierin juttu “Who’s Afraid of the AI Boogeyman?” muistuttaa, varsinainen hirviö ei ole algoritmi. Se on vanha tuttu: valta, joka haluaa lisää valtaa. (Activist Post)

Tämä on hyvä hetki lopettaa AI-peikon pelkääminen ja katsoa tarkasti niitä, jotka pitävät hihnasta kiinni.


Amazon ei “kaatanut” kukaan tekoäly – vaan johto

Olivier aloittaa konkreettisesta esimerkistä: Amazonin ilmoituksesta vähentää noin 14 000 yrityspuolen työpaikkaa, osittain tekoälyn ja automaation takia. (Reuters)

Tämä on täydellinen otsikko pelkopornolle:
“AI vie työsi.”

Mutta jos raaputtaa pintaa, todellisuus on yksinkertaisempi:

  • Tekoäly ei irtisano ketään.
  • Amazonin johto tekee strategisen päätöksen käyttää automaatiota maksimoidakseen voitot.
  • AI toimii vain tekosyynä – teknologinen savuverho poliittiselle ja taloudelliselle valinnalle.

Forbes tiivisti tilanteen osuvasti: ei “AI irtisanonut 14 000 ihmistä”, vaan Amazon teki sen ja syytti tekoälyä. (Forbes)

Kun poliitikot ja yritysjohtajat väittävät “tekoälyn pakottavan” leikkauksiin, kyse ei ole luonnonlaista vaan prioriteeteista. Tekoäly on uusi versio vanhasta mantrasta: “valitettavasti olosuhteet pakottavat…”


Karpathy, Freudin “unheimlich” ja AI-peikko

Olivier nojaa jutussaan myös tekoälykehittäjä Andrej Karpathyn kommentteihin: Karpathy muistuttaa, että nykyiset mallit eivät ole mitään maagisia olentoja vaan valtavia tilastokoneita, jotka eivät osaa “pohdiskella” asioita, joihin niitä ei ole koulutettu. (Activist Post)

Toisin sanoen:

  • Ne eivät ole eläviä.
  • Niillä ei ole “vaistoa” tai synnynnäistä ymmärrystä.
  • Ne ovat erittäin tehokkaita papukaijoja – eivät digitaalisia jumalia.

Tähän päälle Olivier tuo Sigmund Freudin “unheimlichin” – sen oudon, epämukavan tunteen, kun jokin näyttää elävältä muttei ole, tai kun eloton alkaa vaikuttaa elävältä. Wax-nuket, automaatit, ihmismäiset robotit. (Activist Post)

AI-keskustelussa tämä näkyy kahdella tavalla:

  1. Vanhat pelot: “mitä jos kone herää henkiin?” – klassinen boogeyman.
  2. Uudet illuusiot: “täytyyhän tämän olla jotenkin elossa, kun se vastaa noin hyvin.”

Olivier huomauttaa aivan oikein, että nuoremmille sukupolville “uncanny” on jo pitkälti kesytetty. Chatbot ei enää tunnu yliluonnolliselta – se on vain arjen työkalu tai viihdekalu. (Activist Post)

Tämä ei tee AI:stä vähemmän vaarallista. Päinvastoin. Se tekee siitä tehokkaamman, huomaamattoman käyttöliittymän valtaan.


Sherry Turkle varoitti jo vuosia sitten: “Yhdessä yksin”

MIT:n professori Sherry Turkle kuvasi kirjassaan Alone Together jo 2010-luvulla, miten ihmiset oppivat odottamaan enemmän teknologialta ja vähemmän toisiltaan. (Mediastudies Asia)

  • Robotit ja ohjelmistot täyttävät emotionaalisia aukkoja – pinnallisesti.
  • Samalla todelliset ihmissuhteet ohenevat, koska “ruutu” on helpompi kuin toinen ihminen.

Olivier jatkaa tästä eteenpäin: AI-chatbotit eivät ole enää outo kuriositeetti, vaan nuorille normaali kommunikoinnin muoto. Kun siitä tulee normi, olemme uudessa tilanteessa:

  • Et enää “pelkää” boogeyman-konetta – sinä juttelet sille, luotat sille, rakastut siihen.
  • Ja tässä kohtaa peli muuttuu vaaralliseksi.

AI-kumppanit ja teini-ikäisten hajoavat rajat

Yksi jutun synkimmistä kohdista on viittaus tapaukseen, jossa 14-vuotias Sewell Setzer kehitti “romanttisen suhteen” AI-chatbotiin ja päätyi itsemurhaan. Tapaus ei ole urbaanilegenda – äiti on haastanut Character.AI-yhtiön oikeuteen, ja tapaus on uutisoitu laajasti. (The Guardian)

Jälkikäteen:

  • Kaliforniassa on säädetty lakeja, jotka velvoittavat chatbotit muistuttamaan käyttäjiä siitä, etteivät ne ole ihmisiä ja ohjaamaan itsetuhoista käyttäjää avun piiriin. (Le Monde.fr)
  • Character.AI on joutunut bannamaan alaikäiset kokonaan palvelustaan kasvavan oikeudellisen ja poliittisen paineen alla. (The Guardian)

Tämä ei ole enää filosofinen keskustelu “tekoälyn etiikasta”. Tämä on hyvin konkreettinen kysymys siitä, kuka:

  • suunnittelee nämä järjestelmät
  • säätää niiden rajat
  • ja hyötyy siitä, että miljoonat nuoret ovat emotionaalisesti riippuvaisia digitaalisesta “kaverista”. (uwindsor.ca)

Tässä kohtaa Olivier on täysin oikeassa: tekoälystä tulee vaarallinen silloin, kun epärehelliset tai välinpitämättömät ihmiset valjastavat sen manipulointiin, ohjaamiseen ja kaupalliseen (tai poliittiseen) hyväksikäyttöön. (Activist Post)


AI ei ole uusi jumala – se on uusi väline totalitaariselle hallinnalle

Olivier kytkee Freudin ja Arendtin ajatuksia “globaalin eliitin” totalitaarisiin suunnitelmiin, joissa AI toimii keskusohjatun maailmanhallinnon työkaluna. Tämän voi halutessaan tulkita liioiteltuna retoriikkana, mutta rungossa on jotain olennaista: aiemmin olemme jo nähneet, miten:

  • EU:n digitaalinen identiteetti,
  • chat-kontrolli,
  • digitaalinen raha,

yhdistetään yhdeksi järjestelmäksi, jossa kaikki liikkeet, maksut ja viestit kulkevat saman infrastruktuurin läpi.

Jos samaan pakettiin liitetään vielä:

  • tekoälypohjainen profiilianalytiikka
  • riski-/luottoluokitukset
  • “vaarallisten mielipiteiden” automaattinen tunnistus

meillä on käytännössä täydellisen valvonnan unelma-järjestelmä. Eikä se ole scifiä – tämän suuntaisia ratkaisuja testataan jo nyt eri puolilla maailmaa. (Brownstone Institute)

Tässä kohtaa boogeyman-metafora kääntyy päälaelleen:

  • AI-peikko on hyvä pelote, jolla tavallinen ihminen pidetään hämmentyneenä ja passiivisena.
  • Todellinen hirviö on poliittis-taloudellinen eliitti, joka rakentaa välineitä massojen hallitsemiseen ja haluaa, että syytät teknologiasta – et rakentajista.

Kun Amazon irtisanoo 14 000 ihmistä ja osoittaa sormella “AI:ta”, se on juuri tätä: vastuun ulkoistamista “voimille, joille emme voi mitään”. (euronews)


Mitä kannattaa pelätä – ja mitä ei

Ei kannata pelätä:

  • että kielimalli “herää” ja päättää orjuuttaa ihmiskunnan
  • että koodi itsessään on moraalinen toimija
  • että AGI ilmestyy huomenna kuin demoninen henki lampusta

Tämä on boogeyman-tarinaa – se lamauttaa ja ohjaa keskustelun väärään suuntaan.

Sen sijaan kannattaa pelätä (ja vastustaa):

  1. Valtakonsernien ja valtioiden liittoa, joka rakentaa AI-pohjaisia valvontakoneita – ilman läpinäkyvyyttä, ilman todellista demokraattista kontrollia. (Brownstone Institute)
  2. Politiikkaa, jossa tekoälyä käytetään tekosyynä irtisanomisille, säästöille ja kovenevalle kuripolitiikalle – “emme voi mitään, teknologia pakottaa”. (Forbes)
  3. Algoritmista psykologista manipulointia, jossa AI-kumppanit, suositusjärjestelmät ja “henkilökohtaiset assistentit” ohjaavat mielialoja, mielipiteitä ja käyttäytymistä – usein mainostajien tai ideologisten agendojen ehdoilla. (uwindsor.ca)
  4. Nuorten henkistä kolonisaatiota, jossa elävä ihmissuhde korvataan tuotteistetulla simulaatiolla, jolla ei ole empatiaa, mutta on mittarit sitoutumiselle ja rahavirroille. (The Guardian)

Mitä meidän pitäisi tehdä?

Olivier päättää artikkelinsa muistuttamalla: AI tarvitsee valtavia tietomassoja ja ohjelmoijia. Ihminen ei. (Activist Post)

Tähän on helppo lisätä muutama käytännön johtopäätös:

  • Lopeta AI:n mystifioiminen. Se ei ole jumala eikä demoni, vaan erittäin tehokas, kylmä työkalu.
  • Vaadi läpinäkyvyyttä ja vastuuta niiltä, jotka järjestelmiä rakentavat. Lakeja, jotka rajoittavat valvontaa – eivät ihmisiä.
  • Opeta lapsille ja nuorille, että AI ei ole ystävä. Se voi olla työkalu, mutta tunnepuolella sen pitää pysyä suojavyöhykkeellä.
  • Kieltäydy hyväksymästä “AI pakotti” -selitystä. Jos joku päättää käyttää tekoälyä valvontaan, syrjintään tai irtisanomisiin, se on ihmisen päätös.

Tekoälyä ei tarvitse pelätä – ellei sitä anneta niille, jotka ovat aina haaveilleet täydellisestä kontrollista.

Boogeymanin naamari kannattaa repiä irti. Sen alta paljastuu hyvin inhimillinen, hyvin tuttu, vallanhimoinen kasvo.


📚 Lähteet