Big Tech, sensuuri ja vaikutusvallan kahtiajakautuma — miksi NaturalNewsin pamfletti vaatii syvempää tarkastelua

Käynnistetään suoraan: NaturalNewsin artikkeli “Big Tech’s censorship surge: From manipulating opinions …” on esimerkki siitä, miten todelliset ilmiöt — algoritmien vaikutusvallan kasvu, sisällönmoderointi ja valtioiden informaatiotoimet — yhdistetään voimakkaaseen narratiiviin, joka vetää mutkat suoriksi ja oletukset syvälle salaliittomaiseen maastoon. NaturalNews on lisäksi tiedetty sivusto, jonka luotettavuudesta on huomautettu useissa arvioissa. (Wikipedia)

Tämä katsaus ei pyri puolustamaan some-firmoja eikä vähättelemään sensuurin tai epäreilun moderoinnin mahdollisia haittoja. Sen sijaan tarkoitus on erottaa fact-check-tasoiset havainnot, akateeminen tieto ja viranomaistoimet siitä retoriikasta ja spekulaatiosta, joka usein valtaa tällaiset tekstit. Lopuksi esittelen toiminta-ehdotuksen, joilla julkinen keskustelu ja sääntely voisivat kehittyä kestävämpään suuntaan.


Mitä tiede sanoo: algoritmit eivät ole neutraaleja — mutta vaikutus ei ole yksinkertainen

Viime vuosien auditit ja tutkimukset osoittavat yhden selvän asian: suositusalgoritmit vaikuttavat siihen, mitä ihmiset näkevät — ja siten myös mielipiteiden muodostumiseen. Laajin tähän mennessä tehty tarkastelu Twitterin/X-algoritmeista havaitsi, että järjestelmät voivat amplifioida tietynlaista poliittista sisältöä ja että algoritmien suodatus ei aina heijasta neutraalia yhteisönvalintaa. (PNAS)

Tämä ei kuitenkaan tarkoita automaattisesti systemaattista “manipulaatiota” yhteen suuntaan. Algoritmit rakentavat näkyvyyden palaute- ja optimointimekanismien päälle: ne edistävät sisältöä, joka saa klikkauksia, reaktioita ja sitoutumista — ja usein nämä signaalit korreloivat tunteita herättävän sisällön kanssa. Lisäksi käyttäjäsegmentaatiot ja paikalliset käytännöt vaikuttavat lopputulokseen, mikä tekee yksiselitteisistä syy-seurausväitteistä ongelmallisia. (PMC)


Deplatforming ja “Great Deplatforming” — toimiiko rajoittaminen?

Kun merkittäviä tilejä suljetaan tai alustoja estetään (deplatforming), seuraukset ovat monimuotoiset. Empiirinen kirjallisuus osoittaa, että deplatforming voi leikata näkyvyyttä ja estää suoran kanavan, mutta se ei välttämättä sammuta kannattajakuntaa tai poistaa vaikutusta kokonaan — toimijat voivat siirtyä toisille alustoille tai käyttää verkkoja, joissa moderointi on löysempää. Tutkimukset Parlerin sulkemisen ja muiden tapausten vaikutuksista ovat tuoneet esiin juuri tätä heterogeenisyyttä: joskus vaikutus jää rajatuksi, toisinaan aktivoitumista tai sirpaloitumista nähdään. (Computer Science)

Toinen käytännön huomio: deplatforming on tehokas, kun sen tavoitteena on estää suora väkivaltaan yllytys tai laiton toiminta. Se on vähemmän tehokas, jos tarkoitus on poistaa tietynlaisen ideologian tai näkemyksen leviämisen vaikutus laajemmalta julkisuudelta — tällöin rajoitukset voivat herättää vastareaktioita ja siirtää keskustelua suljetumpiin tiloihin, joiden seurauksia on vaikeampi mitata ja hallita. (arXiv)


Valtiot, vaikuttamisoperaatiot ja tiedonhallinta

Valtioiden harjoittamat vaikutusoperaatiot sosiaalisessa mediassa ovat todellinen ja tutkittu ilmiö; viimeaikaiset kartoitukset ja luokitukset osoittavat, että monet toimijat — niin valtiolliset kuin ei-valtiolliset — hyödyntävät joukkoja, botteja ja mikro-kohdennettua sisältöä mielipiteenmuokkaukseen. Tämä ilmiö lisää julkista huolta siitä, miten avoin ja läpinäkyvä digitaalinen julkinen sfääri on. (arXiv)

On kuitenkin tärkeää erotella, milloin puhutaan järjestelmällisestä valtiollisesta operoinnista ja milloin yksittäisistä epäilyttävistä tapauksista. Usein populistinen journalismi yhdistää nämä tasot tavalla, joka antaa vaikutelman laajemmasta koordinoinnista kuin mitä olemassaolevat todisteet kattaavat. Täsmällinen metodiikka ja avoimet näytöt ovat tässä se, mitä vaaditaan ennen vakavien syytösten esittämistä.


Sääntelykenttä: DSA, FTC ja transparaenssikatkos

Euroopassa Digital Services Act (DSA) asetti uuden tason velvoitteita suurille alustoille: läpinäkyvyys moderointipäätöksissä, riskien hallinta ja mahdollisuus ulkoiseen valvontaan. DSA pyrkii vähentämään sekä disinformaation että kohtuuttoman tai mielivaltaisen moderoinnin riskejä asettamalla selkeät vaatimukset — mutta toimeenpano ja valvonta ovat vasta alkutaipaleella. (European Commission)

Yhdysvalloissa FTC käynnisti vuoden 2025 julkisen selvityksen teknologiayritysten käytännöistä suhteessa “deny or degrade”-toimiin (esim. demonetisointi, näkyvyyden vähentäminen, tilien rajoittaminen) — tämä osoittaa, että viranomaiset näkevät tarpeen ymmärtää, missä määrin moderointikäytännöt voivat rikkoa kilpailu- tai kuluttajansuojalainsäädäntöä tai oikeudellisia velvoitteita. (Federal Trade Commission)

Sääntely on siis kaksiteräinen miekka: tiukempi valvonta voi lisätä läpinäkyvyyttä ja oikeusturvaa, mutta samalla se voi pakottaa alustoja tekemään yksinkertaisia ja massaluonteisia ratkaisuja sisällön hallinnassa. Käytännössä tämä edellyttää tarkkaa, mitattavaa valvontaa ja vaikutusarviointia — ei pelkkiä poliittisia julistuksia.


NaturalNewsin artikkelin kritiikki: mikä meni metsään?

NaturalNewsin teksti yhdistää kolme totuutta (algoritmit muovaavat näkyvyyttä; some-firmat tekevät moderointipäätöksiä; valtiot harjoittavat informaatiotoimia) yhteen voimakkaaseen, spekulatiiviseen kertomukseen, joka hakee syyllisiä: “Big Tech manipuloi sinua X-skenen hyväksi”. Kahdesta syystä tämä on ongelmallista:

  1. Näytön puute tasolla, jolla artikkeli tekee syytökset. Akateeminen kirjallisuus ei tue yksinkertaista, koko yhteiskuntaa koskevaa väitettä siitä, että algoritmit systemaattisesti ja yhdenmukaisesti sensuroivat yhden poliittisen leiman omaavia näkemyksiä enemmän kuin toisia — tutkimukset näyttävät heterogeenisyyttä ja alustoille ominaisia eroja. (PNAS)
  2. Lähdemetsästyksen puute ja retoriikan eskalointi. Artikkeli tekee liikkeen ennakkosääntelyn (esim. rahoittajat, “globalistit”) suuntaan ilman avoimia, jäljitettäviä näyttöjä. Tällainen kertomus lisää polarisaatiota ja heikentää mahdollisuuksia rakentavaan julkiseen keskusteluun — varsinkin kun lähteen luotettavuus on kyseenalainen. (Wikipedia)

Johtopäätökset ja suositukset

  1. Erota fakta retoriikasta. Kun kohtaat väitteen “Big Tech sensuroi X-ääniä”, pyydä näyttöjä: datasetit, metodologia, mitä alustoja ja aikajaksoja väite koskee. Yleistäminen ilman rajauksia johtaa harhaan.
  2. Edistä läpinäkyvyyttä ja auditointia. Neuvottelu DSA:n, FTC-kuulemisten ja akateemisten auditointien suuntaan on oikea. Alustojen tulee julkaista anonymisoituja moderation- ja suositteludataa auditointeja varten — ja riippumattomat tutkijat tarvitsevat pääsyn aineistoihin. (Federal Trade Commission)
  3. Kohdenna interventiot riskiperusteisesti. Deplatforming toimii hyvin, kun kohteena on selkeä laiton tai väkivaltaan yllyttävä toimija. Jos tarkoitus on vähentää polarisaatiota tai harhaanjohtavaa sisältöä, tarvitaan monikanavaisia, yhteisölähtöisiä ratkaisuja, ei pelkästään poistoja. (Computer Science)
  4. Kouluta yleisöä algoritmisen mediataidon suhteen. Mekanismien ymmärtäminen — miksi tietty sisältö nousee esiin — vähentää polarisoivaa mystiikkaa ja auttaa tunnistamaan oikeat ongelmakohdat.

Lähteet ja lisälukemista

(Valitut, merkittävimmät lähteet — tarkempi lista alla.)

  • Huszár et al., Algorithmic amplification of politics on Twitter, PNAS — algoritmien vaikutus näkyvyyteen. (PNAS)
  • FTC: Public inquiry regarding technology platforms and denial/degradation of service, 20.2.2025. (Federal Trade Commission)
  • EU-komission Q&A ja DSA-materiaali — läpinäkyvyys ja alustavelvoitteet. (European Commission)
  • Jhaver et al., Evaluating the Effectiveness of Deplatforming as a Moderation Strategy, Stanford / cs.pdf — deplatforming-analyysi. (Computer Science)
  • ArXiv/2025: Influence Operations in Social Networks — valtiollisten ja koordinoitujen kampanjoiden analyysi. (arXiv)
  • ISD Global briefing: Anatomy of a Disinformation Empire — NaturalNewsin verkostot ja maine. (ISD)