Tekoäly ja politiikka: Mistä tiedämme, mikä – ja kuka – on totta?
TAMMIKUUSSA keskustalainen maakuntapuolue Alberta Party julkaisi videon viralliselle Instagram-tililleen. Sittemmin poistettu video, joka on edelleen saatavilla heidän Twitter-syötteessään , oli sinisessä puserossa olevasta miehestä kameraa päin ja Calgaryn siluettia takanaan. Mutta jotain hänestä meni pieleen. “Tarvitseeko Alberta kolmannen poliittisen puolueen? Se riippuu siitä, oletko tyytyväinen nykyisiin valintoihinsa vai et”, mies totesi jyrkästi ennen kuin ehdotti albertalaisia etsimään ”toista vaihtoehtoa” vaalipäivänä. Hänen suunsa ei muodostanut vokaalia kunnolla. Hänen kasvonsa olivat oudon liikkumattomat. Ja sitten oli hänen äänensä – se ei kuulostanut täysin ihmiseltä.
Tämä johtuu siitä, että se ei ollut. Video on luotu tekoäly . Sittemmin poistetussa viestissä Alberta Party selvensi, että “kasvot ovat tekoäly, mutta sanat on kirjoittanut todellinen henkilö.” Se oli hämmentävä jakso, toisin kuin yksi hittiteknodystooppisesta Black Mirror -sarjasta , jossa koomikko ääninäyttelijä Waldo on ehdokkaana vakinaisuuden vastaisena ehdokkaana Yhdistyneen kuningaskunnan lisävaaleissa.
“. . . missä ihmiset ovat hyvin perillä, he voivat luottaa omaan hallitukseensa”, Thomas Jefferson kirjoitti talvella 1789. Toisin sanoen demokratiassa tiedon saaminen antaa ihmisille toimivallan, ja toimivallan saaminen antaa meille äänen. Tekoälyllä on potentiaalia haastaa nämä molemmat kriittiset oletukset, jotka ovat olleet satoja vuosia demokratiakäsityksen ytimessä. Mitä tapahtuu, kun äänekkäin tai vaikutusvaltaisin ääni politiikassa on tietokoneen luoma ääni? Ja mitä tapahtuu, kun tuo tietokoneella tehty ääni myös näyttää ja kuulostaa ihmiseltä? Jos olemme onnekkaita, tekoälyn tuottama tai manipuloitu ääni ja video aiheuttavat vain lyhyitä hetkiä yksittäisiä hämmennystä poliittisella alueellamme. Jos emme ole, on olemassa vaara, että se saattaa kaataa politiikan – ja yhteiskunnan – pysyvästi.
Suuri osa kohtalostamme riippuu siitä, tunnemmeko näkemämme. Otetaan esimerkiksi botit. Nämä automatisoidut tai puoliautomaattiset ohjelmat toimivat tekoälyllä, ja sosiaalisen median alustat ovat jo täynnä niitä. Niitä käytetään yleisesti seuraajamäärän väärentämiseen, asiakkaiden kyselyihin automaattiseen vastaamiseen ja uusien uutisten tarjoamiseen. Huolestuttavinta on, että niitä käytetään myös kampanjoissa joko vaikuttamaan julkiseen keskusteluun tai joissakin tapauksissa häiritsemään ihmisiä. Mutta tällaiset robotit pysyvät tekstipohjaisina. Se, mitä Alberta-puolue loi ja mitä muut tekevät, on paljon erilaista. Se haastaa sen, mitä näemme ja kuulemme.
Vuonna 2018 näyttelijä ja ohjaaja Jordan Peele antoi äänensä muuttaa digitaalisesti ja oksastaa sitten Barack Obaman manipuloituun videoon niin, että näytti siltä, että Yhdysvaltain entinen presidentti todella puhui Peelen käsikirjoitusta. Tällainen video on tehty generatiivisella tekoälyllä, ja sitä kutsutaan “deepfakeksi”. Peele’s luotiin varoituksena mahdollisista kehittyneistä vääriä tiedotuskampanjoista tulevaisuudessa, mukaan lukien vuoden 2020 Yhdysvaltain vaalit. Mutta vaalit menivät ilman merkittävää tekoälyn aiheuttamaa sekaannusta. Sen sijaan “yksinkertaiset petokset, kuten valikoiva editointi tai suorat valheet, ovat toimineet hienosti”, NPR totesi tuona vuonna yrittäessään selittää syvän väärennösten puutetta.
Mutta siihen aikaan oli teknisiä ja kustannusrajoituksia. “Ei ole niin, että voit ladata vain yhden sovelluksen ja . . . tarjoa jotain käsikirjoituksen kaltaista ja luo deepfake-muoto ja pakota [henkilö] sanomaan tämä”, eräs asiantuntija kertoi lähetysyhtiölle. “Ehkä me [pääsemme siihen pisteeseen] muutaman seuraavan vuoden aikana, sitten on erittäin helppoa, mahdollisesti, luoda pakottavia manipulaatioita.”
Olemme siellä nyt.
HELMIKUUSSA Instagram-tili julkaisi videon, jossa presidentti Joe Bidenin väitetään esittävän loukkaavia huomautuksia transsukupuolisista naisista. Ääni oli luotu AI-ohjelmalla, joka matkii oikeita ääniä. Se merkittiin sosiaalisessa mediassa “muokatuksi videoksi”, mutta se sai kannatusta ja jotkin oikeistolaiset amerikkalaiset tiedotusvälineet julkaisivat sen uudelleen. Jopa Bidenin kannattajat ovat ryhtyneet käsittelemään hänen ääntään. “Tapasin erittäin tärkeän ystävän viikonloppuna”, Pod Save America -juontaja Tommy Vietor, Valkoisen talon työntekijä Obaman hallinnon aikana, sanoi äskettäisessä jaksossa ennen kuin soitti leikettä, joka kuulosti Bideniltä. Vietor myönsi nopeasti maksaneensa 5 dollaria osoitteessa elevenlabs.com klipin tekemisestä.
Alberta-puolueen julkaiseman – kokonaan tietokoneen luoman henkilön – ja todellisen ihmisen, kuten istuvan presidentin, syntetisoidun audiovisuaalisen esityksen välillä on suuri ero. Silti reaktio jokaiseen on samanlainen: ihmiset hämmentyvät. Yksi syy siihen on tuntemattomuus. ”Yksi tärkeimmistä asioista on. . . digitaalista lukutaitoa julkisesta näkökulmasta”, sanoo Elizabeth Dubois, politiikan, viestinnän ja teknologian yliopistotutkija ja apulaisprofessori Ottawan yliopistosta. ”Kun nämä innovaatiot sulautuvat entistä enemmän kampanjoihin . . . ihmisistä tulee yleensä lukutaitoisia tapahtumista ja siitä, miten asiat näkyvät heidän näytöllään. Mutta näissä alkuvaiheissa, joissa tämä kokeilu tapahtuu,
Mutta myös manipuloitava media on tärkeä. Kuvaamalla videota ja ääntä nämä videot nostavat yhteiskunnallisia odotuksia suhteesta objektiivisella totuudella, sanoo Regina Rini, Yorkin yliopiston sosiaalisen päättelyn kanadalainen tutkimusjohtaja. Teknisesti robotit sanovat asioita suullisesti tai tekstin avulla. Ja vaikka meillä on yleensä synnynnäinen käsitys siitä, että suulliset tai kirjalliset lausunnot voivat olla vääriä tai vääriä tai petollisia, Rini sanoo, emme ole yhtä taipuvaisia olemaan yhtä skeptisiä audiovisuaalisen median suhteen. ”Kaikki tietävät, että perinteisiä valokuvia on mahdollista väärentää. . . . Olemme tienneet, että videoiden parissa on mahdollista puuhailla”, Rini sanoo. “Mutta aste . . . oletusskepsis on ollut paljon pienempi ääni- ja videotallenteiden suhteen.” Generatiivinen tekoäly muuttaa sen.
On mahdollista, että tekoälyn ohjaaman videon ja äänen asteittainen käyttöönotto jokapäiväisessä keskustelussa totuttaa suuren yleisön siihen samalla tavalla kuin tekstipohjaisiin robotteihin. Toisaalta helvetti voi irrota, jos suuren joukon ihmisiä vaaditaan arvioimaan video- tai äänileikkeen aitous ennen kuin olemme valmiita. Painajainen skenaario, sanoo Rini esimerkkinä, on, jos petollinen video, jolla on merkittäviä geopoliittisia vaikutuksia, leviäisi virukseen, kuten valekeskustelu Joe Bidenin ja Vladimir Putinin välillä – “tiedättekö, sellainen asia, joka voi aloittaa sodat .” Mutta jopa hidas tippuminen voi murentaa yhteisen todellisuutemme perustaa. ”Minua pelottaa se, että me emme rakastu niihin, tai useimmat meistä eivät rakastu niihin, mutta ne vain ponnaavat jatkuvasti yksi kerrallaan ajan mittaan. Ja kamppailemme jatkuvasti siitä, uskommeko viimeisimpään mediaan vai emme”, Rini sanoo. “Se monien pienten tapausten ja myös joidenkin suurten tapausten kumulatiivinen vaikutus ajan mittaan kasvaa lopulta siihen pisteeseen, että emme luota mediaan yleensä.”
Jos tämä on mielestäsi kaukaa haettua, harkitse esimerkkiä aivan poliittisen kentän ulkopuolelta. Maaliskuussa Twitterissä levisi videoleike jostain Caba Baba Ravesta, jota vahvistivat oikeistolaiset tilit, kuten Libs of TikTok. Caba Baba Rave on brittiläinen drag-kabaree. Virusvideo esitti tapahtuman, jossa vedä ja ei-binaariset esiintyjät pitivät esityksen hyvin pienten lasten vanhemmille. Caba Baba Rave kutsui sitä “vanhemmille suunniteltuksi kabareeshowksi, jossa on aistillisia hetkiä vauvoille”. Leike aiheutti kohua, ei vain sen sisällöstä, vaan myös väitteistä, että video oli käsitelty. Pian puhkesi kokonainen alakeskustelu siitä, oliko joku käsitellyt videota ideologisen pointin esittämiseksi. Mutta video oli todellinen, kuten Caba Baba Rave vahvisti. Siitä huolimatta jotkut käyttäjät eivät vieläkään uskoneet sen olevan.
Vaikka sosiaalisen median käyttäjät eivät olisi vakuuttuneita siitä, että videot ovat syvästi väärennettyjä tai muuten käsiteltyjä, tällä hetkellä vain kaikkein hyvänlaatuisimpiin leikkeihin omistettu tarkastelun taso, erityisesti TikTokissa, viittaa kyltymättömään haluun keskustella videon ja äänen todenperäisyydestä. Toisin sanoen internet on valmisteltu juuri sellaiseen taisteluun, josta Rini varoittaa – loputon metaskepsisota.
TTÄSSÄ ON TOINEN , vähemmän julkinen tapa, jolla voimme saavuttaa pisteen, jossa todellisuuden kehys alkaa taipua ymmärryksemme ulkopuolelle. Tekoäly muuttaa verkossa käytävän julkisen keskustelun ehtoja, mutta se otetaan käyttöön myös vähemmän näkyvillä tavoilla.
On jo mahdollista, että julkiset kuulemismahdollisuudet, mukaan lukien sosiaalinen media, täyttyvät bottien luomilla viesteillä, mutta tekoäly tarjoaa mahdollisesti tehokkaampia, puhumattakaan kiusaavista skenaarioista. Tässä on yksi hahmotelma helmikuussa Harvardin yliopiston Berkman Klein Centerin datatieteilijä Nathan E. Sanders ja Harvard Kennedy Schoolin turvallisuusteknologi Bruce Schneier julkaisemassa tutkimuksessa . Poliittinen toimija (sanotaanko lobbausyritys, jolla on hyvät taskut) luo koneoppimisohjelman, joka on suunniteltu piirtämään lainsäätäjien verkosto heidän asemansa, virka-iän, tason, aiemman äänestystrendin, lausuntojen tai monien muiden tekijöiden perusteella, mikä mahdollistaa Keskittämään lobbaustyönsä niihin poliitikkoihin, joilla ennustetaan eniten vaikutusvaltaa tiettyyn lainsäädäntöstrategiaan.
Podcastissa esitellyt Vietorin työkalut tuovat esiin vielä oudomman mahdollisuuden. Ehkäpä käärit tämän ennustavan koneoppimismallin järjestelmään, joka pystyy soittamaan poliitikon toimistoon ja keskustelemaan lainsäädännöstä automatisoidulla, syntetisoidulla äänellä. Ja ehkä tuo ääni kuulostaa paljon heidän äänestäjältä. Tai pääministerin.
“Kuinka estät sitä puolueellisesta ja vääristämästä poliittista prosessiamme?” Sanders kysyi keskustelumme aikana. ”Perussuosituksemme tässä järjestelmässä on helpottaa ihmisten osallistumista. . . . Tee myös oikeiden ihmisten äänensä kuuluville helpommaksi.” Sanders huomautti, että jotkin tekoälytyökalut tekevät jo niin, mukaan lukien Google Translate, jotka helpottavat joidenkin ihmisten yhteydenottoa edustajaansa kääntämällä viestit heidän kielensä edustajan kielelle.
Selvyyden vuoksi teknologia ei ole politiikalle vieras. “Meidän pitäisi odottaa, että kaikkien uusien teknologioiden avulla ihmiset yrittävät selvittää, onko olemassa tapa tehdä politiikasta parempaa, tehokkaampaa ja halvempaa”, Dubois sanoo. Sanders toistaa tämän ja viittaa olemassa oleviin työkaluihin, kuten yhdistämiseen, tapaan lähettää henkilökohtaisia viestejä massana ja jota poliittiset puolueet ja ehdokkaat ovat käyttäneet jo vuosia. “En usko, että se ei todellakaan eroa AI-työkalun käyttämisestä ottaaksesi kolme tai neljä faktaa itsestäsi ja sitten yrittää luoda henkilökohtaisempaa viestiä.”
Kanadassa tekoälyn käyttöä poliittisen kampanjan aikana määrääviä sääntöjä ei ole nimenomaisesti ilmaistu vaalilaissa. Mutta Elections Canadassa on säännöt, jotka estävät toisena henkilönä esiintymisen tai väärän esityksen harhaanjohtamistarkoituksessa. “Harhaanjohtavat julkaisut” ovat myös kiellettyjä – se on “kaikki materiaali, sen muodosta riippumatta”, jonka väitetään olevan peräisin vaalijohtajalta, palaavalta virkailijalta tai poliittiselta ehdokkaalta. Muut kuin tapaukset, jotka saattavat liittyä toisena henkilönä esiintymiseen tai harhaanjohtavaan julkaisuun, Elections Canada ei “etse aktiivisesti syväväännöksiä, väärennettyjä kuvia ja videoita”, virasto sanoi sähköpostissa.
Mutta Elections Canada koskee vain vaalikausia. Hallituksen lainsäädäntö kattaisi kaiken muun. Tekoälyn käyttöä poliittisiin tarkoituksiin ei kuitenkaan näytä mainittavan Kanadan uudessa tekoälylaissa, joka etenee parlamenttiin, ja innovaatio-, tiede- ja teollisuusministerin toimistolle lähetetty selvennys jäi vastaamatta.
Wienin yliopiston media- ja teknologiafilosofian professori Mark Coeckelberghin mielestä tekoäly voi auttaa työntämään tyypillisen suostuttelun negatiivisemmille alueille. Poliitikot luonnollisesti yrittävät vaikuttaa meihin, hän sanoo, mutta “monien näiden teknologioiden ongelmana on, että ne mahdollistavat manipulatiivisemman puolen argumentin ja tiedon vakuuttamisen sijaan”, hän sanoo. “Se mitä teet, on, että et kohtele ihmisiä itsenäisinä, valaistuneina aiheina. . . kohtelet heitä kuin laboratoriorottia tai mitä tahansa sellaista, josta voit ottaa dataa ja jota voit manipuloida.”
Kuinka pitkälle se manipulointi voi mennä? Poliitikot ja poliittiset ehdokkaat osaavat jo valehdella äänestäjille. Yhdessä äskettäisessä korkean profiilin tapauksessa republikaani George Santos myönsi, että hänen ansioluettelonsa, jonka perusteella hän kampanjoi – ja voitti – paikan Yhdysvaltain edustajainhuoneessa, oli täynnä väärennöksiä, muun muassa hänen koulutuksestaan ja työkokemuksestaan. Jos tosielämän ihminen voi pettää äänestäjiä niin helposti, voisiko keksitty tehdä saman?
Viime vuonna taiteilijakollektiivin ja teknologiajärjestön perustama tanskalainen puolue Synthetic Party kiinnitti huomiota yrittäessään asettaa ehdokkaita johtamaan Leader Lars -nimisen AI-chat-botin johtamia ehdokkaita. Varsinaisen tekoälyn luoman ehdokkaan asettaminen ratsastukseen Kanadassa vaatisi todennäköisesti jonkinasteista petosta. Vaikeimmat navigoinnin esteet – tunnistaminen (hyväksyttyjen asiakirjojen luettelo on pitkä, eivätkä kaikki vaadi valokuvaa) ja suositeltu 150 allekirjoitusta ratsastusasukkailta – eivät kuitenkaan ole ylitsepääsemättömiä. Kampanja tapahtuisi sosiaalisessa mediassa. Keskustelut voitaisiin jättää huomiotta, koska ne joskus ovat todellisten ehdokkaiden tekemiä. Voisiko tekoälyn luoma ehdokas näissä olosuhteissa saada ihmiset äänestämään sitä ilman, että he ymmärtävät, että se on väärennös?
Sanders ei usko, että täysi tekoälyehdokas läpäisi kokeen. “Uskon, että yleisesti ottaen se ei ole mahdollista”, hän sanoo ja huomauttaa, että me yhteiskunta pystyisimme saamaan tällaisen kiinni ennen kuin se tapahtuu. Dubois ehdottaa, mitä hän pitää todennäköisempänä skenaariona: parodiasisältö, kuten Joe Bidenin väärennetty leike, erehtyy kommunikaatioksi todelliselta ehdokkaalta. “Tiedämme, että kun ihmiset rullaavat nopeasti, he joskus hämmentyvät, he eivät huomaa etikettiä, heidän mielestään se on todella hauskaa, joten he aikovat jakaa sen joka tapauksessa”, hän sanoo. “Ja sitten, koska he jakavat sen, he ovat luotettava lähde jollekin toiselle, ja sitten joku muu näkee sen. Voit siis kuvitella tuollaisen koputusvaikutuksen.”
“Luulen, että joku kokeilee sitä, ehkä temppuksi”, Rini sanoo ja lisää, että sen menestys saattaa olla maantieteellisestä riippuvainen, kuten maaseudulla, jossa äänestäjät eivät välttämättä osallistu paikan päällä tapahtuviin tapahtumiin. Tai se voi olla vain oikean tilaisuuden ja juhlan löytäminen. “Jos kohdistat tavoitteeksi erittäin kilpailukykyisen kotipaikan Yhdysvalloissa . . . ja mistä tahansa syystä esivaaleja ei kiistely tiukasti, [se] ei ehkä ole vaikeaa saada tämä selville.” Kanadan kaksikielinen poliittinen näyttämö voi tarjota toisenlaisen mahdollisuuden – ei keksiä ehdokasta, vaan pikemminkin kieltä, jonka avulla englanninkielinen ehdokas puhuu sujuvasti ranskaa. Coeckelbergh puolestaan on varmempi tekoälyn luoman ehdokkaan mahdollisuudesta. “Ehdottomasti. Se tulee tapahtumaan.”
Itse asiassa sitä ei ehkä tarvitse edes piilottaa. Noin kaksi kolmasosaa Black Mirrorin “The Waldo Moment” -elokuvasta, TV-johtaja Jack väittelee sarjakuvakarhun luojan ja äänen Jamien kanssa Waldon oikeutuksesta ehdokkaana. “Waldo ei ole todellinen!” Jamie sanoo. “Tarkalleen . . . Hän ei ole todellinen, mutta hän on todellisempi kuin kaikki muut”, Jack vastaa. “Hän ei kestä mitään”, Jamie sanoo. “No, hän ei ainakaan teeskentele sitä!” sanoo Jack.
On mahdollista, että me kaikki päädymme Jackin puolelle, emme enää keskustele poliittisista vakaumuksistamme, vaan siitä, voimmeko uskoa – saati uskoa – mihinkään. On myös mahdollista, että pidämme tätä keskustelua parempana kuin todellisuudesta. Saatamme pitää sen joka tapauksessa kiinnostavampana.
Lähde: TheWalrus.ca