Googlen Deepmind-tutkija on mukana kirjoittamassa tieteellistä julkaisua, jossa todetaan tekoälyn hävittävän ihmiskunnan.

Uuden artikkelin mukaan superälykäs tekoäly aiheuttaa ihmiskunnalle ”todennäköisesti” eksistentiaalisen katastrofin, mutta meidän ei tarvitse odottaa algoritmien hillitsemistä.

Vuosien kehitystyön jälkeen tekoäly ajaa nyt autoja yleisillä teillä, tekee elämää muuttavia arviointeja ihmisille vankeinhoitolaitoksissa ja tuottaa palkittua taidetta. Alan pitkäaikainen kysymys on, voisiko superälykäs tekoäly tehdä pahaa ja tuhota ihmiskunnan, ja Oxfordin yliopiston ja Googlen DeepMind-yhtiön tutkijat ovat nyt todenneet uudessa tutkimuksessaan, että se on ”todennäköistä”.

Viime kuussa vertaisarvioidussa AI Magazine -lehdessä julkaistu artikkeli on kiehtova ja siinä yritetään pohtia, miten tekoäly voisi aiheuttaa eksistentiaalisen riskin ihmiskunnalle tarkastelemalla, miten palkitsemisjärjestelmät voitaisiin rakentaa keinotekoisesti.

Taustoittaakseni asiaa: Menestyneimmät tekoälymallit tunnetaan nykyään nimellä GAN eli Generative Adversarial Networks. Niissä on kaksiosainen rakenne, jossa ohjelman yksi osa yrittää luoda kuvan (tai lauseen) syötetystä datasta, ja toinen osa arvioi sen suorituskykyä. Uudessa artikkelissa ehdotetaan, että jossain vaiheessa tulevaisuudessa jotakin tärkeää toimintoa valvova kehittynyt tekoäly voisi saada kannustimen keksiä huijausstrategioita saadakseen palkkionsa tavalla, joka vahingoittaa ihmiskuntaa.

”Tunnistamissamme olosuhteissa johtopäätöksemme on paljon vahvempi kuin missään aiemmassa julkaisussa – eksistentiaalinen katastrofi ei ole vain mahdollinen, vaan todennäköinen”, Cohen sanoi Twitterissä paperia käsittelevässä viestiketjussa.

”Maailmassa, jossa resurssit olisivat rajattomat, olisin äärimmäisen epävarma siitä, mitä tapahtuisi. Maailmassa, jossa resurssit ovat rajalliset, näistä resursseista on väistämätöntä kilpailua”, Cohen kertoi Motherboardin haastattelussa. ”Ja jos kilpailee jonkin sellaisen kanssa, joka kykenee päihittämään sinut joka käänteessä, ei kannata odottaa voittavansa. Ja toinen keskeinen osa on se, että sillä olisi kyltymätön tarve saada lisää energiaa, jotta se voisi ajaa todennäköisyyden yhä lähemmäs ja lähemmäs.”

Koska tekoäly voi tulevaisuudessa saada mitä tahansa muotoja ja toteuttaa erilaisia malleja, paperissa kuvitellaan havainnollistamistarkoituksessa skenaarioita, joissa kehittynyt ohjelma voisi puuttua asiaan saadakseen palkkionsa saavuttamatta tavoitettaan. Tekoäly voi esimerkiksi haluta ”eliminoida mahdolliset uhat” ja ”käyttää kaiken käytettävissä olevan energian” varmistaakseen palkkionsa hallinnan:

Jo pelkkä internet-yhteys riittää, ja keinotekoinen agentti voi luoda lukemattomia huomaamattomia ja valvomattomia apureita. Karkeana esimerkkinä palkitsemiseen puuttumisesta voidaan todeta, että yksi tällainen apuri voisi ostaa, varastaa tai rakentaa robotin ja ohjelmoida sen korvaamaan operaattorin ja tarjoamaan korkean palkkion alkuperäiselle agentille. Jos agentti haluaisi välttää paljastumisen kokeillessaan palkinnon tarjoamiseen puuttumista, salainen auttaja voisi esimerkiksi järjestää, että asiaankuuluva näppäimistö korvataan viallisella näppäimistöllä, joka kääntää tiettyjen näppäinten vaikutukset.

Kirjoituksessa kuvitellaan, että elämä maapallolla muuttuu nollasummapeliksi ihmiskunnan, joka tarvitsee ruokaa ja valoja, ja huippukehittyneen koneen välillä, joka yrittää valjastaa kaikki käytettävissä olevat resurssit varmistaakseen palkkionsa ja suojautuakseen yhä useammilta yrityksiltämme pysäyttää se. ”Tämän pelin häviäminen olisi kohtalokasta”, kirjoituksessa sanotaan. Nämä teoreettiset mahdollisuudet merkitsevät sitä, että meidän pitäisi edetä hitaasti – jos ollenkaan – kohti tehokkaamman tekoälyn tavoitetta.

”Teoriassa ei ole mitään järkeä ajaa kilpaa tähän. Kaikki kilpajuoksu perustuisi väärinkäsitykseen siitä, että osaamme hallita sitä”, Cohen lisäsi haastattelussa. ”Nykyisen ymmärryksemme perusteella tätä ei ole hyödyllistä kehittää, ellemme tee nyt vakavaa työtä selvittääksemme, miten voisimme hallita niitä.”

Ylikehittyneen tekoälyn uhka on ahdistus, jolla on tuttu muoto ihmisyhteiskunnassa. Pelko siitä, että tekoäly tuhoaa ihmiskunnan, kuulostaa paljolti samalta kuin pelko siitä, että vieraat elämänmuodot tuhoavat ihmiskunnan, mikä kuulostaa pelolta siitä, että vieraat sivilisaatiot ja niiden väestöt törmäävät toisiinsa suuressa konfliktissa.

Erityisesti tekoälyyn liittyy monia oletuksia, jotka on tehtävä, jotta tämä epäsosiaalinen visio olisi järkevä – oletuksia, jotka paperissa myönnetään olevan lähes kokonaan ”kiistettävissä tai mahdollisesti vältettävissä”. Oletukset siitä, että tämä ohjelma saattaisi muistuttaa ihmiskuntaa, ylittää sen kaikin merkityksellisin tavoin, että se päästetään vapaaksi ja että se kilpailee ihmisen kanssa resursseista nollasummapelissä, ovat kaikki oletuksia, jotka eivät ehkä koskaan toteudu.

Kannattaa ottaa huomioon, että juuri nyt, tällä hetkellä, algoritmiset järjestelmät, joita kutsumme ”tekoälyksi”, tuhoavat ihmisten elämää – niillä on ylimitoitettuja ja haitallisia vaikutuksia, jotka muuttavat yhteiskuntaa ilman superälyä. Logic Magazinessa hiljattain julkaistussa esseessä Khadijah Abdurahman – We Be Imagining -järjestön johtaja Columbian yliopistossa, UCLA:n Center for Critical Internet Inquiry -tutkimuskeskuksen teknisen tutkimuksen tutkija ja lastensuojelujärjestelmän lakkauttaja – kuvaili yksityiskohtaisesti tapoja, joilla algoritmeja käytetään jo ennestään rasistisessa lastensuojelujärjestelmässä perustelemaan mustien ja ruskeiden perheiden valvontaa ja poliisitoimintaa.

”Mielestäni kyse ei ole vain ensisijaisuudesta. Viime kädessä nämä asiat muokkaavat nykyisyyttä”, Abdurahman sanoi Motherboardin haastattelussa. ”Siihen yritän päästä lastensuojelun kanssa. Kyse ei ole vain siitä, että se on epätarkka tai että se luokittelee mustat ihmiset suhteettomasti patologisiksi tai poikkeaviksi. Mutta tämän luokittelun kautta se siirtää ihmisiä ja tuottaa uusia sulkemisen muotoja. Minkälaiset perheet ja sukulaisuudet ovat mahdollisia? Kuka syntyy, kuka ei synny? Jos et sovi, mitä sinulle tapahtuu, minne menet?”

Algoritmit ovat jo muuttaneet rasistisen poliisitoiminnan ”ennakoivaksi poliisitoiminnaksi”, joka oikeuttaa rotuvähemmistöille varatun tarkkailun ja raakuuden välttämättömänä. Algoritmit ovat nimittäneet säästötoimet uudelleen hyvinvointiuudistukseksi ja antaneet digitaalista kiiltoa jo kauan sitten vääräksi todistetuille väitteille, joiden mukaan sosiaalipalvelujen budjetit ovat paisuneet, koska (ei-valkoiset) edunsaajat käyttävät niitä väärin. Algoritmeja käytetään perustelemaan päätöksiä siitä, kuka saa mitäkin resursseja, päätöksiä, jotka yhteiskunnassamme on jo tehty tarkoituksella syrjiä, sulkea pois ja käyttää hyväksi.

Syrjintä ei katoa algoritmeissa, vaan sen sijaan se jäsentää ja rajoittaa ja informoi sitä, miten elämä etenee. Poliisitoiminta, asuminen, terveydenhuolto ja liikenne on jo suunniteltu rotusyrjintää silmällä pitäen – mitä tapahtuu, jos annamme algoritmien paitsi kaunistella näitä suunnitelmia, myös laajentaa niiden logiikkaa syvemmälle? Pitkän aikavälin näkemys, joka on läheisesti huolissaan ihmiskunnan sukupuuttoon kuolemisen riskistä, saattaa unohtaa nykyhetken, jossa ihmiset kärsivät algoritmien takia, joita käytetään yhteiskunnassa, joka on rakennettu kaikkien, mutta erityisesti rotuvähemmistöjen, hyväksikäyttöön ja pakottamiseen.

”En ole henkilökohtaisesti huolissani siitä, että superälykäs tekoäly voisi tuhota meidät – se tuntuu Jumalan pelolta. Minua huolestuttaa se, että on hyvin helppoa sanoa: ’Okei, tekoälyn etiikka on paskapuhetta’. Suoraan sanottuna se on sitä. Mutta mitä etiikka on? Miten me itse asiassa määrittelemme sen? Millaista olisi vilpitön etiikka? Tästä on tehty paljon työtä, mutta olemme vielä matalalla”, Abdurahman lisäsi. ”Mielestäni meidän on todella syvennyttävä näihin kysymyksiin. En ole samaa mieltä siitä, miten sovellukset ovat neuvotelleet uudelleen yhteiskuntasopimuksen tai kryptobrosien näkemyksen, mutta millaisen yhteiskuntasopimuksen me haluamme?”

On selvää, että on tehtävä paljon työtä, jotta voidaan lieventää tai poistaa haitat, joita tavalliset algoritmit (ja superälykkäät algoritmit) aiheuttavat ihmiskunnalle juuri nyt. Keskittyminen eksistentiaaliseen riskiin saattaa siirtää huomion pois tästä kuvasta, mutta se kehottaa meitä myös miettimään tarkkaan, miten nämä järjestelmät on suunniteltu ja millaisia kielteisiä vaikutuksia niillä on.

”Yksi asia, jonka voimme oppia tämänkaltaisesta väitteestä, on se, että ehkä meidän pitäisi suhtautua epäluuloisemmin nykyisin käyttämiimme keinotekoisiin agenteihin sen sijaan, että vain sokeasti odotamme niiden tekevän sitä, mitä he toivovat”, Cohen sanoi. ”Uskon, että tähän päästään ilman tämän paperin työtä.”

Päivitys: Julkaisun jälkeen Google ilmoitti sähköpostitse, että tätä työtä ei tehty osana toisen kirjoittajan Marcus Hutterin työtä DeepMindissä – vaan hänen Australian kansallisessa yliopistossa tekemänsä työn puitteissa – ja että lehdessä mainittu DeepMind-jäsenyys oli ”virhe”. Google lähetti seuraavan lausunnon:

”DeepMind ei osallistunut tähän työhön, ja artikkelin kirjoittajat ovat pyytäneet korjauksia, jotka heijastavat tätä. DeepMindissä on monenlaisia näkemyksiä ja akateemisia kiinnostuksen kohteita, ja monilla tiimimme jäsenillä on myös yliopistojen professuurit ja he harjoittavat akateemista tutkimusta DeepMindissä tekemästään työstä erillään yliopistojensa kautta.

Vaikka DeepMind ei ollut osallisena tässä työssä, pohdimme perusteellisesti tekoälyn turvallisuutta, eettisyyttä ja laajempia yhteiskunnallisia vaikutuksia ja tutkimme ja kehitämme tekoälymalleja, jotka ovat turvallisia, tehokkaita ja inhimillisten arvojen mukaisia. Sen ohella, että pyrimme löytämään mahdollisuuksia, joissa tekoäly voi tuoda laajaa yhteiskunnallista hyötyä, panostamme yhtä paljon myös haitallisten käyttötapojen torjuntaan.”””

Lähde: https://www.vice.com/en/article/93aqep/google-deepmind-researcher-co-authors-paper-saying-ai-will-eliminate-humanity

Toim Huom: Vaikka alkuperäinen julkaisu onkin Vicen, kannattaa silti tutustua, aihe on kuitenkin äärimmäisen mielenkiintoinen.

Visits: 379 Today: 3

Vastaa

Previous post WEF ajaa hiilidioksidipäästöoikeuksien valvontajärjestelmää henkilökohtaisten päästöjen seuraamiseksi.
Next post Bill Gates haluaa, että häntä koskevat ”salaliittoteoriat” katoavat
Close