Yhdysvaltain on ryhdyttävä toimimaan “päättäväisesti” estääkseen tekoälyn “sukupuuttotason” uhan, hallituksen tilaamassa raportissa sanotaan
Yhdysvaltain hallituksen on toimittava “nopeasti ja päättäväisesti”, jotta se voi torjua tekoälystä johtuvat merkittävät kansalliset turvallisuusriskit, jotka voivat pahimmassa tapauksessa aiheuttaa “sukupuuttoon kuolemisen uhan ihmislajille”, todetaan maanantaina julkaistussa Yhdysvaltain hallituksen tilaamassa raportissa.
“Tekoälyn nykyinen kehitys aiheuttaa kiireellisiä ja kasvavia riskejä kansalliselle turvallisuudelle”, todetaan raportissa, jonka TIME sai haltuunsa ennen sen julkaisemista. “Kehittyneen tekoälyn ja AGI:n [keinotekoinen yleinen älykkyys] nousu voi horjuttaa globaalia turvallisuutta tavalla, joka muistuttaa ydinaseiden käyttöönottoa.” AGI on hypoteettinen teknologia, joka voisi suorittaa useimmat tehtävät ihmisen tasolla tai sitä paremmin. Tällaisia järjestelmiä ei tällä hetkellä ole olemassa, mutta johtavat tekoälylaboratoriot työskentelevät niiden kehittämiseksi, ja monet odottavat AGI:n saavuttavan meidät seuraavan viiden vuoden kuluessa tai alle.
Raportin kolme kirjoittajaa työskentelivät raportin parissa yli vuoden ajan ja puhuivat yli 200 hallituksen työntekijän, asiantuntijan ja pioneeritason tekoälyyritysten – kuten OpenAI:n, Googlen DeepMindin, Anthropicin ja Metan – työntekijöiden kanssa osana tutkimusta. Joistakin näistä keskusteluista saadut kertomukset antavat huolestuttavan kuvan, joka viittaa siihen, että monet huippuluokan laboratorioissa työskentelevät tekoälyturvallisuuden työntekijät ovat huolissaan kieroutuneista kannustimista, jotka ohjaavat heidän yrityksiään hallitsevien johtajien päätöksentekoa.
Valmiissa asiakirjassa, jonka otsikko on “Toimintasuunnitelma kehittyneen tekoälyn turvallisuuden lisäämiseksi”, suositellaan laajoja ja ennennäkemättömiä poliittisia toimia, jotka toteutuessaan häiritsisivät tekoälyteollisuutta radikaalisti. Raportissa suositellaan, että kongressin pitäisi tehdä laittomaksi tekoälymallien kouluttaminen yli tietyn laskentatehon. Raportissa suositellaan, että uuden liittovaltion tekoälyviraston olisi asetettava kynnysarvo, vaikka raportissa ehdotetaankin, että virasto voisi asettaa sen hieman yli sen laskentatehon, jota käytetään nykyisten huippumallien, kuten OpenAI:n GPT-4:n ja Googlen Geminin, kouluttamiseen. Uuden tekoälyviraston pitäisi vaatia alan “eturintamassa” toimivia tekoälyalan yrityksiä hankkimaan hallituksen lupa uusien mallien kouluttamiseen ja käyttöönottoon tietyn alemman kynnysarvon yläpuolella, raportissa lisätään. Viranomaisten pitäisi myös “kiireellisesti” harkita tehokkaiden tekoälymallien “painojen” eli sisäisten toimintatapojen julkaisemisen kieltämistä esimerkiksi avoimen lähdekoodin lisensseillä, ja rikkomuksista voisi seurata vankeusrangaistus, raportissa sanotaan. Hallituksen olisi lisäksi tiukennettava tekoälysirujen valmistuksen ja viennin valvontaa ja kanavoitava liittovaltion rahoitusta “yhdenmukaistamistutkimukseen”, jolla pyritään tekemään kehittyneestä tekoälystä turvallisempaa, suositellaan.
Raportin tilasi ulkoministeriö marraskuussa 2022 osana liittovaltion sopimusta, jonka arvo oli julkisten tietojen mukaan 250 000 dollaria. Sen on kirjoittanut Gladstone AI, neljän hengen yritys, joka järjestää tekoälyä koskevia teknisiä tiedotustilaisuuksia hallituksen työntekijöille. (Osassa toimintasuunnitelmaa suositellaan, että hallitus investoi voimakkaasti virkamiesten kouluttamiseen tekoälyjärjestelmien teknisestä perustasta, jotta he ymmärtäisivät paremmin niiden riskejä). Raportti toimitettiin 247-sivuisena asiakirjana ulkoministeriölle 26. helmikuuta. Ulkoministeriö ei vastannut useisiin raporttia koskeviin kommenttipyyntöihin. Suositukset “eivät heijasta Yhdysvaltain ulkoministeriön tai Yhdysvaltain hallituksen näkemyksiä”, todetaan raportin ensimmäisellä sivulla.
Raportin suositukset, joista monet ovat aiemmin mahdottomia ajatella, ovat seurausta tekoälyn huimasta kehityksestä, joka on saanut monet tarkkailijat muuttamaan suhtautumistaan teknologiaan. Marraskuussa 2022 julkaistu chatbot ChatGPT oli ensimmäinen kerta, kun tämä muutosvauhti tuli näkyväksi koko yhteiskunnalle, mikä sai monet ihmiset pohtimaan, voivatko tulevaisuuden tekoälyt aiheuttaa eksistentiaalisia riskejä ihmiskunnalle. Uusia työkaluja, joilla on enemmän ominaisuuksia, on sen jälkeen edelleen julkaistu nopealla tahdilla. Samalla kun hallitukset eri puolilla maailmaa keskustelevat siitä, miten tekoälyä voitaisiin parhaiten säännellä, maailman suurimmat teknologiayritykset ovat rakentaneet nopeasti infrastruktuuria, jonka avulla voidaan kouluttaa seuraavan sukupolven entistä tehokkaampia järjestelmiä – joissakin tapauksissa suunnitelmissa on käyttää 10 tai 100 kertaa suurempaa laskentatehoa. Samaan aikaan yli 80 prosenttia amerikkalaisista uskoo, että tekoäly voisi vahingossa aiheuttaa katastrofin, ja 77 prosenttia äänestäjistä uskoo, että hallituksen pitäisi tehdä enemmän tekoälyn sääntelemiseksi, kertoo AI Policy Instituten äskettäinen kyselytutkimus.
Raportissa todetaan, että tietyn kynnysarvon ylittävien kehittyneiden tekoälyjärjestelmien kouluttamisen kieltäminen voi “lieventää kaikkien tekoälyn kehittäjien välistä kilpailudynamiikkaa” ja hidastaa nopeampien laitteistojen valmistusta siruteollisuudessa. Raportissa ehdotetaan, että liittovaltion tekoälyvirasto voisi ajan mittaan nostaa kynnysarvoa ja sallia edistyneempien tekoälyjärjestelmien kouluttamisen, kun huippumallien turvallisuudesta on saatu riittävästi näyttöä. Samoin valtio voisi alentaa turvallisuuskynnystä, jos nykyisissä malleissa havaitaan vaarallisia ominaisuuksia.
Ehdotus kohtaa todennäköisesti poliittisia vaikeuksia. “Mielestäni on erittäin epätodennäköistä, että Yhdysvaltain hallitus hyväksyy tämän suosituksen”, sanoo Greg Allen, Center for Strategic and International Studies (CSIS) -laitoksen Wadhwani Center for AI and Advanced Technologies -yksikön johtaja Greg Allen vastauksena TIME:n toimittamaan yhteenvetoon raportin suosituksesta kieltää tietyn kynnysarvon ylittävät tekoälyn harjoitusajot. Hän huomauttaa, että Yhdysvaltain hallituksen nykyisessä tekoälypolitiikassa asetetaan laskentakynnysarvot, joiden ylittyessä sovelletaan avoimuuden valvontaa ja sääntelyvaatimuksia, mutta ei aseteta rajoja, joiden ylittyessä harjoittelu olisi laitonta. “Ilman jonkinlaista ulkoista shokkia he tuskin muuttavat tätä lähestymistapaa”, Allen sanoo.
Gladstonen toimitusjohtaja Jeremie ja teknologiajohtaja Edouard Harris ovat vuodesta 2021 lähtien tiedottaneet Yhdysvaltain hallitukselle tekoälyn riskeistä. Kaksikko, jotka ovat veljeksiä, kertoo, että hallituksen virkamiehet, jotka osallistuivat moniin heidän ensimmäisiin tiedotustilaisuuksiinsa, olivat yhtä mieltä siitä, että tekoälyn riskit olivat merkittäviä, mutta kertoivat, että vastuu niiden käsittelemisestä kuului eri tiimeille tai osastoille. Vuoden 2021 lopulla Gladstone löysi Harrisin mukaan vihdoin hallituksen osan, jolla oli vastuu tekoälyriskeistä: ulkoministeriön kansainvälisen turvallisuuden ja asesulun toimiston. Toimiston tiimeillä on virastojen välinen toimeksianto käsitellä kehittyvistä teknologioista, kuten kemiallisista ja biologisista aseista sekä säteily- ja ydinriskeistä, aiheutuvia riskejä. Jeremien ja Gladstonen silloisen toimitusjohtajan Mark Beallin järjestämien tiedotustilaisuuksien jälkeen Bureau julkaisi lokakuussa 2022 tarjouskilpailun raportista, jonka perusteella voitaisiin päättää, lisätäänkö tekoäly muiden valvottavien riskien luetteloon. (Ulkoministeriö ei vastannut kommenttipyyntöön tuon päätöksen lopputuloksesta). Gladstone-tiimi voitti sopimuksen, ja maanantaina julkaistu raportti on sen tulos.
Raportissa keskitytään kahteen erilliseen riskiluokkaan. Raportissa kuvataan ensimmäistä luokkaa, jota kutsutaan “aseistamisriskiksi”, ja todetaan seuraavaa: “Tällaisia järjestelmiä voitaisiin mahdollisesti käyttää biologisten, kemiallisten tai kyberhyökkäysten suunnitteluun ja jopa toteuttamiseen tai ne voisivat mahdollistaa ennennäkemättömän aseelliset sovellukset parvirobotiikassa.” Toista luokkaa kutsutaan raportissa “hallinnan menettämisen” riskiksi eli mahdollisuudeksi, että kehittyneet tekoälyjärjestelmät voivat ohittaa luojansa. Raportissa todetaan, että “on syytä uskoa, että ne voivat olla hallitsemattomia, jos niitä kehitetään nykyisiä tekniikoita käyttäen, ja ne voivat oletusarvoisesti käyttäytyä ihmiselle haitallisesti”.
Molempia riskiluokkia pahentaa raportin mukaan tekoälyalan “kilpailudynamiikka”. Raportin mukaan todennäköisyys, että se yritys, joka saavuttaa ensimmäisenä tekoälyn, saa suurimman osan taloudellisista eduista, kannustaa yrityksiä asettamaan nopeuden turvallisuuden edelle. “Tekoälylaboratorioilla on voimakas ja välitön kannustin skaalata tekoälyjärjestelmiään mahdollisimman nopeasti”, raportissa todetaan. “Niillä ei ole välitöntä kannustinta investoida turvallisuuteen tai turvatoimiin, jotka eivät tuota suoraa taloudellista hyötyä, vaikka jotkut tekevätkin niin aidon huolen vuoksi.”
Gladstonen raportissa todetaan, että laitteisto – erityisesti huippuluokan tietokonesirut, joita nykyisin käytetään tekoälyjärjestelmien kouluttamiseen – on merkittävä pullonkaula tekoälyvalmiuksien lisäämiselle. Raportin mukaan näiden laitteistojen leviämisen sääntely voi olla “tärkein vaatimus tekoälyn aiheuttaman maailmanlaajuisen turvallisuuden ja varmuuden turvaamiseksi pitkällä aikavälillä”. Raportissa todetaan, että hallituksen olisi tutkittava sirujen vientilupien sitomista siruihin asennettuihin teknologioihin, joiden avulla voidaan valvoa, käytetäänkö siruja suurissa tekoälyn harjoittelujaksoissa, jotta voitaisiin valvoa ehdotettujen sääntöjen noudattamista GPT-4:ää suurempien tekoälyjärjestelmien harjoittelua vastaan. Raportissa todetaan kuitenkin myös, että kaikissa toimenpiteissä on otettava huomioon se mahdollisuus, että liiallinen sääntely voi vahvistaa ulkomaista siruteollisuutta ja heikentää Yhdysvaltojen mahdollisuuksia vaikuttaa toimitusketjuun.
Raportissa tuodaan esiin myös mahdollisuus, että maailmankaikkeuden fyysiset rajat eivät ehkä olekaan niiden puolella, jotka yrittävät estää kehittyneen tekoälyn leviämisen sirujen avulla. “Kun tekoälyalgoritmit kehittyvät jatkuvasti, yhä useampia tekoälyominaisuuksia on saatavilla entistä pienemmällä kokonaislaskentamäärällä. Riippuen siitä, miten pitkälle tämä suuntaus etenee, voi lopulta olla epäkäytännöllistä hillitä kehittyneen tekoälyn leviämistä laskentakeskittymien avulla.” Tämän mahdollisuuden huomioon ottamiseksi raportissa todetaan, että uusi liittovaltion tekoälyvirasto voisi tutkia algoritmien tehokkuutta parantavan tutkimuksen julkaisemisen estämistä, vaikka raportissa myönnetäänkin, että tämä voi vahingoittaa Yhdysvaltojen tekoälyteollisuutta ja olla lopulta toteutumatonta.
Harrisit myöntävät keskustelussa, että heidän suosituksensa vaikuttavat monilta tekoälyalan edustajilta liian innokkailta. He odottavat, että suositus, jonka mukaan kehittyneiden tekoälymallien painotusten avoimen ulkoistamisen kieltäminen olisi kiellettyä, ei tule olemaan suosittu. “Avoin lähdekoodi on yleisesti ottaen hieno ilmiö ja kaiken kaikkiaan massiivisen myönteinen asia maailmalle”, sanoo Gladstonen teknologiajohtaja Edouard. “Se on äärimmäisen haastava suositus, ja käytimme paljon aikaa etsiessämme keinoja, joilla tämänkaltaisia toimenpiteitä voitaisiin ehdottaa.” CSIS:n tekoälypolitiikan asiantuntija Allen sanoo suhtautuvansa myötämielisesti ajatukseen, jonka mukaan avoimen lähdekoodin tekoäly vaikeuttaa poliittisten päättäjien riskien hallintaa. Hän sanoo kuitenkin, että jos ehdotetaan tietyn kokoluokan ylittävien mallien avoimen lähdekoodin kieltämistä, on otettava huomioon, että Yhdysvaltain lain soveltamisala on rajallinen. “Tarkoittaisiko se vain sitä, että avoimen lähdekoodin yhteisö siirtyisi Eurooppaan?” hän kysyy. “Koska maailma on suuri, se on tavallaan otettava huomioon.”
Haasteista huolimatta raportin laatijat sanovat, että heitä vakuutti se, miten helppoa ja halpaa käyttäjien on nykyisin poistaa tekoälymallin turvakaiteet, jos heillä on pääsy sen painoihin. “Jos avoimen lähdekoodin mallia levitetään, vaikka se näyttäisi turvalliselta, se voi silti olla vaarallinen myöhemmin”, Edouard sanoo ja lisää, että päätös avoimen lähdekoodin mallista on peruuttamaton. “Siinä vaiheessa onnea vaan, ei voi muuta kuin ottaa vahinkoa vastaan.”
Raportin kolmas kirjoittaja, entinen puolustusministeriön virkamies Beall, on sittemmin jättänyt Gladstonen ja perustanut super PAC:n, jonka tarkoituksena on edistää tekoälypolitiikkaa. PAC, jonka nimi on Americans for AI Safety, aloitti toimintansa virallisesti maanantaina. Sen tavoitteena on tehdä tekoälyn turvallisuudesta “avainkysymys vuoden 2024 vaaleissa, ja tavoitteena on saada aikaan tekoälyturvallisuuslainsäädäntö vuoden 2024 loppuun mennessä”, ryhmä sanoi TIME:lle antamassaan lausunnossa. PAC ei paljastanut rahoitussitoumuksiaan, mutta sanoi, että se on “asettanut tavoitteekseen kerätä miljoonia dollareita tehtävänsä toteuttamiseksi”.
Ennen Gladstonen perustamista yhdessä Beallin kanssa Harrisin veljekset johtivat tekoälyyhtiötä, joka kävi läpi YCombinatorin, kuuluisan Piilaakson hautomon, tuolloin kun OpenAI:n toimitusjohtaja Sam Altman oli sen johdossa. Kaksikko käyttää näitä ansioita todisteena siitä, että heillä on alan etu sydämenasiassa, vaikka heidän suosituksensa toteutuessaan mullistaisivat sen. “Liiku nopeasti ja riko asioita, rakastamme sitä filosofiaa, olemme kasvaneet sen kanssa”, Jeremie kertoo TIME:lle. Hänen mukaansa uskontunnustus ei kuitenkaan enää päde, kun toimien mahdolliset haitat ovat niin valtavat. “Oletusarvoinen kehityskaaremme näyttää tällä hetkellä olevan pitkälti sellainen, että luomme järjestelmiä, jotka ovat niin tehokkaita, että niitä voidaan joko käyttää katastrofaalisesti aseina tai että niitä ei pystytä hallitsemaan”, Jeremie sanoo. Hän lisää: “Yksi pahimmista skenaarioista on, että tapahtuu katastrofi, joka pysäyttää tekoälytutkimuksen kokonaan kaikilta, emmekä pääse nauttimaan tämän teknologian uskomattomista eduista.”