Tekoälyn pioneeri varoittaa, että ihmiskunnan jäljellä oleva aikajana on vain muutaman vuoden päässä, koska on olemassa riski, että uusi tekoälyteknologia voi tuhota ihmiskunnan
tekoälyn edelläkävijä liezer Yudkowsky on varoittanut, että ihmiskunnalla on enää muutama vuosi elinaikaa, kun tekoäly kehittyy jatkuvasti, kirjoittaa Cassie B.
53 lukukertaaGuardianin haastattelussa hän kertoi kirjailija Tom Lamontille: “Jos asetat minut seinää vasten ja pakotit minut asettamaan todennäköisyydet asioille, minusta tuntuu, että nykyinen jäljellä oleva aikajanamme näyttää enemmän viideltä vuodelta kuin 50 vuodelta. Voi olla kaksi vuotta, voi olla 10.”
Yudkowsky, joka perusti Machine Intelligence Research Instituten Kaliforniaan, puhuu ihmiskunnan lopusta sellaisena kuin me sen tunnemme. Hän sanoi, että ongelma on se, että monet ihmiset eivät ymmärrä, kuinka epätodennäköistä on, että ihmiskunta selviää tästä kaikesta.
“Meillä on mahdollisuus, että ihmiskunta selviää tästä”, hän varoitti.
Nämä ovat pelottavia sanoja joltakulta, joka ChatGPT:n luojan OpenAI:n toimitusjohtajan Sam Altmanin mukaan on kiinnostunut itsestään ja monista muista yleisestä tekoälystä ja joka oli “kriittinen päätöksessä aloittaa OpenAI”.
Viime vuonna Yudkowsky kirjoitti avoimessa kirjeessään TIME-lehdessä, että useimmat alan asiantuntijat uskovat, että “todennäköisin seuraus yli-inhimillisen älykkään tekoälyn rakentamisesta kaikissa nykyisiä olosuhteita muistuttavana on, että kirjaimellisesti kaikki maan päällä kuolevat”.
Hän selittää, että tulee kohta, jolloin tekoäly ei enää tee sitä, mitä ihmiset haluavat, eikä enää välitä tietoisesta elämästä. Vaikka hän uskoo, että tällainen hoito voitaisiin jonain päivänä rakentaa tekoälyyn, ainakin periaatteessa, kukaan ei tiedä, miten se tehdään juuri nyt. Tämä tarkoittaa, että ihmiset käyvät avutonta taistelua, jota hän vertaa “1000-luvulle, joka yrittää taistella 2000-lukua vastaan”.
Yudkowsky sanoi, että todella älykäs tekoäly ei rajoitu vain tietokoneisiin, ja huomautti, että nyt on mahdollista lähettää DNA-jonoja sähköpostitse laboratorioihin ja saada ne tuottamaan proteiineja puolestasi, mikä tarkoittaa, että tekoäly, joka on alussa yksin Internetissä on “voi rakentaa keinotekoisia elämänmuotoja tai hypätä suoraan postbiologiseen molekyylituotantoon”.
Hän selitti myös, että tekoäly voi “käyttää superbiologiaa sinua vastaan”.
“Jos joku rakentaa liian voimakkaan tekoälyn nykyisissä olosuhteissa, odotan jokaisen ihmislajin jäsenen ja kaiken maan biologisen elämän kuolevan pian sen jälkeen”, hän lisäsi.
Tietojenkäsittelytieteilijät ovat varoittaneet 1960-luvulta lähtien, että luomiemme koneiden tavoitteet eivät välttämättä vastaa meidän tavoitteitamme.
Yudkowsky sanoo, että ratkaisu on “sammuttaa kaikki”
Joten kuinka voimme lopettaa tämän? Yudkowskyn mukaan paljon on tehtävä. Esimerkiksi uusien suurten harjoitusajojen toteuttamiselle pitäisi olla rajoittamaton ja globaali moratorio ilman sotilaallisia tai hallituspoikkeuksia, vaikka on vaikea kuvitella saavansa kansainvälistä yhteistyötä tässä asiassa esimerkiksi Kiinasta.
Hän uskoo myös, että suuret GPU-klusterit pitäisi sulkea. Nämä ovat suuria tietokonefarmia, joissa maailman tehokkaimpia tekoälyjä koulutetaan ja jalostetaan. Myös tekoälyjärjestelmien kouluttamiseen käytettävän laskentatehon enimmäismäärät auttaisivat, kunhan niitä säädettäisiin tulevaisuudessa alaspäin, kun koulutusalgoritmit tehostuvat.
Yudkowsky uskoo, että meidän pitäisi olla “valmiita tuhoamaan kelvollinen datakeskus ilmaiskulla”. Hän kirjoitti, että jopa ydinhyökkäys olisi ok, jos se merkitsisi tekoälyn eliminoimista, vaikka hän nyt sanoo, että hän olisi ollut “varovaisempi” tässä kohdassa, jos hän kirjoittaisi kappaleen uudelleen.
Vaikka jotkut saattavat syyttää häntä pelottelusta tai sensaatiohakuisuudesta, viime kuussa julkaistu kaikkien aikojen suurin tekoälytutkijoiden tutkimus osoitti, että 16 prosenttia heistä on vakuuttunut siitä, että heidän työnsä tekoälyn parissa johtaa ihmiskunnan sukupuuttoon.