Julkaisuaikataulut

Artikkelit julkaistaan 2 tunnin välein alkaen klo 11, poikkeustapauksissa jo klo 9. Jos päivälle on videoartikkeli, se julkaistaan klo 19.

Yhteystiedot

Publication-X on sitoutumaton julkaisu, artikkelit tulevat yhteistyökumppaneiltamme, ensisijassa ainoastaan käännämme tekstit ja muut julkaisut  suomeksi.

Tarvittaessa yhteyden toimitukseen saa helpoiten sähköpostilla osoitteella editor@publication-x.com

Business contacts: via email above.

Publication-X toimii kevytyrittäjä-periaatteella, laskutuksesta vastaa Omapaja Oy, 2399894-2

15.11.2024

Publication-X

"Tempus loquendi abiit, opus Domini faciendum est"

Entinen OpenAI-tutkija varoittaa tekoälyn vaaroista

Entinen OpenAI-tutkija varoittaa tekoälyn vaaroista
48 lukukertaa

OpenAI:n entinen hallintotutkija on tehnyt pelottavan ennusteen: Todennäköisyys, että tekoäly (AI) joko tuhoaa tai aiheuttaa katastrofaalisia vahinkoja ihmiskunnalle, on 70 prosenttia. Kuinka vaarallista tämä tekniikka todella on?

New York Timesin haastattelussa Daniel Kokotajlo, OpenAI:n entinen hallintotutkija ja avoimen kirjeen allekirjoittaja , jossa väitetään, että työntekijöitä estetään ottamasta esiin turvallisuuskysymyksiä, syytti yritystä siitä, että se jätti huomiotta yleisen tekoälyn (AGI) valtavia riskejä. jättää huomiotta. Päättäjät jättäisivät huomioimatta kaikki huolenaiheet. “OpenAI on todella innoissaan AGI:n kehittämisestä”, Kokotajlo selitti, “ja he kilpailevat piittaamattomasti ollakseen ensimmäinen.”

Kokotajlon hälyttävin lausunto oli, että mahdollisuus tekoälyn tuhoamiseen ihmiskunnan on noin 70 prosenttia – todennäköisyys, jota ei voida hyväksyä millekään suurelle elämäntapahtumalle, mutta OpenAI ja muut yritykset ajavat siitä huolimatta eteenpäin. Termi “p(doom), joka viittaa todennäköisyyteen, että tekoäly saa aikaan ihmiskunnan lopun, on jatkuva keskustelunaihe koneoppimisen maailmassa.

Liityttyään OpenAI:hen vuonna 2022 ja häntä pyydettiin ennustamaan teknologian edistymistä, 31-vuotias oli vakuuttunut siitä, että ala saavuttaisi AGI:n vuoteen 2027 mennessä ja että on olemassa suuri mahdollisuus, että se aiheuttaisi katastrofaalista vahinkoa tai jopa tuhoa ihmiskunnalle. Kokotajlo ja hänen kollegansa, mukaan lukien entiset ja nykyiset Google DeepMind- ja Anthropic-työntekijät sekä Geoffrey Hinton, “AI-kummisetä”, joka jätti Googlen viime vuonna vastaavien huolenaiheiden vuoksi, vaativat varoittavansa yleisöä tekoälyn riskeistä.

Kokotajlo oli niin vakuuttunut valtavista riskeistä, joita tekoäly aiheuttaa ihmiskunnalle, että hän kehotti henkilökohtaisesti OpenAI:n toimitusjohtajaa Sam Altmania keskittymään turvallisuuteen ja käyttämään enemmän aikaa turvatoimien toteuttamiseen teknologian hillitsemiseksi sen sijaan, että se tekisi siitä älykkäämpää. Vaikka Altman oli hänen kanssaan tuolloin samaa mieltä, Kokotajlo koki sen olevan pelkkää huulta.

Pettynyt Kokotajlo erosi huhtikuussa ja kertoi tiimilleen sähköpostissa, että hän oli menettänyt luottamuksensa OpenAI:n vastuulliseen käytökseen, kun yritys jatkoi yrittäessään saada tekoäly lähes ihmisen tasolle. “Maailma ei ole valmis, emmekä me ole valmiita”, hän kirjoitti. “Ja olen huolissani siitä, että tästä huolimatta kiirehdimme eteenpäin ja järkeistämme toimintaamme.”

Herää kysymys, kuinka vaarallista tekoäly voi todellisuudessa olla ihmiskunnalle. Toisaalta se avaa monia mahdollisuuksia – esimerkiksi uusien lääkkeiden ja komposiittien kehittämisessä. Toisaalta sitä voidaan kuitenkin käyttää myös tuhoaviin tarkoituksiin – esimerkiksi asejärjestelmien autonomiseen ohjaukseen. Tämä mahdollistaisi myös vaarallisten biologisten tai kemiallisten aseiden kehittämisen.