Julkaisuaikataulut

Artikkelit julkaistaan 2 tunnin välein alkaen klo 11, julkaisuajat ovat siis 11,13,15,17 ja mikäli päivälle on myös videojulkaisu (ei aina) se tapahtuu klo 19.

Yhteystiedot

Publication-X on sitoutumaton julkaisu, artikkelit tulevat yhteistyökumppaneiltamme, ensisijassa ainoastaan käännämme tekstit ja muut julkaisut  suomeksi.

Tarvittaessa yhteyden toimitukseen saa helpoiten sähköpostilla osoittella [email protected] tai Telegramilla:

https://t.me/konradkurzex

Publication-X:n oma telegram-kanava löytyy myös, https://t.me/publicationxcom

 

28.6.2024

Publication-X

"Perfecta tempestas medicandi"

Entinen OpenAI-tutkija varoittaa tekoälyn vaaroista

2 min lukea
Entinen OpenAI-tutkija varoittaa tekoälyn vaaroista

Pikalinkki tähän artikkeliin: https://publication-x.com/abwj

OpenAI:n entinen hallintotutkija on tehnyt pelottavan ennusteen: Todennäköisyys, että tekoäly (AI) joko tuhoaa tai aiheuttaa katastrofaalisia vahinkoja ihmiskunnalle, on 70 prosenttia. Kuinka vaarallista tämä tekniikka todella on?

New York Timesin haastattelussa Daniel Kokotajlo, OpenAI:n entinen hallintotutkija ja avoimen kirjeen allekirjoittaja , jossa väitetään, että työntekijöitä estetään ottamasta esiin turvallisuuskysymyksiä, syytti yritystä siitä, että se jätti huomiotta yleisen tekoälyn (AGI) valtavia riskejä. jättää huomiotta. Päättäjät jättäisivät huomioimatta kaikki huolenaiheet. “OpenAI on todella innoissaan AGI:n kehittämisestä”, Kokotajlo selitti, “ja he kilpailevat piittaamattomasti ollakseen ensimmäinen.”

Kokotajlon hälyttävin lausunto oli, että mahdollisuus tekoälyn tuhoamiseen ihmiskunnan on noin 70 prosenttia – todennäköisyys, jota ei voida hyväksyä millekään suurelle elämäntapahtumalle, mutta OpenAI ja muut yritykset ajavat siitä huolimatta eteenpäin. Termi “p(doom), joka viittaa todennäköisyyteen, että tekoäly saa aikaan ihmiskunnan lopun, on jatkuva keskustelunaihe koneoppimisen maailmassa.

Liityttyään OpenAI:hen vuonna 2022 ja häntä pyydettiin ennustamaan teknologian edistymistä, 31-vuotias oli vakuuttunut siitä, että ala saavuttaisi AGI:n vuoteen 2027 mennessä ja että on olemassa suuri mahdollisuus, että se aiheuttaisi katastrofaalista vahinkoa tai jopa tuhoa ihmiskunnalle. Kokotajlo ja hänen kollegansa, mukaan lukien entiset ja nykyiset Google DeepMind- ja Anthropic-työntekijät sekä Geoffrey Hinton, “AI-kummisetä”, joka jätti Googlen viime vuonna vastaavien huolenaiheiden vuoksi, vaativat varoittavansa yleisöä tekoälyn riskeistä.

Kokotajlo oli niin vakuuttunut valtavista riskeistä, joita tekoäly aiheuttaa ihmiskunnalle, että hän kehotti henkilökohtaisesti OpenAI:n toimitusjohtajaa Sam Altmania keskittymään turvallisuuteen ja käyttämään enemmän aikaa turvatoimien toteuttamiseen teknologian hillitsemiseksi sen sijaan, että se tekisi siitä älykkäämpää. Vaikka Altman oli hänen kanssaan tuolloin samaa mieltä, Kokotajlo koki sen olevan pelkkää huulta.

Pettynyt Kokotajlo erosi huhtikuussa ja kertoi tiimilleen sähköpostissa, että hän oli menettänyt luottamuksensa OpenAI:n vastuulliseen käytökseen, kun yritys jatkoi yrittäessään saada tekoäly lähes ihmisen tasolle. “Maailma ei ole valmis, emmekä me ole valmiita”, hän kirjoitti. “Ja olen huolissani siitä, että tästä huolimatta kiirehdimme eteenpäin ja järkeistämme toimintaamme.”

Herää kysymys, kuinka vaarallista tekoäly voi todellisuudessa olla ihmiskunnalle. Toisaalta se avaa monia mahdollisuuksia – esimerkiksi uusien lääkkeiden ja komposiittien kehittämisessä. Toisaalta sitä voidaan kuitenkin käyttää myös tuhoaviin tarkoituksiin – esimerkiksi asejärjestelmien autonomiseen ohjaukseen. Tämä mahdollistaisi myös vaarallisten biologisten tai kemiallisten aseiden kehittämisen.

Kommentoi

fiFinnish