Julkaisuaikataulut

Artikkelit julkaistaan 2 tunnin välein alkaen klo 11, poikkeustapauksissa jo klo 9. Jos päivälle on videoartikkeli, se julkaistaan klo 19.

Yhteystiedot

Publication-X on sitoutumaton julkaisu, artikkelit tulevat yhteistyökumppaneiltamme, ensisijassa ainoastaan käännämme tekstit ja muut julkaisut  suomeksi.

Tarvittaessa yhteyden toimitukseen saa helpoiten sähköpostilla osoitteella editor@publication-x.com

Business contacts: via email above.

Publication-X toimii kevytyrittäjä-periaatteella, laskutuksesta vastaa Omapaja Oy, 2399894-2

15.11.2024

Publication-X

"Tempus loquendi abiit, opus Domini faciendum est"

Yhdysvaltain ulkoministeriö varoittaa “sukupuuttoon” liittyvästä uhkasta tekoälyn nousun vuoksi

Yhdysvaltain ulkoministeriö varoittaa “sukupuuttoon” liittyvästä uhkasta tekoälyn nousun vuoksi

Yhdysvaltain ulkoministeriö on antanut hälytyksen tekoälyn aiheuttamasta “sukuppuuttotason” uhasta ihmiskunnan tulevaisuudelle.

46 lukukertaa

Gladstonen AI:n raportti vaatii virallisen elimen luomista, joka säätelee tekoälyn kehitystä kiireellisesti ja korostaa kansalliseen turvallisuuteen kohdistuvia riskejä ja ihmiskunnan tuhoutumismahdollisuuksia.

Yournews raportoi:

Konsulttiyhtiö Gladstone AI:n tuottamassa ja ulkoministeriön tilaamassa raportissa Action Plan to Increase the Safety and Security of Advanced AI (Action Plan to Increase the Safety and Security of Advanced AI) kehotetaan lisäämään hallitusta tekoälyn (AI) valvontaa, jotta voidaan puuttua “kiireellisiin ja kasvaviin kansalliseen turvallisuuteen kohdistuviin riskeihin”. ja estämään “ihmislajien tasoinen sukupuuttouhka”. Raportissa ehdotetaan uuden liittovaltion viraston perustamista, jonka tehtävänä on säännellä tiukasti tekoälyn kehitystä, mukaan lukien rajoitukset tekoälyjärjestelmien käyttämälle laskentateholle, rajoittamalla teknologian kehitystä nykyisiin mahdollisuuksiin.

Konsultin suositukset ovat vastaus ristiriitaisiin tuloksiin yleisön vuorovaikutuksesta tekoälyteknologioiden, kuten ChatGPT:n, kanssa, jota on kritisoitu disinformaation levittämisestä, poliittisesta sensuurista ja epäsäännöllisestä käyttäytymisestä sekä yksilöiden harjoittamasta väärinkäytöstä.

Raportin painopiste on yleisen tekoälyn (AGI, Artificial General Intelligence) kehittämisessä. Tekoäly määritellään tekoälyksi, joka voi ylittää ihmisen taloudellisesti ja strategisesti tärkeillä alueilla. Raportissa varoitetaan “hallinnan menettämisen” skenaariosta, jossa tuleva tekoäly voi ylittää ihmisten pyrkimykset saada hallintaansa, vertaamalla mahdollisia vaikutuksia joukkotuhoaseiden vaikutuksiin ja ehdottaen ihmisten sukupuuttoon kuolemisen mahdollisuutta.

Raportissa toistetaan OpenAI:n toimitusjohtajan Sam Altmanin ja muiden julkisessa lausunnossa tekoälyriskejä esittämät huolenaiheet , ja raportissa korostetaan tarvetta maailmanlaajuisesti hillitä tekoälyn sukupuuttoon liittyviä riskejä, kuten pandemioita ja ydinsotaa. Altman korosti haasteena tekoälytutkimuksen keskeyttämisessä kansainvälisen kilpailun vuoksi ja huomautti erityisesti, että pysähtyminen Yhdysvalloissa ei johtaisi pysähtymiseen Kiinassa. Hän kehotti kehittämään ennalta varautumisen standardeja, jotka voitaisiin ottaa käyttöön maailmanlaajuisesti raportin suositusten mukaisesti.

Ehdotettu liittovaltion virasto valvoisi tekoälytutkimuksen tiukkoja sääntöjä, mukaan lukien laskentatehon yläraja ja kriminalisoimaan tekoälykoodin luvaton jakelu. Raportin kirjoittajat sanovat, että ilman tällaisia ​​toimenpiteitä kilpailullinen pyrkimys kehittää AGI:tä voisi johtaa “rajojen” yritysten piittaamattomaan kehitykseen, joka asettaa nopeuden turvallisuuden ja turvallisuuden edelle. Tämän sääntelytavan tarkoituksena on hidastaa ohjelmistokehitystä, jotta AGI ei syntyisi ennenaikaisesti olemassa olevasta tai tulevasta teknologiasta.

Raportissa kuitenkin tunnustetaan tällaisten säännösten rajoitukset ja todetaan todennäköisyys, että tekoälytutkijat siirtyvät vähemmän rajoittaville lainkäyttöalueille jatkaakseen työtään, mikä korostaa tekoälyn kehityksen hallinnan monimutkaisuutta globaalissa kontekstissa.