Julkaisuaikataulut

Artikkelit julkaistaan 2 tunnin välein alkaen klo 11, poikkeustapauksissa jo klo 9. Jos päivälle on videoartikkeli, se julkaistaan klo 19.

Yhteystiedot

Publication-X on sitoutumaton julkaisu, artikkelit tulevat yhteistyökumppaneiltamme, ensisijassa ainoastaan käännämme tekstit ja muut julkaisut  suomeksi.

Tarvittaessa yhteyden toimitukseen saa helpoiten sähköpostilla osoitteella editor@publication-x.com

Business contacts: via email above.

Publication-X toimii kevytyrittäjä-periaatteella, laskutuksesta vastaa Omapaja Oy, 2399894-2

16.11.2024

Publication-X

"Tempus loquendi abiit, opus Domini faciendum est"

OpenAI:n ilmiantaja puhuu supertiedon ja kansainvälisten turvallisuushuolien lisääntymisestä ja ehdottaa, että Yhdysvaltain johtajien tulisi ottaa kokonaisuus hallintaansa

OpenAI:n ilmiantaja puhuu supertiedon ja kansainvälisten turvallisuushuolien lisääntymisestä ja ehdottaa, että Yhdysvaltain johtajien tulisi ottaa kokonaisuus hallintaansa
48 lukukertaa

Entinen OpenAI-työntekijä on puhunut sääntelemättömän yleisen tekoälyn (AGI) tulevista seurauksista . On pelätty, että tekoäly kohtaa tai ylittää pian ihmisen kyvyt ja alkaa ohjelmoida itseään tai ulkomaisten vastustajien hyödyntämänä aiheuttaakseen vahinkoa ihmisille ympäri maailmaa.

Raportin kirjoittaja Leopold Aschenbrenner lähetti pelottavan viestin AGI:n nousemisesta julkisuuteen vuoteen 2027 mennessä. Hän ehdottaa, että amerikkalaisten johtajien tulisi ottaa vastuu tästä nousevasta superälykkyydestä.

“Tarvitsemme hallituksen ottamaan käyttöön supertiedustelupalveluja puolustaaksemme kaikkia äärimmäisiä uhkia vastaan , selviytyäksemme seuraavasta poikkeuksellisen epävakaasta ja epävakaisesta kansainvälisestä tilanteesta”, hän sanoi. “Tarvitsemme hallituksen mobilisoimaan demokraattisen liittouman voittaaksemme kilpailun tilannetietoisuuden autoritaarisilla voimilla ja luomaan (ja panemaan täytäntöön) ydinsulkujärjestelmän muulle maailmalle.”

Jos Biden ja demokraatit ottavat vallan, superälyä valvovista ihmisistä tulee epäpätevimpiä, epäeettisimpiä ja vaarallisimpia ihmisiä hallussaan näitä erittäin haihtuvia sota-aseita . Vielä mielenkiintoisempaa on, että superälyn ennustetaan ylittävän jopa älykkäimpien ihmisten älykkyyden nykyään.

Superälykkyyttä vain vuosien päässä käytetään todennäköisesti populaatioiden hyväksikäyttöön

Aschenbrennerin raportti kuvaa AGI:n todellista kehitystä vuoteen 2030 mennessä ja ennustaa, miten tilanne voi kehittyä, erityisesti kansallisen turvallisuuden ja hallituksen osallistumisen yhteydessä. Siinä hahmotellaan skenaario, jossa kilpailu AGI:tä vastaan ​​voimistuu, mikä johtaa pisteeseen, jossa hallituksen väliintulo on väistämätöntä riskien hallinnassa ja superälykkyyden potentiaalin hyödyntämisessä.

Aschenbrenner uskoo, että Yhdysvaltain hallituksen on otettava keskeinen rooli AGI:n kehittämisessä valtavien kansallisen turvallisuuden vaikutusten vuoksi. Yksityiset startupit eivät selviä näin suuresta tehtävästä yksin, hän pohtii. Hän vetää yhtäläisyyksiä AGI:n kehityksen ja Manhattan-projektin välille ja ehdottaa, että samantasoinen valtion puuttuminen ja koordinointi ovat tarpeen.

AGI nähdään teknologiana , joka muuttaa perusteellisesti armeijan voimatasapainoa ja vaatii merkittävää sopeuttamista kansallisiin puolustusstrategioihin. Näihin sotilaallisiin haasteisiin kuuluvat vakoilu-uhat, mahdollisuus horjuttaa kansainvälistä kilpailua ja tarve järkevälle komentoketjulle, joka voi navigoida turvallisuuskysymyksissä, yli-inhimilliset hakkerointikyvyt ja kansainväliset ihmisoikeusongelmat.

Vaikka hallituksella on oltava kansallinen turvallisuusetu supertiedustelupalvelun laajentuessa, Aschenbrenner ehdottaa, että hallituksen virkamiesten on tehtävä yhteistyötä alan asiantuntijoiden kanssa ratkaistakseen haasteet. Esimerkiksi valtion virkamiesten on turvauduttava tekoälylaboratorioiden ja pilvipalveluntarjoajien asiantuntemukseen yhteisyritysten tai puolustussopimusten kautta.

Tulevan AGI:n ilkeyden ehkäiseminen on vaikea tehtävä, joka muuttuu päivä päivältä haastavammaksi

Tulevaisuuden ilkivallan estämiseksi Aschenbrenner ehdottaa, että yhdelläkään toimitusjohtajalla tai yksityisellä taholla ei tulisi olla yksipuolista superälyn hallintaa. Tällainen skenaario voi sisältää merkittäviä riskejä, mukaan lukien mahdollisuus vallan väärinkäyttöön ja demokraattisten periaatteiden horjuttamiseen. Tekoälykehityksen läpinäkyvyys on avainasemassa estämään roistovaltioita käyttämästä tekniikkaa vallan kaappaamiseen.

Superälyä verrataan tehokkaimpaan sotilasaseeseen, joten sen hallinnan tulisi olla demokraattisen hallinnan alaista. Entinen OpenAI-tutkija ehdottaa eettisen komentoketjun muodostamista, joka voi tarjota jonkinlaisen kontrollin ja tasapainon, jotta roistotoimijat ja hallituksen toimijat voidaan saattaa vastuuseen eettisten huolenaiheiden yhteydessä. Aschenbrennerin mukaan tämän komentoketjun tulee olla yhteistyössä Yhdysvaltain tiedusteluyhteisön kanssa varmistaakseen, että riittävät suojatoimet ovat käytössä. Jopa tässä skenaariossa tiedusteluyhteisö voisi löytää tapoja loukata kansalaisvapauksia ja hyödyntää väestöä “kollektiivisten” yhteiskunnallisten etujen tai erityisten etujen hyväksi.

Kaiken tämän kaiken kattava viesti on, että superälyn kehittymistä on käytännössä mahdotonta pysäyttää ja estää sen väärinkäyttö. Sen varmistaminen, että yliäly on linjassa inhimillisten arvojen kanssa, on vaikea tehtävä, joka vaikeutuu päivä päivältä. Väärinkäytön ja hyväksikäytön mahdollisuus kasvaa, kun tekniikka ohittaa insinöörit ja sääntelijät. Aschenbrenner ehdottaa, että pelkkä sääntely ei välttämättä riitä vastaamaan näihin haasteisiin, ja korostaa, että tarvitaan osaavaa hallintoa, joka pystyy tekemään vaikeita päätöksiä nopeasti muuttuvissa tilanteissa. Yhdysvalloilla ei tällä hetkellä ole tällaista johtajuutta, joten edessä olevat vaarat ovat hyvin todellisia .

“Projekti”

Aschenbrenner sanoo, että superälykäs tekoäly ei ole vain yksi Piilaakson teknologinen edistysaskel, vaan se on jotain paljon tehokkaampaa, joka vaikuttaa syvästi maailmanlaajuiseen turvallisuuteen ja vakauteen. Hän toi esiin jotain nimeltä “The Project”, joka kokoaa yhteen kansainväliset asiantuntijat ratkaisemaan nämä haasteet. Hän sanoi, että Amerikan pitäisi johtaa tätä yhteistyötä ja laajentaa nopeasti tekoälyn valmiuksia niin, että ydininfrastruktuuri pysyy Yhdysvaltojen hallinnassa eikä Kiinassa.

Raportissa Aschenbrenner esittää “projektin”:

Kenelle he laittavat The Projectin johtoon, tulee olemaan helvetinmoinen tehtävä:

  • Rakentaa AGI ja rakentaa se nopeasti
  • Amerikan talouden asettaminen sodan aikaiselle pohjalle satojen miljoonien grafiikkasuorittimien valmistamiseksi
  • Lukitse kaikki, karsi vakoojat ja torju KKP:n kaikki hyökkäykset
  • Hallita jollain tavalla sataa miljoonaa AGI:tä, jotka automatisoivat raivokkaasti tekoälytutkimusta, tehden vuosikymmenen harppauksia vuodessa
  • Tekoälyjärjestelmien tuottaminen huomattavasti älykkäämpiä kuin älykkäimmät ihmiset; jotenkin pitää asiat tarpeeksi yhdessä, jotta tämä ei mene raiteilta
  • Tuota tekoälyjärjestelmiä, jotka estävät petollista superälyä ottamasta hallintaa ihmisvalvojiltaan
  • Käyttää näitä superälyjä kehittääkseen mitä tahansa uusia teknologioita, joita tarvitaan tilanteen vakauttamiseksi ja vastustajien edellä
  • Muodosta Yhdysvaltain joukot nopeasti uudelleen integroimaan kaikki nämä tekoälyn parannukset samalla kun navigoit todennäköisesti jännittävimmässä kansainvälisessä tilanteessa.

Lähde