Julkaisuaikataulut

Artikkelit julkaistaan 2 tunnin välein alkaen klo 11, poikkeustapauksissa jo klo 9. Jos päivälle on videoartikkeli, se julkaistaan klo 19.

Yhteystiedot

Publication-X on sitoutumaton julkaisu, artikkelit tulevat yhteistyökumppaneiltamme, ensisijassa ainoastaan käännämme tekstit ja muut julkaisut  suomeksi.

Tarvittaessa yhteyden toimitukseen saa helpoiten sähköpostilla osoitteella editor@publication-x.com

Business contacts: via email above.

Publication-X toimii kevytyrittäjä-periaatteella, laskutuksesta vastaa Omapaja Oy, 2399894-2

16.11.2024

Publication-X

"Tempus loquendi abiit, opus Domini faciendum est"

UK AI Task Force Advisor: 2 vuotta jäljellä, tai muuten

UK AI Task Force Advisor: 2 vuotta jäljellä, tai muuten
45 lukukertaa

Ihmiskunnalla on kaksi ongelmaa, joita kuvataan sanoilla. “syvä” ja “leveä”. Nykyisten mallien laaja ottaminen käyttöön tarkoittaa, että nykyiset mallit ovat kaikkialla. Samaan aikaan kun ominaisuudet syvenevät, nämä parannukset viedään saumattomasti välittömästi kaikkiin maailman asennuksiin. Open AI on luvannut hidastaa uusien julkaisujen julkaisua, mutta muut tekoälyyritykset ajavat eteenpäin täydellä nopeudella.

Kehitysvauhti kiihtyy oppimisen nopeuden myötä, mikä tarkoittaa, että uudet versiot voivat tulla markkinoille paljon nopeammin. Kokonaisvaikutus on siirtymässä kohti pakonopeutta säätöä ja ohjausta varten. Jos sääntelijät eivät ymmärrä, mitä ja miten on säädeltävä, ne ovat hyödyttömiä. Lisäksi tekoälyohjelmoijat itse myöntävät, etteivät he ymmärrä, kuinka heidän tekoälynsä tekee johtopäätöksiä.

AGI ei ole suurin uhka; pikemminkin ongelmana on ihmisten halukkuus totella elotonta, sielutonta algoritmia.

Ison-Britannian pääministerin tekoälytyöryhmän neuvonantaja sanoi, että suuret tekoälymallit tarvitsevat sääntelyä ja valvontaa seuraavan kahden vuoden aikana suurten eksistentiaalisten riskien hillitsemiseksi.

Britannian pääministerin tekoälyn (AI) työryhmän neuvonantaja sanoi, että ihmisillä on noin kaksi vuotta aikaa hallita ja säädellä tekoälyä, ennen kuin siitä tulee liian voimakas.

Haastattelussa   paikalliselle brittimedialle Matt Clifford, joka toimii myös hallituksen Advanced Research and Invention Agencyn (ARIA) puheenjohtajana, korosti, että nykyiset järjestelmät ovat tulossa “enemmän ja tehokkaampia koko ajan nopeutuvassa tahdissa” .

Lue myös:  Akateemikot väittävät, että esihistoriallisessa Euroopassa oli "ei-binaarinen vähemmistö"

Hän jatkoi, että jos viranomaiset eivät huomioi turvallisuutta ja määräyksiä nyt, järjestelmistä tulee “erittäin tehokkaita” kahdessa vuodessa.

“Meillä on kaksi vuotta aikaa ottaa käyttöön kehys, joka tekee näiden erittäin suurten mallien ohjaamisesta ja säätelystä paljon nykyistä mahdollista.”

Clifford varoitti, että tekoälyyn liittyy “paljon erilaisia ​​riskejä” sekä lyhyellä että pitkällä aikavälillä, mitä hän kutsui “melko pelottavalta”.

Haastattelu syntyi   Center for AI Safetyn äskettäin julkaiseman avoimen kirjeen jälkeen, jonka allekirjoitti 350 tekoälyasiantuntijaa, mukaan lukien OpenAI:n toimitusjohtaja Sam Altman, ja jossa sanottiin, että tekoälyä tulisi käsitellä eksistentiaalisena uhkana, joka on samanlainen kuin ydinaseiden ja pandemioiden aiheuttama uhka .

“He puhuvat siitä, mitä tapahtuu, kun luomme tehokkaasti uuden lajin, eräänlaisen älykkyyden, joka on suurempi kuin ihmiset.”

Tekoälytyöryhmän neuvonantaja sanoi, että nämä tekoälyn aiheuttamat uhat voivat olla “erittäin vaarallisia” ja “tappaa monia ihmisiä, ei kaikkia ihmisiä, yksinkertaisesti sieltä, missä odotamme mallien olevan kahden vuoden kuluttua”.

Lue myös:  G7 suhtautuu epäilevästi generatiiviseen tekoälyyn

Cliffordin mukaan sääntelijöiden ja kehittäjien ensisijainen painopiste tulee olla mallien hallinnan ymmärtäminen ja sen jälkeen säädösten täytäntöönpano globaalissa mittakaavassa.

Tällä hetkellä hän sanoi, että hänen suurin pelkonsa on ymmärryksen puute siitä, miksi tekoälymallit käyttäytyvät niin kuin he käyttäytyvät.

“Ihmiset, jotka rakentavat tehokkaimpia järjestelmiä, myöntävät vapaasti, että he eivät ymmärrä tarkalleen, kuinka [AI-järjestelmät] osoittavat käyttäytymistään.”

Clifford korosti, että monet tekoälyä rakentavien organisaatioiden johtajat ovat myös samaa mieltä siitä, että tehokkaiden tekoälymallien on läpäistävä jonkinlainen auditointi- ja arviointiprosessi ennen käyttöönottoa.

Tällä hetkellä sääntelyviranomaiset ympäri maailmaa pyrkivät ymmärtämään teknologiaa ja sen seurauksia samalla kun yrittävät luoda sääntöjä, jotka suojaavat käyttäjiä ja mahdollistavat silti innovaation.

Euroopan unionin virkamiehet menivät 5. kesäkuuta niin pitkälle, että ehdottivat, että kaikki  tekoälyn tuottama sisältö tulisi merkitä sellaiseksi  disinformaation estämiseksi.

Isossa-Britanniassa oppositiotyöväenpuolueen etupenkissä oleva jäsen  toisti  Center for AI Safetyn kirjeessä mainittuja tunteita ja sanoi, että teknologiaa pitäisi säännellä kuten lääketiedettä ja ydinvoimaa.

Lähde: Technocracy.news