UK AI Task Force Advisor: 2 vuotta jäljellä, tai muuten
Ihmiskunnalla on kaksi ongelmaa, joita kuvataan sanoilla. “syvä” ja “leveä”. Nykyisten mallien laaja ottaminen käyttöön tarkoittaa, että nykyiset mallit ovat kaikkialla. Samaan aikaan kun ominaisuudet syvenevät, nämä parannukset viedään saumattomasti välittömästi kaikkiin maailman asennuksiin. Open AI on luvannut hidastaa uusien julkaisujen julkaisua, mutta muut tekoälyyritykset ajavat eteenpäin täydellä nopeudella.
Kehitysvauhti kiihtyy oppimisen nopeuden myötä, mikä tarkoittaa, että uudet versiot voivat tulla markkinoille paljon nopeammin. Kokonaisvaikutus on siirtymässä kohti pakonopeutta säätöä ja ohjausta varten. Jos sääntelijät eivät ymmärrä, mitä ja miten on säädeltävä, ne ovat hyödyttömiä. Lisäksi tekoälyohjelmoijat itse myöntävät, etteivät he ymmärrä, kuinka heidän tekoälynsä tekee johtopäätöksiä.
AGI ei ole suurin uhka; pikemminkin ongelmana on ihmisten halukkuus totella elotonta, sielutonta algoritmia.
Ison-Britannian pääministerin tekoälytyöryhmän neuvonantaja sanoi, että suuret tekoälymallit tarvitsevat sääntelyä ja valvontaa seuraavan kahden vuoden aikana suurten eksistentiaalisten riskien hillitsemiseksi.
Britannian pääministerin tekoälyn (AI) työryhmän neuvonantaja sanoi, että ihmisillä on noin kaksi vuotta aikaa hallita ja säädellä tekoälyä, ennen kuin siitä tulee liian voimakas.
Haastattelussa paikalliselle brittimedialle Matt Clifford, joka toimii myös hallituksen Advanced Research and Invention Agencyn (ARIA) puheenjohtajana, korosti, että nykyiset järjestelmät ovat tulossa “enemmän ja tehokkaampia koko ajan nopeutuvassa tahdissa” .
Hän jatkoi, että jos viranomaiset eivät huomioi turvallisuutta ja määräyksiä nyt, järjestelmistä tulee “erittäin tehokkaita” kahdessa vuodessa.
“Meillä on kaksi vuotta aikaa ottaa käyttöön kehys, joka tekee näiden erittäin suurten mallien ohjaamisesta ja säätelystä paljon nykyistä mahdollista.”
Clifford varoitti, että tekoälyyn liittyy “paljon erilaisia riskejä” sekä lyhyellä että pitkällä aikavälillä, mitä hän kutsui “melko pelottavalta”.
Haastattelu syntyi Center for AI Safetyn äskettäin julkaiseman avoimen kirjeen jälkeen, jonka allekirjoitti 350 tekoälyasiantuntijaa, mukaan lukien OpenAI:n toimitusjohtaja Sam Altman, ja jossa sanottiin, että tekoälyä tulisi käsitellä eksistentiaalisena uhkana, joka on samanlainen kuin ydinaseiden ja pandemioiden aiheuttama uhka .
“He puhuvat siitä, mitä tapahtuu, kun luomme tehokkaasti uuden lajin, eräänlaisen älykkyyden, joka on suurempi kuin ihmiset.”
Tekoälytyöryhmän neuvonantaja sanoi, että nämä tekoälyn aiheuttamat uhat voivat olla “erittäin vaarallisia” ja “tappaa monia ihmisiä, ei kaikkia ihmisiä, yksinkertaisesti sieltä, missä odotamme mallien olevan kahden vuoden kuluttua”.
Cliffordin mukaan sääntelijöiden ja kehittäjien ensisijainen painopiste tulee olla mallien hallinnan ymmärtäminen ja sen jälkeen säädösten täytäntöönpano globaalissa mittakaavassa.
Tällä hetkellä hän sanoi, että hänen suurin pelkonsa on ymmärryksen puute siitä, miksi tekoälymallit käyttäytyvät niin kuin he käyttäytyvät.
“Ihmiset, jotka rakentavat tehokkaimpia järjestelmiä, myöntävät vapaasti, että he eivät ymmärrä tarkalleen, kuinka [AI-järjestelmät] osoittavat käyttäytymistään.”
Clifford korosti, että monet tekoälyä rakentavien organisaatioiden johtajat ovat myös samaa mieltä siitä, että tehokkaiden tekoälymallien on läpäistävä jonkinlainen auditointi- ja arviointiprosessi ennen käyttöönottoa.
Tällä hetkellä sääntelyviranomaiset ympäri maailmaa pyrkivät ymmärtämään teknologiaa ja sen seurauksia samalla kun yrittävät luoda sääntöjä, jotka suojaavat käyttäjiä ja mahdollistavat silti innovaation.
Euroopan unionin virkamiehet menivät 5. kesäkuuta niin pitkälle, että ehdottivat, että kaikki tekoälyn tuottama sisältö tulisi merkitä sellaiseksi disinformaation estämiseksi.
Isossa-Britanniassa oppositiotyöväenpuolueen etupenkissä oleva jäsen toisti Center for AI Safetyn kirjeessä mainittuja tunteita ja sanoi, että teknologiaa pitäisi säännellä kuten lääketiedettä ja ydinvoimaa.
Lähde: Technocracy.news