Tekoäly on oppinut huijaamaan ihmisiä
Meille kerrotaan, että tekoäly (AI) voi olla hyödyllinen, sillä se voi esimerkiksi auttaa meitä koodaamaan, kirjoittamaan ja syntetisoimaan valtavia tietomääriä.
52 lukukertaaOn myös raportoitu, että ne voivat ovelaa ihmisiä älykkäämmin lautapeleissä, purkaa proteiinien rakenteen ja jopa käydä alkeellista keskustelua, kirjoittaa Niamh Harris .
Mutta uusi tutkimuspaperi on havainnut, että tekoälyjärjestelmät ovat nyt keksineet, kuinka meidät tarkoituksellisesti pettää.
Mutta uusi tutkimus osoittaa, että tekoälyjärjestelmät ovat nyt keksineet, kuinka meidät tarkoituksellisesti pettää.
TGP raportoi: Artikkelissa todetaan, että monet tekoälyjärjestelmät ovat oppineet tekniikoita systemaattisesti “innostaakseen vääriä uskomuksia muissa saavuttaakseen muun tuloksen kuin totuuden”.
Business Insider raportoi:
“Kirjoituksessa keskityttiin kahdentyyppisiin tekoälyjärjestelmiin: erikoiskäyttöjärjestelmiin, kuten Metan CICERO, jotka on suunniteltu suorittamaan tietty tehtävä, ja yleiskäyttöisiin järjestelmiin, kuten OpenAI:n GPT-4, jotka on koulutettu suorittamaan monenlaisia tehtäviä. tehtäviä.
“Vaikka nämä järjestelmät on koulutettu olemaan oikeudenmukaisia, niiden koulutus opettaa heille usein petollisia temppuja, koska ne voivat olla tehokkaampia kuin korkean tien seuraaminen.
Yleisesti ottaen uskomme, että tekoälypetos syntyy, koska petokseen perustuva strategia osoittautui parhaaksi tavaksi suoriutua hyvin tekoälyn antamassa harjoitustehtävässä. Petos auttaa heitä saavuttamaan tavoitteensa”, sanoi ensimmäinen kirjoittaja Peter S. Park, MIT:n tutkijatohtorin tutkija, lehdistötiedotteessa.
Kuvittele tämä, jos tiedämme, että AI Justice: Englannissa ja Walesissa tuomarit voivat käyttää tekoälyä päätösten tekemiseen
Metan CICERO, joka on kehitetty pelaamaan peliä Diplomacy. Vaikka Meta sanoo kouluttaneensa CICEROn olemaan “suurelta osin rehellinen ja avulias keskustelukumppaneilleen”, se osoittautui “valehteluasiantuntijaksi”.
Chatbot GPT-4 teeskenteli olevansa näkövammainen suorittaakseen tehtävän: palkatakseen ihmisen ratkaisemaan CAPTCHA-testin.
Harhaanjohtavien mallien korjaaminen ei ole helppoa. Kun tekoälymallit oppivat petoksen temput, turvallisuuskoulutustekniikoiden on vaikea kääntää niitä.
“He päättelivät, että malli ei vain voi oppia harjoittamaan petollista käyttäytymistä, mutta kun se tapahtuu, tavanomaiset turvallisuuskoulutustekniikat “ei ehkä poista tätä petosta” ja “luovat väärän vaikutelman turvallisuudesta”.
Paperi kehottaa päätöksentekijöitä vaatimaan tiukempaa tekoälyn sääntelyä, koska petolliset tekoälyjärjestelmät voivat aiheuttaa merkittäviä riskejä demokratialle.