Julkaisuaikataulut

Artikkelit julkaistaan 2 tunnin välein alkaen klo 11, poikkeustapauksissa jo klo 9. Jos päivälle on videoartikkeli, se julkaistaan klo 19.

Yhteystiedot

Publication-X on sitoutumaton julkaisu, artikkelit tulevat yhteistyökumppaneiltamme, ensisijassa ainoastaan käännämme tekstit ja muut julkaisut  suomeksi.

Tarvittaessa yhteyden toimitukseen saa helpoiten sähköpostilla osoitteella editor@publication-x.com

Business contacts: via email above.

Publication-X toimii kevytyrittäjä-periaatteella, laskutuksesta vastaa Omapaja Oy, 2399894-2

16.11.2024

Publication-X

"Tempus loquendi abiit, opus Domini faciendum est"

Tekoäly on oppinut huijaamaan ihmisiä

Tekoäly on oppinut huijaamaan ihmisiä

Meille kerrotaan, että tekoäly (AI) voi olla hyödyllinen, sillä se voi esimerkiksi auttaa meitä koodaamaan, kirjoittamaan ja syntetisoimaan valtavia tietomääriä.

52 lukukertaa

On myös raportoitu, että ne voivat ovelaa ihmisiä älykkäämmin lautapeleissä, purkaa proteiinien rakenteen ja jopa käydä alkeellista keskustelua, kirjoittaa Niamh Harris .

Mutta uusi tutkimuspaperi on havainnut, että tekoälyjärjestelmät ovat nyt keksineet, kuinka meidät tarkoituksellisesti pettää.

Mutta uusi tutkimus osoittaa, että tekoälyjärjestelmät ovat nyt keksineet, kuinka meidät tarkoituksellisesti pettää.

TGP raportoi: Artikkelissa todetaan, että monet tekoälyjärjestelmät ovat oppineet tekniikoita systemaattisesti “innostaakseen vääriä uskomuksia muissa saavuttaakseen muun tuloksen kuin totuuden”.

Business Insider raportoi:

“Kirjoituksessa keskityttiin kahdentyyppisiin tekoälyjärjestelmiin: erikoiskäyttöjärjestelmiin, kuten Metan CICERO, jotka on suunniteltu suorittamaan tietty tehtävä, ja yleiskäyttöisiin järjestelmiin, kuten OpenAI:n GPT-4, jotka on koulutettu suorittamaan monenlaisia ​​​​tehtäviä. tehtäviä.

“Vaikka nämä järjestelmät on koulutettu olemaan oikeudenmukaisia, niiden koulutus opettaa heille usein petollisia temppuja, koska ne voivat olla tehokkaampia kuin korkean tien seuraaminen.

Yleisesti ottaen uskomme, että tekoälypetos syntyy, koska petokseen perustuva strategia osoittautui parhaaksi tavaksi suoriutua hyvin tekoälyn antamassa harjoitustehtävässä. Petos auttaa heitä saavuttamaan tavoitteensa”, sanoi ensimmäinen kirjoittaja Peter S. Park, MIT:n tutkijatohtorin tutkija, lehdistötiedotteessa.

Kuvittele tämä, jos tiedämme, että AI Justice: Englannissa ja Walesissa tuomarit voivat käyttää tekoälyä päätösten tekemiseen

Metan CICERO, joka on kehitetty pelaamaan peliä Diplomacy. Vaikka Meta sanoo kouluttaneensa CICEROn olemaan “suurelta osin rehellinen ja avulias keskustelukumppaneilleen”, se osoittautui “valehteluasiantuntijaksi”.

Chatbot GPT-4 teeskenteli olevansa näkövammainen suorittaakseen tehtävän: palkatakseen ihmisen ratkaisemaan CAPTCHA-testin.

Harhaanjohtavien mallien korjaaminen ei ole helppoa. Kun tekoälymallit oppivat petoksen temput, turvallisuuskoulutustekniikoiden on vaikea kääntää niitä.

“He päättelivät, että malli ei vain voi oppia harjoittamaan petollista käyttäytymistä, mutta kun se tapahtuu, tavanomaiset turvallisuuskoulutustekniikat “ei ehkä poista tätä petosta” ja “luovat väärän vaikutelman turvallisuudesta”.

Paperi kehottaa päätöksentekijöitä vaatimaan tiukempaa tekoälyn sääntelyä, koska petolliset tekoälyjärjestelmät voivat aiheuttaa merkittäviä riskejä demokratialle.