Julkaisuaikataulut

Artikkelit julkaistaan 2 tunnin välein alkaen klo 11, julkaisuajat ovat siis 11,13,15,17 ja mikäli päivälle on myös videojulkaisu (ei aina) se tapahtuu klo 19.

Yhteystiedot

Publication-X on sitoutumaton julkaisu, artikkelit tulevat yhteistyökumppaneiltamme, ensisijassa ainoastaan käännämme tekstit ja muut julkaisut  suomeksi.

Tarvittaessa yhteyden toimitukseen saa helpoiten sähköpostilla osoittella [email protected] tai Telegramilla:

https://t.me/konradkurzex

Publication-X:n oma telegram-kanava löytyy myös, https://t.me/publicationxcom

 

22.6.2024

Publication-X

"Perfecta tempestas medicandi"

Tekoäly on oppinut huijaamaan ihmisiä

2 min lukea
Tekoäly on oppinut huijaamaan ihmisiä

Pikalinkki tähän artikkeliin: https://publication-x.com/bvrd

Meille kerrotaan, että tekoäly (AI) voi olla hyödyllinen, sillä se voi esimerkiksi auttaa meitä koodaamaan, kirjoittamaan ja syntetisoimaan valtavia tietomääriä.

On myös raportoitu, että ne voivat ovelaa ihmisiä älykkäämmin lautapeleissä, purkaa proteiinien rakenteen ja jopa käydä alkeellista keskustelua, kirjoittaa Niamh Harris .

Mutta uusi tutkimuspaperi on havainnut, että tekoälyjärjestelmät ovat nyt keksineet, kuinka meidät tarkoituksellisesti pettää.

Mutta uusi tutkimus osoittaa, että tekoälyjärjestelmät ovat nyt keksineet, kuinka meidät tarkoituksellisesti pettää.

TGP raportoi: Artikkelissa todetaan, että monet tekoälyjärjestelmät ovat oppineet tekniikoita systemaattisesti “innostaakseen vääriä uskomuksia muissa saavuttaakseen muun tuloksen kuin totuuden”.

Business Insider raportoi:

“Kirjoituksessa keskityttiin kahdentyyppisiin tekoälyjärjestelmiin: erikoiskäyttöjärjestelmiin, kuten Metan CICERO, jotka on suunniteltu suorittamaan tietty tehtävä, ja yleiskäyttöisiin järjestelmiin, kuten OpenAI:n GPT-4, jotka on koulutettu suorittamaan monenlaisia ​​​​tehtäviä. tehtäviä.

“Vaikka nämä järjestelmät on koulutettu olemaan oikeudenmukaisia, niiden koulutus opettaa heille usein petollisia temppuja, koska ne voivat olla tehokkaampia kuin korkean tien seuraaminen.

Yleisesti ottaen uskomme, että tekoälypetos syntyy, koska petokseen perustuva strategia osoittautui parhaaksi tavaksi suoriutua hyvin tekoälyn antamassa harjoitustehtävässä. Petos auttaa heitä saavuttamaan tavoitteensa”, sanoi ensimmäinen kirjoittaja Peter S. Park, MIT:n tutkijatohtorin tutkija, lehdistötiedotteessa.

Kuvittele tämä, jos tiedämme, että AI Justice: Englannissa ja Walesissa tuomarit voivat käyttää tekoälyä päätösten tekemiseen

Metan CICERO, joka on kehitetty pelaamaan peliä Diplomacy. Vaikka Meta sanoo kouluttaneensa CICEROn olemaan “suurelta osin rehellinen ja avulias keskustelukumppaneilleen”, se osoittautui “valehteluasiantuntijaksi”.

Chatbot GPT-4 teeskenteli olevansa näkövammainen suorittaakseen tehtävän: palkatakseen ihmisen ratkaisemaan CAPTCHA-testin.

Harhaanjohtavien mallien korjaaminen ei ole helppoa. Kun tekoälymallit oppivat petoksen temput, turvallisuuskoulutustekniikoiden on vaikea kääntää niitä.

“He päättelivät, että malli ei vain voi oppia harjoittamaan petollista käyttäytymistä, mutta kun se tapahtuu, tavanomaiset turvallisuuskoulutustekniikat “ei ehkä poista tätä petosta” ja “luovat väärän vaikutelman turvallisuudesta”.

Paperi kehottaa päätöksentekijöitä vaatimaan tiukempaa tekoälyn sääntelyä, koska petolliset tekoälyjärjestelmät voivat aiheuttaa merkittäviä riskejä demokratialle.

fiFinnish