Julkaisuaikataulut

Artikkelit julkaistaan 2 tunnin välein alkaen klo 11, poikkeustapauksissa jo klo 9. Jos päivälle on videoartikkeli, se julkaistaan klo 19.

Yhteystiedot

Publication-X on sitoutumaton julkaisu, artikkelit tulevat yhteistyökumppaneiltamme, ensisijassa ainoastaan käännämme tekstit ja muut julkaisut  suomeksi.

Tarvittaessa yhteyden toimitukseen saa helpoiten sähköpostilla osoitteella editor@publication-x.com

Business contacts: via email above.

Publication-X toimii kevytyrittäjä-periaatteella, laskutuksesta vastaa Omapaja Oy, 2399894-2

15.11.2024

Publication-X

"Tempus loquendi abiit, opus Domini faciendum est"

Uusi “ajatteleva” AI-chatbot, joka pystyy terrorisoimaan ihmisiä ja varastamaan rahaa “valtavalta joukolta ihmisiä”

Uusi “ajatteleva” AI-chatbot, joka pystyy terrorisoimaan ihmisiä ja varastamaan rahaa “valtavalta joukolta ihmisiä”
68 lukukertaa

Siirtykää syrjään Nigerian prinssit, koska maailmaa valtaa uusi huijaus: 
tekoälyn (AI) chatbotit, jotka voivat “järkeillä” ja “ajatella” loputtomia tapoja huijata ihmisiltä rahansa .

OpenAI esitteli äskettäin uuden o1 ChatGPT -mallinsa, jonka yritys sanoo olevan paljon “älykkäämpi” kuin olemassa olevat AI-chatbotit. o1-mallilla on kyky “viettää enemmän aikaa ajattelemiseen ennen reagoimista”, yhtiö paljasti, kirjoittaa Ethan Huff .

“He voivat järkeillä monimutkaisten tehtävien läpi ja ratkaista vaikeampia ongelmia kuin aiemmat tieteen, koodauksen ja matematiikan mallit.”

OpenAI:n ChatGPT:n o1-malli on ensimmäinen suuri parannus järjestelmään sen jälkeen, kun se lanseerattiin ensimmäisen kerran vuoden 2022 lopulla. Tällä hetkellä se on vain maksavien ChatGPT-jäsenten käytettävissä.

Kyberturvallisuusasiantuntijan Dr. Andrew Bolster, o1 ChatGPT AI -malli on unelmien täyttymys kyberrikollisille, jotka varmasti keksivät kaikenlaisia ​​huijauksia, joita älykkäimmätkin internetin käyttäjät eivät pysty havaitsemaan ennen kuin heidät huijataan kovalla työllä ansaitsemastaan. rahaa.

“Suuret kielimallit (LLM) paranevat ajan myötä, ja OpenAI:n o1-mallin julkaisu ei ole poikkeus tähän trendiin”, sanoi Dr. Vahvistaa.

Lue myös:  Tekoäly ja laki: Missä menee raja?

“Tämä LLM-sukupolvi loistaa siinä, miten he näyttävät “järkevän”. Kun yleinen keskustelujärjestelmä tekee välivaiheita luovempien tai “älykkäämmiltä” vaikuttavien päätösten ja vastausten tuomiseksi esiin.”

Amerikan huijaustalouden tehostaminen tekoälyllä

Suuri osa siitä, mikä pitää Yhdysvaltain talouden käynnissä, on rikollisuus. Melkein kaikki on nykyään eräänlaista Ponzi-ohjelmaa, olipa kyse sitten liike-elämästä, yleisistä markkinoista, uskonnosta, terveydenhoidosta ja tietysti politiikasta. Ja vaikka suuri yleisö tajuaa kaiken tämän, voimat (TPTB) yrittävät epätoivoisesti keksiä uusia suunnitelmia riistääkseen ihmisiltä heidän omaisuutensa.

Tekoäly tekee tämän mahdolliseksi antamalla maailman pahimman ihmisroskan esimerkiksi luoda syvän fake-videoita, jotka näyttävät näyttävän oikeiden ihmisten puhuvan, mutta ovat vain tekoälyn luomuksia. Deepfake-videoita voidaan käyttää huijaamaan ihmisiä tekemään tai uskomaan mitä tahansa, mikä on hienoa liiketoiminnalle.

Raporttien mukaan joka kolmas britti on joutunut jollain tavalla huijatuksi tekoälyn syväväärennöksillä. Ja ongelma vain pahenee, kun tekoäly kehittyy seuraavalle petoksen tasolle.

Lue myös:  Google suunnittelee uutta sisältöjä valvovaa sensuuritekniikkaa

“Kyberturvallisuuden yhteydessä tämä vaikeuttaisi selvästi loppukäyttäjien erottaa keskustelut näiden “päättelykoneiden” kanssa ihmisistä”, sanoo Dr. Vahvistaa.

“Niitä voivat käyttää romantiikkahuijarit tai muut verkkorikolliset, jotka käyttävät näitä työkaluja saavuttaakseen suuren määrän haavoittuvia “kohteita”.

Nvidia, joka valmistaa siruja ja muita laitteistoja, joita tekoälykehittäjät tarvitsevat näiden huijausten luomiseen, sattuu olemaan Yhdysvaltain markkinoita tällä hetkellä pitävä osake . Ilman tätä yritystä ja ilman tekoälyä Yhdysvaltain talous olisi luultavasti jo tuhoisa kasa katastrofaalista tuhoa.

Dr. Bolsterin mukaan kuluttajien tulisi varoa kaikkea verkossa, mikä näyttää “liian hyvältä ollakseen totta”, koska se on enemmän kuin todennäköistä huijausta, johon liittyy nyt myös tekoäly.

Suuren yleisön “täytyisi aina kuulla ystäviä ja perheenjäseniä toisen mielipiteen saamiseksi”, hän varoittaa, “varsinkin kun joku (tai jokin) chat-ikkunan tai jopa puhelun toisella puolella yrittää painostaa sinua tekemään jotain.”

Lähde