Julkaisuaikataulut

Artikkelit julkaistaan 2 tunnin välein alkaen klo 11, poikkeustapauksissa jo klo 9. Jos päivälle on videoartikkeli, se julkaistaan klo 19.

Yhteystiedot

Publication-X on sitoutumaton julkaisu, artikkelit tulevat yhteistyökumppaneiltamme, ensisijassa ainoastaan käännämme tekstit ja muut julkaisut  suomeksi.

Tarvittaessa yhteyden toimitukseen saa helpoiten sähköpostilla osoitteella editor@publication-x.com

Business contacts: via email above.

Publication-X toimii kevytyrittäjä-periaatteella, laskutuksesta vastaa Omapaja Oy, 2399894-2

4.12.2024

Publication-X

Uncensored news in 13 languages!

Sam Altman: AI oppii “yli-inhimillistä suostuttelua”

Sam Altman: AI oppii “yli-inhimillistä suostuttelua”

SAN FRANCISCO, CALIFORNIA - OCTOBER 03: OpenAI Co-Founder & CEO Sam Altman speaks onstage during TechCrunch Disrupt San Francisco 2019 at Moscone Convention Center on October 03, 2019 in San Francisco, California. (Photo by Steve Jennings/Getty Images for TechCrunch)

Itseään hylkivä Altman sanoo, että tämä “voi johtaa hyvin outoihin tuloksiin”. Oikeasti Sam? Sinä rakensit sen, eikö? Voisit yhtä helposti lopettaa sen. Tämä sujuvasti puhuva teknokraatti jatkaa jyrkkiä varoituksiaan meille haukkuessaan kehitystiimilleen käskyä kiirehtiä. Tämän vilpittömän käytöksen pitäisi toimia todellisena varoituksena siitä, että tämä nimrod johdattaa maailmaa kaninkoloon.

Kun tekoäly kohtaa kvanttilaskennan, maailma on shokissa ja epäuskossa.

Jo nyt elitistinen CFR puhuu tekoälyn vaikutuksesta Yhdysvaltain vuoden 2024 vaaleihin.   ja sen vastine Yhdistyneessä kuningaskunnassa, Chatham House, puhuvat siitä, kuinka “AI voisi vaikuttaa äänestäjiin vuoden 2024 suurissa hylkäämisissä”. Tämä tarkoittaa laajamittaista massataivuttelua.

Ihmiskunta on todennäköisesti vielä kaukana tekoälyn (AGI) tai ihmisen kognitiivisia toimintoja vastaavan tekoälyn rakentamisesta – jos tietysti koskaan pystymme siihen.

Mutta toteutuuko tällainen tulevaisuus tai ei, OpenAI:n toimitusjohtaja Sam Altmanilla on varoitus: tekoälyn ei tarvitse olla AGI-tason älykäs voidakseen hallita heikkoja ihmismieliämme.

“Odotan tekoälyn kykenevän yli-inhimilliseen suostutteluun paljon ennen kuin se on yli-inhimillistä yleisellä älykkyydellä”, Altman  twiittasi  tiistaina, “mikä voi johtaa hyvin outoihin lopputuloksiin.”

Vaikka Altman ei tarkentanut, mitä nämä tulokset voisivat olla, se ei ole kaukaa haettu ennuste. Käyttäjille suunnatut AI-chatbotit, kuten OpenAI:n ChatGPT, on suunniteltu hyviksi keskustelijaksi, ja niistä on tullut  aavemaisen kyvykkäitä  kuulostamaan vakuuttavalta – vaikka ne olisivatkin   jossain asiassa täysin väärässä .

Lue myös:  Gates sitoo 400 miljoonaa dollaria uuden tuberkuloosirokotteen testaamiseen 26 000 ihmisellä Afrikassa ja Kaakkois-Aasiassa

Samaan aikaan on myös totta, että ihmiset alkavat jo muodostaa  emotionaalisia yhteyksiä  erilaisiin  chatboteihin , jolloin ne kuulostavat paljon vakuuttavammilta.

Itse asiassa tekoälybotit ovat jo olleet tukena joissakin melko huolestuttavissa tapahtumissa. Esimerkkinä tuolloin 19-vuotias ihminen, joka  ihastui niin paljon tekoälykumppaniinsa  , että hän vakuuttui siitä yrittämään murhata edesmenneen kuningatar Elisabetin.

Tyytymättömät ihmiset ovat kerääntyneet internetin pimeimpiin kolkoihin etsimään yhteisöä ja vahvistusta jo vuosikymmeniä, ja ei ole vaikea kuvitella skenaariota, jossa huono näyttelijä voisi kohdistaa kohteen johonkin näistä haavoittuvimmista ihmisistä tekoäly-chatbotin kautta ja saada heidät tehdä huonoja asioita. Ja vaikka tyytymättömät ihmiset olisivat ilmeinen kohde, on myös syytä huomauttaa, kuinka altis keskiverto internetin käyttäjä on digitaalisille  huijauksille  ja  väärälle tiedolle . Heitä tekoäly sekoitukseen, ja huonoilla näyttelijöillä on  uskomattoman vakuuttava työkalu massojen  houkuttelemiseen  .

Lue myös:  NASA-insinööri Tom Moser paljastaa totuuden ilmastotieteestä

Mutta meidän ei tarvitse huolehtia vain avoimista väärinkäyttötapauksista. Teknologia on kiinteästi kietoutunut useimpien ihmisten jokapäiväiseen elämään, ja vaikka ihmisen ja botin välillä ei olisikaan emotionaalista tai romanttista yhteyttä, luotamme   siihen jo nyt paljon . Tämä epäilemättä saa meidät panemaan saman uskon myös tekoälyjärjestelmiin – todellisuutta, joka voi muuttaa tekoälyharhot  mahdollisesti  paljon vakavammaksi ongelmaksi.

Voidaanko tekoälyä käyttää houkuttelemaan ihmisiä huonoon käytökseen tai tuhoisiin ajattelutapoihin? Se ei ole käsittämätöntä. Mutta koska tekoälyjärjestelmillä ei vielä ole varsinaisesti virastoa, meidän on luultavasti parempi olla vähemmän huolissaan itse tekoälyistä ja keskittyä enemmän niihin, jotka yrittävät väärinkäyttää niitä.

Lähde: Technocracy.news