Sam Altman: AI oppii “yli-inhimillistä suostuttelua”
Itseään hylkivä Altman sanoo, että tämä “voi johtaa hyvin outoihin tuloksiin”. Oikeasti Sam? Sinä rakensit sen, eikö? Voisit yhtä helposti lopettaa sen. Tämä sujuvasti puhuva teknokraatti jatkaa jyrkkiä varoituksiaan meille haukkuessaan kehitystiimilleen käskyä kiirehtiä. Tämän vilpittömän käytöksen pitäisi toimia todellisena varoituksena siitä, että tämä nimrod johdattaa maailmaa kaninkoloon.
Kun tekoäly kohtaa kvanttilaskennan, maailma on shokissa ja epäuskossa.
Jo nyt elitistinen CFR puhuu tekoälyn vaikutuksesta Yhdysvaltain vuoden 2024 vaaleihin. ja sen vastine Yhdistyneessä kuningaskunnassa, Chatham House, puhuvat siitä, kuinka “AI voisi vaikuttaa äänestäjiin vuoden 2024 suurissa hylkäämisissä”. Tämä tarkoittaa laajamittaista massataivuttelua.
Ihmiskunta on todennäköisesti vielä kaukana tekoälyn (AGI) tai ihmisen kognitiivisia toimintoja vastaavan tekoälyn rakentamisesta – jos tietysti koskaan pystymme siihen.
Mutta toteutuuko tällainen tulevaisuus tai ei, OpenAI:n toimitusjohtaja Sam Altmanilla on varoitus: tekoälyn ei tarvitse olla AGI-tason älykäs voidakseen hallita heikkoja ihmismieliämme.
“Odotan tekoälyn kykenevän yli-inhimilliseen suostutteluun paljon ennen kuin se on yli-inhimillistä yleisellä älykkyydellä”, Altman twiittasi tiistaina, “mikä voi johtaa hyvin outoihin lopputuloksiin.”
i expect ai to be capable of superhuman persuasion well before it is superhuman at general intelligence, which may lead to some very strange outcomes
— Sam Altman (@sama) October 25, 2023
Vaikka Altman ei tarkentanut, mitä nämä tulokset voisivat olla, se ei ole kaukaa haettu ennuste. Käyttäjille suunnatut AI-chatbotit, kuten OpenAI:n ChatGPT, on suunniteltu hyviksi keskustelijaksi, ja niistä on tullut aavemaisen kyvykkäitä kuulostamaan vakuuttavalta – vaikka ne olisivatkin jossain asiassa täysin väärässä .
Samaan aikaan on myös totta, että ihmiset alkavat jo muodostaa emotionaalisia yhteyksiä erilaisiin chatboteihin , jolloin ne kuulostavat paljon vakuuttavammilta.
Itse asiassa tekoälybotit ovat jo olleet tukena joissakin melko huolestuttavissa tapahtumissa. Esimerkkinä tuolloin 19-vuotias ihminen, joka ihastui niin paljon tekoälykumppaniinsa , että hän vakuuttui siitä yrittämään murhata edesmenneen kuningatar Elisabetin.
Tyytymättömät ihmiset ovat kerääntyneet internetin pimeimpiin kolkoihin etsimään yhteisöä ja vahvistusta jo vuosikymmeniä, ja ei ole vaikea kuvitella skenaariota, jossa huono näyttelijä voisi kohdistaa kohteen johonkin näistä haavoittuvimmista ihmisistä tekoäly-chatbotin kautta ja saada heidät tehdä huonoja asioita. Ja vaikka tyytymättömät ihmiset olisivat ilmeinen kohde, on myös syytä huomauttaa, kuinka altis keskiverto internetin käyttäjä on digitaalisille huijauksille ja väärälle tiedolle . Heitä tekoäly sekoitukseen, ja huonoilla näyttelijöillä on uskomattoman vakuuttava työkalu massojen houkuttelemiseen .
Mutta meidän ei tarvitse huolehtia vain avoimista väärinkäyttötapauksista. Teknologia on kiinteästi kietoutunut useimpien ihmisten jokapäiväiseen elämään, ja vaikka ihmisen ja botin välillä ei olisikaan emotionaalista tai romanttista yhteyttä, luotamme siihen jo nyt paljon . Tämä epäilemättä saa meidät panemaan saman uskon myös tekoälyjärjestelmiin – todellisuutta, joka voi muuttaa tekoälyharhot mahdollisesti paljon vakavammaksi ongelmaksi.
Voidaanko tekoälyä käyttää houkuttelemaan ihmisiä huonoon käytökseen tai tuhoisiin ajattelutapoihin? Se ei ole käsittämätöntä. Mutta koska tekoälyjärjestelmillä ei vielä ole varsinaisesti virastoa, meidän on luultavasti parempi olla vähemmän huolissaan itse tekoälyistä ja keskittyä enemmän niihin, jotka yrittävät väärinkäyttää niitä.
Lähde: Technocracy.news