Mitkä ovat tekoälyn suurimmat havaitut vaarat?
Kuten kaikkia teknologisia edistysaskeleita, generatiivisia tekoälytyökaluja, kuten OpenAI:n ChatGPT, kuvageneraattori Midjourney tai Claude, tekoälystartup Anthropicin luoma chatbot, käytetään tuottavuuteen ja luomiseen sekä yhä enemmän huijauksiin ja väärinkäyttöön.
Tämän uuden haitallisen sisällön joukossa syväväärennökset ovat erityisen huomionarvoisia.
Nämä keinotekoisesti luodut audiovisuaaliset sisällöt sisältävät äänestäjien huijauksia, joissa esiintyy poliitikkoja, tai ei-konsensuspohjaisten pornografisten kuvien luominen julkkiksista.
Kuitenkin, kuten Statistan Florian Zandt raportoi, Microsoftin äskettäinen tutkimus osoittaa , väärennökset, huijaukset ja väärinkäytökset ovat verkkokäyttäjiä maailmanlaajuisesti eniten huolissaan.
71 prosenttia Microsoftin heinä- ja elokuussa 2023 kyselyyn vastanneista 17 maassa oli erittäin tai jonkin verran huolissaan tekoälyn tukemista huijauksista .
Löydät lisää infografioita Statistasta
Selventämättä tarkemmin, mitä tällainen huijaus on, se liittyy mitä todennäköisimmin esiintymiseen julkisuudessa, valtion virkamiehenä tai vastaajien läheisenä tuttavana.
Toiseksi sijoittuu syväväärennökset ja seksuaalinen tai verkkoväkivalta 69 prosentilla.
Tekoälyhalusinaatiot , jotka määritellään chatbotteiksi, kuten ChatGPT, jotka esittävät järjettömiä vastauksia tosiasioina koulutusmateriaaliin liittyvien ongelmien vuoksi, ovat neljännellä, kun taas tietosuojahuolet , jotka liittyvät suuriin kielimalleihin, joita koulutetaan julkisesti saatavilla olevien käyttäjien tiedoilla ilman heidän nimenomaisia tietojaan. suostumuksella, sijoittuu viidenneksi 62 prosentilla. Kaiken kaikkiaan 87 prosenttia vastaajista oli ainakin jonkin verran huolissaan yhdestä ongelmallisesta tekoälyskenaariosta.
Huolimatta valtavasta tekoälyn markkinoista – eri lähteiden arvioiden olevan 300–550 miljardia dollaria vuonna 2024 – tutkimustulokset osoittavat, että sen mahdollisten sudenkuoppien ja vaarojen huomiotta jättäminen voi osoittautua haitalliseksi yhteiskunnalle yleisesti . Tämä pätee erityisesti herkillä aloilla, kuten politiikassa. Syksyllä pidettävien Yhdysvaltain presidentinvaalien myötä sosiaalisen median maisema on väistämättä täynnä keinotekoisesti tuotettua väärää ja disinformaatiota.
Äskettäisessä kuulemistilaisuudessa syväväärennösten ja vaalisyklissä käytettyjen tekoälyjen aiheesta Deepfake Defender -yhtiön Reality Defenderin toimitusjohtaja Ben Colman ylisti joitakin generatiivisen tekoälyn näkökohtia ja korosti samalla myös sen vaaroja:
“En voi istua tässä ja luetella jokaista amerikkalaisten ilkivaltaista ja vaarallista syväväärennösten käyttöä, enkä voi nimetä monia tapoja, joilla ne voivat vaikuttaa negatiivisesti maailmaan ja heikentää yhteiskunnan ja demokratian suuria puolia”, Colman sanoi.
“Minulle on loppujen lopuksi varattu vain viisi minuuttia. Voin tehdä hälytyksen vaikutuksista, joita syväväärennöksillä voi olla paitsi demokratiaan, myös koko Amerikkaan.”
Tuleeko tästä väärän, väärän ja väärän tiedon uudesta tiestä yksinkertaisesti “säänneltyä” sopimaan hallituksen “totuuden” määritelmien kanssa… “oman eduksi”?