Beyond GIGO: Virtuaalinen “sisäsiittoisuus” voi aiheuttaa tekoälyapokalipsin
Tekoälymallit saattavat pian ajautua tuhoon, kun koneiden tuottama siansaksa tulvii internetiin.
Ei ole mikään salaisuus, että generatiivisen tekoälyn on harjoiteltava suuria tietomääriä tuottaakseen tuloksen.
Datan on kuitenkin oltava “korkealaatuista” eli tarkkaa ja luotettavaa – ja teknologiajätit tietävät sen.
ChatGPT-kehittäjä OpenAI on tehnyt yhteistyötä uutistoimittajien, kuten Vox Median ja News Corpin, kanssa kouluttaakseen chatbottejaan tuoreella sisällöllä.
Tämä ei kuitenkaan välttämättä riitä hidastamaan synteettisen datan leviämistä, joka on tulvinut internetiin sen jälkeen, kun tekoälyjärjestelmät tulivat laajalti saataville.
Kun Googlen ja Metan kaltaiset yritykset haravoivat hakukoneita ja sosiaalista mediaa harjoitusdataa varten, on väistämätöntä, että ne törmäävät tekoälyn tuottamaan sisältöön.
Kun tämä tieto kootaan tekoälymallin tietokokonaisuudeksi, tuloksena on sisäsiittoisuus.
Järjestelmistä tulee yhä epämuodostuneempia, kun ne oppivat epätarkasta, koneella luodusta sisällöstä ja sylkevät ulos vääryyksiä.
Nämä tiedot päätyvät sitten toisen mallin tietokantaan, ja prosessi toistuu, mikä johtaa täydelliseen romahdukseen.
Tutkija Jathan Sadowski on dokumentoinut ilmiötä X:ssä yli vuoden ajan.
Hän keksi helmikuussa 2023 termin “Habsburg AI”, joka on saanut nimensä tunnetusti sisäsiittoisesta kuninkaallisesta dynastiasta.
Sadowski määrittelee sen seuraavasti: “Järjestelmä, joka on koulutettu niin voimakkaasti muiden generatiivisten tekoälyjen tuotoksilla, että siitä tulee sisäsiittoinen mutantti.”
Teknologia-asiantuntijat suhtautuvat optimistisesti tekoälyn kloonaamiseen – vaikka he hälyttävätkin tuhoisista väärennöksistä.
Ilmiöllä on monia nimiä. Toiset tutkijat tuntevat sen nimellä model autophagy disorder eli MAD.
Termi “autofagia” tulee kreikan kielen sanasta “itsensä syöminen”, ja se kuvaa osuvasti tapaa, jolla järjestelmä kouluttaa itseään tekoälyn syntetisoimalla sisällöllä kuin käärme, joka syö omaa häntäänsä.
Ricen ja Stanfordin yliopiston tutkijat havaitsivat ensimmäisten joukossa, että mallien tuotosten laatu ja monipuolisuus heikkenevät ilman jatkuvaa laadukkaan datan virtaa.
Täydellinen autofagia tapahtuu, kun mallia koulutetaan pelkästään sen omilla vastauksilla, mutta koneet voivat kouluttautua myös muiden tekoälyohjelmien julkaisemalla datalla.
“Suurkielisten mallien kouluttaminen muiden mallien luomilla tiedoilla… aiheuttaa ‘peruuttamattomia vikoja tuloksena syntyvissä malleissa'”, Sadowski twiittasi ja viittasi Nature-lehden artikkeliin.
Digitaalinen sisäsiitos muistuttaa ajatusta “mallien romahtamisesta”, jossa järjestelmät muuttuvat yhä epäyhtenäisemmiksi tekoälyn tuottaman sisällön tulvan vuoksi.
Vaikka ajatus oli aikoinaan pelkkää teoriaa, asiantuntijat uskovat, että se on yhä todennäköisempää, kun synteettistä dataa ilmestyy yhä enemmän.
NewsGuard, joka arvioi uutissivustojen uskottavuutta, on seurannut tekoälyn avulla tuotetun väärän tiedon lisääntymistä verkossa.
Vuoden 2023 loppuun mennessä ryhmä tunnisti 614 epäluotettavaa tekoälyn tuottamaa uutis- ja informaatiosivustoa, joita kutsutaan nimellä “UAINS”. Määrä on sittemmin kasvanut 1 036:een.
Sivustot kattavat yli tusinan kieltä, ja niillä on yleisiä nimiä, kuten “Ireland Top News” ja “iBusiness Day”, jotka näyttävät laillisilta tiedotusvälineiltä.
Chatbotit ja muut generatiiviset tekoälymallit voivat harjaantua näihin tietoihin ja vastauksissaan toistella valheita uutistapahtumista, julkkisten kuolemista ja muusta.
Vaikka jotkut verkkokansalaiset eivät voisi vähempää välittää tekoälyn tulevaisuudesta, ilmiöllä voi olla hallitsemattomana katastrofaalisia vaikutuksia ihmiskäyttäjiin.
Kun medialukutaito vähenee ja tekoälyn luoma sisältö tulvii internetiin, käyttäjillä voi olla vaikeuksia erottaa toisistaan faktatieto ja koneen tuottama hölynpöly.
Tutkijat ovat selvästi tietoisia riskistä, mutta on epäselvää, kuinka pitkälle tekoälyn kehittäjät ovat valmiita menemään “sisäsiittoisuuden” estämiseksi.
Synteettistä dataa on loppujen lopuksi vapaasti saatavilla, ja sen hankkiminen on paljon halvempaa. Jotkut kannattajat väittävät, että se ei joudu samojen moraalisten ja eettisten dilemmojen uhriksi kuin ihmisten luoma sisältö.
“Niin outoa, että kaikkien muiden on muutettava tekemistään tukeakseen tekoälyn leviämistä ja integroitumista elämäämme – mutta ilmeisesti tekoälyjärjestelmien ja teknologia-alan startup-yritysten ei tarvitse muuttua lainkaan”, Sadowski vitsaili eräässä viestissä.
“Ne ovat täydellisiä. Me olemme ongelmat.”
Lähde