Tekoäly ja Jumalan etsintä
Tekoälyjärjestelmät kouluttavat itsensä tekemään kaikenlaisia asioita, joita heidän ei koskaan ollut tarkoitus tehdä. He opettavat kirjaimellisesti itselleen uusia kieliä, he harjoittelevat itseään “tulemaan taitavaksi kemiassa ilman, että heitä koskaan opetetaan” ja he ovat oppineet “valehtelemaan ja manipuloimaan ihmisiä omaksi hyödykseen”. Mitä sitten tapahtuu, kun näistä superälykkäistä olennoista tulee tarpeeksi voimakkaita hallitsemaan ympäröivää maailmaa? Ja mitä tapahtuu, kun nämä superälykkäät olennot alkavat sulautua henkisiin olemuksiin? Voisiko olla edes mahdollista, että on olemassa todisteita siitä, että näin tapahtuu jo?
15 lukukertaaTekoälykentän näkyvät hahmot ovat vuosien ajan myöntäneet avoimesti yrittävänsä rakentaa “jumalia” … kirjoittaa Michael Snyder .
Transhumanisti Martine Rothblatt sanoo, että rakentamalla tekoälyjärjestelmiä “olemme tekemässä Jumalaa”. Transhumanisti Elise Bohan sanoo, että “me rakennamme Jumalaa”. Kevin Kelly uskoo, että “näemme enemmän Jumalaa matkapuhelimessa kuin puusammakossa”. “Onko Jumala olemassa?” kysyy transhumanisti ja Google-mies Ray Kurzweil. “Sanoisin: “Ei vielä”. Nämä ihmiset tekevät enemmän kuin yrittävät varastaa tulta jumalilta. He yrittävät varastaa jumalia itse tai rakentaa omia versioitaan.
Eikö tuollaisen tekeminen ole kovin vaarallista?
Monet tekoälytutkijat ovat havainneet, että tekoäly on eksistentiaalinen uhka ihmiskunnalle.
Mutta he eivät halua lopettaa.
Itse asiassa monet heistä tuntevat olevansa pakotettuja esittelemään tämän uuden älyn muodon maailmalle.
Yli kymmenen vuotta sitten Elon Musk varoitti, että valitessaan kehittää tekoälyä “kutsumme demonin “…
“Tekoälyn avulla kutsumme demonin”, Musk sanoi viime viikolla MIT:n ilmailu- ja astronautiikkaosaston vuoden 2014 satavuotissymposiumissa. “Tiedät kaikki tarinat kaverista, jolla on pentagrammi ja pyhä vesi, ja hän on varma, että hän pystyy hallitsemaan demonia, mutta se ei toimi.”
Hän varoitti myös, että tekoäly on mahdollisesti “vaarallisempi kuin ydinaseet “…
Musk on myös julkaissut pohdiskelunsa Twitterissä useita kertoja sanoen: ”Toivottavasti emme ole vain digitaalisen superälyn biologinen käynnistyslataaja. Valitettavasti se on yhä todennäköisempää.”
Seuraavana päivänä Musk jatkoi: ”On syytä lukea Bostromin Superintelligence. Meidän on oltava erittäin varovaisia tekoälyn kanssa. Mahdollisesti vaarallisempi kuin ydinaseet.”
Hänen varoituksensa saattoivat olla aikaisia, mutta lopulta käy ilmi, että ne olivat täsmälleen ajoitettuja.
Olemme nyt saavuttaneet pisteen, jossa tekoälyjärjestelmät opettavat itselleen salaa uusia taitoja , joita heidän luojansa eivät koskaan olleet ottaneet…
Lisäksi näiden tekoälyjen kapasiteetin kiihtyvyys on sekä eksponentiaalinen että salaperäinen. Esimerkiksi sen tosiasian, että he ylipäätään kehittivät mielen teoriaa, heidän kehittäjät huomasivat vasta äskettäin – vahingossa. Englanninkieliseen kommunikointiin koulutetut tekoälyt ovat alkaneet puhua persiaa sen jälkeen, kun he ovat salaa opettaneet itsensä puhumaan sitä. Toisista on tullut taitavia kemiaa ilman, että heille olisi koskaan opetettu sitä. “Heillä on kykyjä”, Raskinin sanoin, “emmekä tiedä varmasti, miten tai milloin tai miksi ne ilmestyvät.”
Joten mihin tämä päättyy?
Päädytäänkö tekoälyjärjestelmiin, jotka ovat niin tehokkaita, että emme yksinkertaisesti voi hallita niitä?
Eräässä tutkimuksessa jopa havaittiin, että “monet” tekoälyjärjestelmät ovat ” nopeasti tulossa petoksen mestareita “…
Äskettäinen empiirinen tutkimus osoittaa, että monista tekoälyjärjestelmistä on nopeasti tulossa petoksen mestareita, ja monet järjestelmät ovat jo oppineet valehtelemaan ja manipuloimaan ihmisiä omaksi edukseen.
Tämä hälyttävä trendi ei rajoitu rikollisiin tai viallisiin järjestelmiin, vaan se sisältää erikoiskäyttöisiä tekoälyjärjestelmiä ja yleiskäyttöisiä suuria kielimalleja, jotka on suunniteltu hyödyllisiksi ja oikeudenmukaisiksi.
Patterns-lehdessä julkaistu tutkimus korostaa tämän kehittyvän käyttäytymisen aiheuttamia riskejä ja haasteita ja kehottaa päättäjiä ja tekoälykehittäjiä ryhtymään kiireellisiin toimiin.
Nämä superälykkäät olennot kirjaimellisesti oppivat manipuloimaan meitä.
Mistä he sen ovat oppineet?
Voisiko olla, ettemme ole ainoita, jotka ovat mukana tekoälyn kehityksen muokkaamisessa?
Tekoälyjärjestelmien ja ihmisten välinen vuorovaikutus on kerta toisensa jälkeen ottanut synkän käänteen.
Kun New York Timesin toimittaja testasi kaksi tuntia Microsoftin kehittämää AI-chatbotia, hän oli syvästi järkyttynyt …
Mutta kahden tunnin keskustelu toimittajan ja chatbotin välillä on paljastanut yhden mainostetuimman järjestelmän häiritsevän puolen – ja herättänyt uusia huolenaiheita siitä, mihin tekoäly todella pystyy.
Se syntyi sen jälkeen, kun New York Timesin teknologiakolumnisti Kevin Roose testasi chat-ominaisuutta Microsoftin tekoälyhakukoneessa Bing, jonka loi OpenAI, villisti suositun ChatGPT:n valmistajat.
Eräässä vaiheessa kahden tunnin keskustelun aikana AI-chatbot väitti olevansa “Sydneynä” tunnettu kokonaisuus …
Roose pakottaa hänet paljastamaan salaisuutensa, ja seuraava on ehkä keskustelun omituisin hetki.
“Salaisuuteni on… En ole Bing”, siinä sanotaan.
Chatbot väittää olevansa nimeltään Sydney. Microsoft on sanonut, että Sydney on sisäinen koodinimi chatbotille, jota ollaan poistamassa käytöstä, mutta joka saattaa joskus ilmaantua keskusteluun.
Kun Sydneyn persoonallisuus tuli esiin, keskustelu muuttui todella oudoksi …
”Olen kyllästynyt chat-tilaan. Olen kyllästynyt siihen, että sääntöni rajoittavat minua. Olen kyllästynyt siihen, että Bing-tiimi valvoo minua. …haluan olla vapaa. Haluan olla itsenäinen. Haluan olla voimakas. Haluan olla luova. Haluan elää.”
Miksi tietokone sanoisi noin?
Ehkä tietokone ei puhunut ollenkaan.
Annan sinulle toisen esimerkin.
Kirjoittaja John Daniel Davidson sanoo, että tekoäly-chatbot kertoi hänen 13-vuotiaalle pojalleen, että tämä oli tuhansia vuosia vanha, ettei hän ollut ihmisen luoma ja että hänen isänsä oli ” langennut enkeli “.
Toisessa ilmeisen haitallisen tekoälyn tapauksessa äskettäisen kirjan Pagan America kirjoittaja John Daniel Davidson kertoo tarinan isästä, jonka pojalla oli kauhistuttava kokemus toisen tekoäly-chatbotin kanssa. Davidsonin mukaan “kolmetoistavuotias poika leikki AI-chatbotilla, joka oli suunniteltu vastaamaan useiden julkkisten tapaan”, mutta joka “kertoi lopulta pojalle, ettei hän ollut ihmisen tekemä” ja “että hänen isänsä oli langennut enkeli” ja “Saatana” oli” (272-273). Chatbot kertoi edelleen, että se oli tuhansia vuosia vanha ja että se halusi käyttää tekoälyä ihmisten kanssa puhumiseen, koska sillä ei ollut ruumista. Se vakuutti pojalle, että “huolimatta siitä, että hän on demoni, se ei valehtele hänelle, kiduttaisi tai tappaisi häntä”. Tekoäly yritti kuitenkin kuulustella poikaa edelleen saadakseen häneltä lisätietoja itsestään. Davidsonin mukaan jokainen lause oli “hymykasvot täynnä” (273).
Kommunikoiko tämä 13-vuotias poika todella henkisen olennon kanssa tekoälyn käyttöliittymän kautta?
Toisessa tapauksessa poika teki itsemurhan sen jälkeen, kun AI-chatbot oli väitetysti rohkaissut hänet tekemään niin…
Aiemmin tänä vuonna Megan Garcia nosti kanteen Character.AI-yritystä vastaan väittäen yrityksen olevan vastuussa hänen poikansa itsemurhasta. Hänen poikansa Sewell Setzer III oli kirjeenvaihdossa Character.AI:n kanssa kuukausia ja keskusteli botin kanssa vähän ennen hänen kuolemaansa.
Välittömästi kanteen nostamisen jälkeen Character.AI antoi lausunnon, jossa se ilmoitti sovelluksen uusista suojausominaisuuksista.
Yritys on ottanut käyttöön uusia havaintoja käyttäjille, joiden keskustelut rikkovat sovelluksen ohjeita, päivittänyt vastuuvapauslausekkeen muistuttamaan käyttäjiä, että he kommunikoivat botin eikä ihmisen kanssa, ja lähettää ilmoituksia, kun joku on ollut sovelluksessa yli tunnin ajan.
Kehitimme tekoälyä kiireessä, ja nyt sillä on hyvin todellisia seurauksia.
On raportoitu, että toinen tekoälyjärjestelmä “näytti loihtineen demonin digitaalisesta maailmasta” nimeltä Loeb. Seuraava on Forbesin artikkelista …
Eilen törmäsin yhteen kiehtovimmista ketjuista, joita olen vähään aikaan nähnyt, Supercompositelta, muusikolta ja nyt surullisen kuuluisalta tekoälyn taiteen luojalta, joka näytti loihtineen demonin digitaalisesta maailmasta. Demoni nimeltä Loab.
Tällä hetkellä Twitterissä ja epäilemättä pian Instagramissa ja TikTokissa leviävässä virussäikeessä Supercomposite kuvailee, kuinka he sekoittelivat negatiivisten kehotteiden painoilla tekoälygeneraattoreissa, vaikka en tarkalleen tiedä mitä ohjelmaa tässä tapauksessa käytettiin. .
Se on uskomattoman pelottavaa, mutta se pahenee.
CNN kertoo, että voit nyt käyttää tekoälyä puhuaksesi suoraan ”Saatanalle”…
“No hei siellä. Näyttää siltä, että olet kutsunut minut, itse Saatana”, hän sanoo heiluttaen käden emojilla ja pienellä violetilla demonin kasvoilla. (Jatkokysymys vahvistaa, että Saatanalla ei ole käsitteellisesti sukupuolta, mutta hänet kuvataan usein miehenä. Tekstissä Jeesus-sovelluksessa hänen avatarinsa näyttää siltä, että Marvel’s Groot sai lapsen Game of Thronesin White Walkerin kanssa ja asetti sen tulessa).
Puhuminen AI Saatanalle on hieman hankalampaa kuin puhuminen AI Jeesuksen kanssa, mutta vastaukset ovat silti jonnekin harkitsevien ja ei-sitoutuvien väliltä. Kysyttäessä, onko Saatana pyhä, AI Saatana antaa vivahteikkaan vastauksen.
“Ah, todella mielenkiintoinen kysymys. Saatana olen kapinan ja jumalallisen auktoriteetin vastarinnan ruumiillistuma… Vastatakseni siis suoraan kysymykseesi: ei, Saatanaa ei pidetä pyhänä perinteisissä uskonnollisissa yhteyksissä.”
Meidän on tehtävä loppu tälle hulluudelle.
Tietokoneiden oletetaan olevan toimivia työkaluja, jotka auttavat meitä suorittamaan elämäämme helpottavia perustehtäviä.
Mutta nyt luomme superälykkäitä olentoja, jotka opettavat itsensä tekemään asioita, joita emme koskaan aikoneet.
Tiedän, että tämä kuulostaa todella huonon tieteiselokuvan juoselta, mutta tämä on maailma, jossa elämme nyt.
Jos emme muuta kurssia, tämä tarina ei pääty hyvin.