Tekoäly voi lopulta olla sukupuuttouhka, mutta se aiheuttaa painavampiakin riskejä
Siitä lähtien, kun AI-chatbot ChatGPT julkaistiin vuonna 2020, olemme kuulleet tekoälyn aiheuttamasta uhasta. Akateemisten asiantuntijoiden ja teknologiateollisuuden edustajien allekirjoittama lausunto jopa leimaa tekoälyä “sukuppuuttoriskiksi”.
Mutta mitä ikinä tällaisista varoituksista ajatteletkaan, eksistentiaalinen uhka ihmiskunnalle on todennäköisesti uhka vain pidemmällä aikavälillä. Lähi- ja keskipitkällä aikavälillä on paljon konkreettisempia riskejä. Mitä nämä ovat ja kuinka huolestuneita meidän pitäisi olla?
Yksi pitkäaikainen ja usein esille tuotu huolenaihe on mahdollisuus, että tekoäly voi viedä työmme. Tätä olen pohtinut vuodesta 1997 lähtien, jolloin kirjoitin ensimmäisen tekoälypaperini hermoverkoista.
Tuolloin mietimme, joutuisiko tämä ihmisten työttömyyteen, kun koneet syrjäyttävät ihmisiä myymälässä. Automaatio ja muut edistysaskeleet loivat kuitenkin ihmisille uusia työmahdollisuuksia, kuten koneiden ohjelmointi . Joten vastaus teknologian nopeaan muutokseen voi olla ihmisten uudelleenkouluttaminen teknologisen häiriön luomiin uusiin rooleihin.
Vaarassa eivät ole vain tuotantotyöpaikat. Tekoälykuvanluontiohjelmistosta on väitetty, että se voisi saada taiteilijat ja suunnittelijat työttömäksi. Uskon kuitenkin jälleen kerran, että historia tarjoaa joitain opetuksia.
Valokuvauksen keksintö ei korvannut maalausta, enkä usko kuvageneraattoritkaan. On epätodennäköistä, että tekoälyjärjestelmät pystyvät tuottamaan uusia taiteellisia teoksia lyhyellä tai keskipitkällä aikavälillä.
On kuitenkin mahdollista, että keskipitkällä aikavälillä koneet voivat korvata ihmisen monissa työtehtävissä. Esimerkiksi lääketieteessä tekoälyjärjestelmät voisivat yhdistää laboratoriotulokset, lääketieteelliset kuvat ja potilaan sairaushistorian luotettavan diagnoosin ja ennusteen saamiseksi.
Ne voisivat myös korvata ihmisiä monissa leikkauksen tehtävissä . Muita aloja, jotka voivat lopulta riippua tekoälystä, ovat markkinatietojen analysointi, investointipäätökset ja tietokoneohjelmointi.
Työttömyyden riskeistä huolimatta tekoälyllä voi olla monia myönteisiä vaikutuksia työpaikoilla. Tekoäly voi esimerkiksi toimia työkaluna, joka parantaa ihmisen kykyjä, mikä lisää tuottavuutta.
Lyhyellä tai keskipitkällä aikavälillä teknologialla voi olla samanlainen vaikutus kuin 1970-luvun laskimilla, 1980-luvulla kirjoituskoneet korvanneilla tietokoneilla ja monia tehtaita muuttaneilla automaatioilla ja robotiikassa 1990-luvulla .
Huono koulutus?
Koulutuksessa on ollut huolta siitä, että ChatGPT voi vaikuttaa negatiivisesti opiskelijoiden oppimisprosessiin tai heidän terveyteensä . Opiskelija voi esimerkiksi pyytää ChatGPT:tä kirjoittamaan kurssin heille, ohittaen tutkimuksen ja kirjoittamisen, mikä johtaa parempaan ymmärrykseen kyseisestä aiheesta. Ehkä parempi lähestymistapa olisi muuttaa ja parantaa tapaa, jolla opetamme ja arvioimme oppimisen tuloksia.
Opiskelijoiden syvempi ymmärrys voisi turvata koulutuksen keskittyminen käytännön taitoihin ja tiedon hyödyntämiseen ongelmanratkaisussa. Tekoälyä voitaisiin käyttää opastukseen, aivan samalla tavalla kuin nykyään käytämme laskimia, rikastamaan ihmisten tietämystä.
Lähitulevaisuudessa on elintärkeää, että opiskelijat valitsevat yliopistokursseja, jotka ymmärtävät tekoälyn käytön, ja aineet, joilla on edelleen suuri kysyntä tekniikan jatkuvan laajentumisen myötä.
Olemme kuitenkin olettaneet tähän asti, että tekoälyjärjestelmät toimivat niin kuin on suunniteltu tarjoamaan tarkkoja tietoja. Valitettavasti tiedämme, että näin ei ole.
Esimerkiksi toukokuussa 2023 yhdysvaltalainen lakimies myönsi käyttäneensä ChatGPT:tä tapaustutkimukseen . Asianajajan hakemuksen havaittiin viittaavan oikeustapauksiin, joita ei ollut olemassa. Chatbot oli keksinyt ne. Tämä ei ole ensimmäinen kerta, kun näistä “AI-hallusinaatioista” on raportoitu .
Silloin meillä on todellinen riski, että tekoälyä voidaan käyttää ilkeällisiin tarkoituksiin, kuten identiteettivarkauksiin. Rikolliset voivat esimerkiksi käyttää tekoälyä kloonatakseen jonkun äänen . He voisivat sitten soittaa perheenjäsenille ja yrittää saada heidät antamaan arkaluontoisia tietoja, joista voi olla apua pankkitileille pääsyssä.
Tekoälypohjaisen identiteettivarkauden muunnelma on syväfake-videoiden käyttö . Monien mahdollisten käyttötarkoitusten joukossa pelätään, että niitä voitaisiin käyttää poliitikkojen matkimiseen ja vaaleihin vaikuttamiseen. Äskettäin Martin Lewis, englantilainen taloustoimittaja ja lähetystoiminnan harjoittaja, joutui huijausmainoksen kohteeksi käyttämällä syvällistä väärennettyä videota.
Mitä ikinä tästä mahdollisuudesta ajatteleekaan, meidän tulee olla tietoisia siitä, että tekoäly “elää ikuisesti”. Tekniikka on tullut jäädäkseen, mikä tarkoittaa, että se kerää tietoa, dataa ja kokemusta, joka on kerätty miljardeilta ihmisiltä useiden sukupolvien aikana.
Jos tekoäly on suunniteltu matkimaan ihmisiä, sen selviytymisvaisto ja tietoisuus voivat kehittyä vähitellen vuosikymmenten kuluessa. Sellaisenaan se saattaa lakata olemasta vain työkalu, joka tukee meitä, ja siitä voi tulla oma kokonaisuus. Jos näin tapahtuu, on olemassa todellinen mahdollisuus, että se pystyy tekemään omaa etua koskevia päätöksiä.
Amin Al-Habaibeh , älykkäiden suunnittelujärjestelmien professori, Nottingham Trent University
Tämä artikkeli on julkaistu uudelleen The Conversationista Creative Commons -lisenssillä. Lue alkuperäinen artikkeli .