Neljä tapaa, joilla rikolliset voivat käyttää tekoälyä tavoittaakseen enemmän uhreja
Tekoälyä (AI) koskevat varoitukset ovat tällä hetkellä kaikkialla. Ne ovat sisältäneet pelottavia viestejä tekoälyn mahdollisuudesta aiheuttaa ihmisten sukupuuttoon vedoten kuviin Terminator -elokuvista. Ison-Britannian pääministeri Rishi Sunak on jopa järjestänyt huippukokouksen keskustelemaan tekoälyn turvallisuudesta .
Olemme kuitenkin käyttäneet tekoälytyökaluja jo pitkään – algoritmeista, joilla suositeltiin osuvia tuotteita ostossivustoilla, autoihin, joiden tekniikka tunnistaa liikennemerkit ja tarjoaa kaistan paikantamisen . Tekoäly on työkalu tehokkuuden lisäämiseen, suurten tietomäärien käsittelyyn ja lajitteluun sekä päätöksenteon kuormitukseen.
Nämä työkalut ovat kuitenkin avoimia kaikille, myös rikollisille. Ja näemme jo rikollisten omaksuvan tekoälyn varhaisessa vaiheessa. Deepfake-teknologiaa on käytetty esimerkiksi kostopornografian tuottamiseen .
Teknologia tehostaa rikollista toimintaa . Sen avulla lainrikkojat voivat kohdistaa tavoitteensa suurempaan määrään ihmisiä ja auttaa heitä olemaan uskottavampia. Sen havainnointi, kuinka rikolliset ovat sopeutuneet ja omaksuneet teknologisen kehityksen menneisyydessä, voi antaa vihjeitä siitä, kuinka he voivat käyttää tekoälyä.
1. Parempi phishing-koukku
Tekoälytyökalut, kuten ChatGPT ja Googlen Bard , tarjoavat kirjoitustukea, jonka avulla kokemattomat kirjoittajat voivat esimerkiksi luoda tehokkaita markkinointiviestejä. Tämä tekniikka voi kuitenkin myös auttaa rikollisia kuulostamaan uskottavammalta ottaessaan yhteyttä mahdollisiin uhreihin.
Ajattele kaikkia niitä roskapostin tietojenkalasteluviestejä ja tekstejä, jotka on kirjoitettu huonosti ja helposti havaittavissa. Uskottavuus on avainasemassa saada tietoa uhrilta.
Tietojenkalastelu on numeropeli: arviolta 3,4 miljardia roskapostia lähetetään päivittäin. Omat laskelmani osoittavat, että jos rikolliset pystyisivät parantamaan viestejään niin, että vain 0,000005 % heistä saisi jonkun paljastamaan tietoja, se johtaisi 6,2 miljoonaan tietojenkalastelun uhriin joka vuosi.
2. Automaattinen vuorovaikutus
Yksi tekoälytyökalujen varhaisista käyttötavoista oli automatisoida asiakkaiden ja palveluiden välistä vuorovaikutusta tekstin, chat-viestien ja puhelimen välityksellä. Tämä mahdollisti nopeamman reagoinnin asiakkaille ja optimoi liiketoiminnan tehokkuuden. Ensimmäinen kontaktisi organisaation kanssa tapahtuu todennäköisesti tekoälyjärjestelmän kanssa, ennen kuin pääset puhumaan ihmisen kanssa.
Rikolliset voivat käyttää samoja työkaluja luodakseen automatisoituja vuorovaikutuksia suuren määrän mahdollisia uhreja kanssa sellaisessa mittakaavassa, joka ei olisi mahdollista, jos se olisi vain ihmisten suorittama. He voivat esiintyä laillisina palveluina, kuten pankkeina, puhelimitse ja sähköpostitse yrittääkseen saada tietoja, joiden avulla he voivat varastaa rahasi.
3. Deepfakes
Tekoäly on todella hyvä luomaan matemaattisia malleja, joita voidaan “kouluttaa” suurille reaalimaailman datamäärille, mikä tekee malleista parempia tietyssä tehtävässä. Deepfake-tekniikka videossa ja äänessä on esimerkki tästä. Deepfake teko nimeltä Metaphysic , osoitti äskettäin tekniikan potentiaalin, kun he paljastivat videon Simon Cowellista laulamassa oopperaa televisio-ohjelmassa America’s Got Talent .
Tämä tekniikka on useimpien rikollisten ulottumattomissa, mutta tekoälyllä on vapaasti käytettävissä kyky käyttää tekoälyä matkimaan tapaa, jolla henkilö vastaa tekstiviesteihin, kirjoittaa sähköposteja, jättää äänimuistiinpanoja tai soittaa puheluita. Samoin sen kouluttamiseen käytettävä data, joka voidaan kerätä esimerkiksi sosiaalisessa mediassa olevista videoista.
Sosiaalinen media on aina ollut rikas sauma rikollisille, jotka louhivat tietoa mahdollisista kohteista. Nyt on mahdollista, että tekoälyä voidaan käyttää luomaan sinusta syväfake-versio. Tätä syväväärennöstä voidaan hyödyntää vuorovaikutuksessa ystävien ja perheen kanssa ja saada heidät luovuttamaan rikollisille tietoja sinusta. Paremman käsityksen saamisesta elämääsi on helpompi arvata salasanoja tai PIN-koodia.
4. Raaka pakottaminen
Tästä syystä pitkät, monimutkaiset salasanat ovat turvallisempia; niitä on vaikeampi
arvata tällä menetelmällä. Raaka pakottaminen on resurssivaltaista, mutta se on helpompaa, jos tietää jotain henkilöstä. Tämä mahdollistaa esimerkiksi mahdollisten salasanojen luetteloiden järjestämisen tärkeysjärjestyksen mukaan, mikä lisää prosessin tehokkuutta. He voisivat esimerkiksi aloittaa yhdistelmillä, jotka liittyvät perheenjäsenten tai lemmikkien nimiin.
Tietojesi perusteella koulutettuja algoritmeja voidaan käyttää näiden priorisoitujen luetteloiden luomiseen tarkemmin ja kohdistamiseen useisiin ihmisiin kerralla – niin tarvitaan vähemmän resursseja. Voidaan kehittää erityisiä tekoälytyökaluja, jotka keräävät online-tietosi ja analysoivat sen sitten profiilin luomiseksi.
Jos esimerkiksi julkaiset usein sosiaalisessa mediassa Taylor Swiftistä, viestiesi manuaalinen läpikäyminen salasanavihjeiden saamiseksi olisi kovaa työtä. Automaattiset työkalut tekevät tämän nopeasti ja tehokkaasti. Kaikki nämä tiedot käytettäisiin profiilin tekemiseen, mikä helpottaa salasanojen ja PIN-koodien arvaamista.
Terve skeptisyys
Yksilöinä meidän tulee olla ennakoivia yrityksissämme ymmärtää tekoälyä, ei itsetyytyväisiä. Meidän tulee kehittää omat lähestymistavat siihen ja säilyttää terve skeptisyyden tunne. Meidän on pohdittava, kuinka varmistamme lukemamme, kuulemamme tai näkemämme pätevyyden.
Nämä yksinkertaiset toimet auttavat yhteiskuntaa hyötymään tekoälystä ja varmistamaan, että voimme suojautua mahdollisilta haitoilta.
Daniel Prince , kyberturvallisuuden professori, Lancasterin yliopisto
Tämä artikkeli on julkaistu uudelleen The Conversationista Creative Commons -lisenssillä. Lue alkuperäinen artikkeli .