28.4.2024

Publication-X

"in tenebris moderni diei, solum bellum est"

Neljä tapaa, joilla rikolliset voivat käyttää tekoälyä tavoittaakseen enemmän uhreja

4 min read
Neljä tapaa, joilla rikolliset voivat käyttää tekoälyä tavoittaakseen enemmän uhreja

Pikalinkki tähän artikkeliin: https://publication-x.com/gcjr

Tekoälyä (AI) koskevat varoitukset ovat tällä hetkellä kaikkialla. Ne ovat sisältäneet pelottavia viestejä tekoälyn mahdollisuudesta aiheuttaa ihmisten sukupuuttoon vedoten kuviin Terminator -elokuvista. Ison-Britannian pääministeri Rishi Sunak on jopa järjestänyt huippukokouksen keskustelemaan tekoälyn turvallisuudesta .

Olemme kuitenkin käyttäneet tekoälytyökaluja jo pitkään – algoritmeista, joilla suositeltiin osuvia tuotteita ostossivustoilla, autoihin, joiden tekniikka tunnistaa liikennemerkit ja tarjoaa kaistan paikantamisen . Tekoäly on työkalu tehokkuuden lisäämiseen, suurten tietomäärien käsittelyyn ja lajitteluun sekä päätöksenteon kuormitukseen.

Nämä työkalut ovat kuitenkin avoimia kaikille, myös rikollisille. Ja näemme jo rikollisten omaksuvan tekoälyn varhaisessa vaiheessa. Deepfake-teknologiaa on käytetty esimerkiksi kostopornografian tuottamiseen .

Teknologia tehostaa rikollista toimintaa . Sen avulla lainrikkojat voivat kohdistaa tavoitteensa suurempaan määrään ihmisiä ja auttaa heitä olemaan uskottavampia. Sen havainnointi, kuinka rikolliset ovat sopeutuneet ja omaksuneet teknologisen kehityksen menneisyydessä, voi antaa vihjeitä siitä, kuinka he voivat käyttää tekoälyä.

1. Parempi phishing-koukku

Tekoälytyökalut, kuten ChatGPT ja Googlen Bard , tarjoavat kirjoitustukea, jonka avulla kokemattomat kirjoittajat voivat esimerkiksi luoda tehokkaita markkinointiviestejä. Tämä tekniikka voi kuitenkin myös auttaa rikollisia kuulostamaan uskottavammalta ottaessaan yhteyttä mahdollisiin uhreihin.

Ajattele kaikkia niitä roskapostin tietojenkalasteluviestejä ja tekstejä, jotka on kirjoitettu huonosti ja helposti havaittavissa. Uskottavuus on avainasemassa saada tietoa uhrilta.

Tietojenkalastelu on numeropeli: arviolta 3,4 miljardia roskapostia lähetetään päivittäin. Omat laskelmani osoittavat, että jos rikolliset pystyisivät parantamaan viestejään niin, että vain 0,000005 % heistä saisi jonkun paljastamaan tietoja, se johtaisi 6,2 miljoonaan tietojenkalastelun uhriin joka vuosi.

2. Automaattinen vuorovaikutus

Yksi tekoälytyökalujen varhaisista käyttötavoista oli automatisoida asiakkaiden ja palveluiden välistä vuorovaikutusta tekstin, chat-viestien ja puhelimen välityksellä. Tämä mahdollisti nopeamman reagoinnin asiakkaille ja optimoi liiketoiminnan tehokkuuden. Ensimmäinen kontaktisi organisaation kanssa tapahtuu todennäköisesti tekoälyjärjestelmän kanssa, ennen kuin pääset puhumaan ihmisen kanssa.

Rikolliset voivat käyttää samoja työkaluja luodakseen automatisoituja vuorovaikutuksia suuren määrän mahdollisia uhreja kanssa sellaisessa mittakaavassa, joka ei olisi mahdollista, jos se olisi vain ihmisten suorittama. He voivat esiintyä laillisina palveluina, kuten pankkeina, puhelimitse ja sähköpostitse yrittääkseen saada tietoja, joiden avulla he voivat varastaa rahasi.

3. Deepfakes

Tekoäly on todella hyvä luomaan matemaattisia malleja, joita voidaan “kouluttaa” suurille reaalimaailman datamäärille, mikä tekee malleista parempia tietyssä tehtävässä. Deepfake-tekniikka videossa ja äänessä on esimerkki tästä. Deepfake teko nimeltä Metaphysic , osoitti äskettäin tekniikan potentiaalin, kun he paljastivat videon Simon Cowellista laulamassa oopperaa televisio-ohjelmassa America’s Got Talent .

Tämä tekniikka on useimpien rikollisten ulottumattomissa, mutta tekoälyllä on vapaasti käytettävissä kyky käyttää tekoälyä matkimaan tapaa, jolla henkilö vastaa tekstiviesteihin, kirjoittaa sähköposteja, jättää äänimuistiinpanoja tai soittaa puheluita. Samoin sen kouluttamiseen käytettävä data, joka voidaan kerätä esimerkiksi sosiaalisessa mediassa olevista videoista.

Sosiaalinen media on aina ollut rikas sauma rikollisille, jotka louhivat tietoa mahdollisista kohteista. Nyt on mahdollista, että tekoälyä voidaan käyttää luomaan sinusta syväfake-versio. Tätä syväväärennöstä voidaan hyödyntää vuorovaikutuksessa ystävien ja perheen kanssa ja saada heidät luovuttamaan rikollisille tietoja sinusta. Paremman käsityksen saamisesta elämääsi on helpompi arvata salasanoja tai PIN-koodia.

4. Raaka pakottaminen

Toinen rikollisten käyttämä “raaka pakottaminen” -tekniikka voisi myös hyötyä tekoälystä. Täällä kokeillaan useita merkki- ja symboliyhdistelmiä vuorotellen tarkistaakseen, vastaavatko ne salasanojasi.

Tästä syystä pitkät, monimutkaiset salasanat ovat turvallisempia; niitä on vaikeampi
arvata tällä menetelmällä. Raaka pakottaminen on resurssivaltaista, mutta se on helpompaa, jos tietää jotain henkilöstä. Tämä mahdollistaa esimerkiksi mahdollisten salasanojen luetteloiden järjestämisen tärkeysjärjestyksen mukaan, mikä lisää prosessin tehokkuutta. He voisivat esimerkiksi aloittaa yhdistelmillä, jotka liittyvät perheenjäsenten tai lemmikkien nimiin.

Tietojesi perusteella koulutettuja algoritmeja voidaan käyttää näiden priorisoitujen luetteloiden luomiseen tarkemmin ja kohdistamiseen useisiin ihmisiin kerralla – niin tarvitaan vähemmän resursseja. Voidaan kehittää erityisiä tekoälytyökaluja, jotka keräävät online-tietosi ja analysoivat sen sitten profiilin luomiseksi.

Jos esimerkiksi julkaiset usein sosiaalisessa mediassa Taylor Swiftistä, viestiesi manuaalinen läpikäyminen salasanavihjeiden saamiseksi olisi kovaa työtä. Automaattiset työkalut tekevät tämän nopeasti ja tehokkaasti. Kaikki nämä tiedot käytettäisiin profiilin tekemiseen, mikä helpottaa salasanojen ja PIN-koodien arvaamista.

Terve skeptisyys

Meidän ei pitäisi pelätä tekoälyä, sillä se voi tuoda todellista hyötyä yhteiskunnalle. Mutta kuten mihin tahansa uuteen teknologiaan, yhteiskunnan on sopeuduttava siihen ja ymmärrettävä se. Vaikka pidämmekin älypuhelimia nykyään itsestäänselvyytenä, yhteiskunnan piti sopeutua siihen, että niitä on elämässämme. Ne ovat olleet suurelta osin hyödyllisiä, mutta epävarmuustekijöitä on edelleen, kuten lasten runsas ruutuaika.

Yksilöinä meidän tulee olla ennakoivia yrityksissämme ymmärtää tekoälyä, ei itsetyytyväisiä. Meidän tulee kehittää omat lähestymistavat siihen ja säilyttää terve skeptisyyden tunne. Meidän on pohdittava, kuinka varmistamme lukemamme, kuulemamme tai näkemämme pätevyyden.

Nämä yksinkertaiset toimet auttavat yhteiskuntaa hyötymään tekoälystä ja varmistamaan, että voimme suojautua mahdollisilta haitoilta.

Daniel Prince , kyberturvallisuuden professori, Lancasterin yliopisto

Tämä artikkeli on julkaistu uudelleen The Conversationista Creative Commons -lisenssillä. Lue alkuperäinen artikkeli .