Deepfake-petokset kasvavat yli 1000%, sisäpiiriläiset sanovat, että se on vasta alkua
Kun tosiasian ja fiktion välistä rajaa on vaikeampi erottaa, verkkorikolliset tarvitsevat vain kaksi tuntia luodakseen realistisen, tietokoneella luodun “deepfake” -tuotteen, joka voi pilata jonkun elämän.
Tekoälyllä (AI) kehitettyjen hyperrealististen valokuvien, äänen ja videoiden suosion kasvusta, joka tunnetaan yleisesti nimellä deepfake, on tullut Internet-sensaatio.
Se myös antaa kyberroistoille etulyöntiaseman rikosmaailmassa.
Vuodesta 2022 tämän vuoden ensimmäisen vuosineljänneksen välillä syväväärennösten käyttö petoksissa nousi 1 200 prosenttia pelkästään Yhdysvalloissa.
Samassa analyysissä huijaustarkoituksiin käytetyt syväväärennökset räjähtivät Kanadassa, Saksassa ja Isossa-Britanniassa. Tutkimuksessa Yhdysvaltojen osuus maailmanlaajuisista syväväärennöspetostapauksista oli 4,3 prosenttia.
Tekoälyasiantuntijat ja kyberrikostutkijat sanovat, että olemme vain jäävuoren huipulla. Deepfake-petospotentiaalin kaniloukko vain jatkuu.
“Uskon, että ensimmäinen kannustin verkkorikollisille tehdä verkkorikollisuutta on lainvalvonta ja heidän kyvyttömyys pysyä perässä”, Michael Roberts kertoi The Epoch Timesille.
Mr. Roberts on ammattitutkija ja edelläkävijäyrityksen Rexxfield perustaja, joka auttaa verkkohyökkäysten uhreja.
Hän perusti myös PICDOn, kyberrikollisuuden torjuntaorganisaation, ja on järjestänyt hakkeroinnin vastaista koulutusta Yhdysvaltojen ja Australian armeijan osastoille sekä NATO:lle.
Mr. Roberts sanoi, että länsimaisen maailman oikeusjärjestelmät ovat “toivottomasti ylikuormitettuja” verkkopetostapauksissa, joista monet sisältävät syvähyökkäyksiä. Lisäksi tapaukset, jotka joutuvat tutkimaan ilman yksityisen yrityksen palkkaamista, ovat kirsikkapoimittuja.
” Ja silloinkaan sitä [tapausta] ei ratkaista “, hän sanoi.
HSRC:n raportin mukaan syvän väärennösten havaitsemisen markkinoiden arvo oli 3,86 miljardia dollaria vuonna 2020, ja sen odotetaan kasvavan 42 prosenttia vuosittain vuoteen 2026 asti .
Silmänkääntötemppu
Kuvittele, että saat puhelun läheiseltä, joka väittää kyynelehtien olevansa kidnapattu. Luonnollisesti sieppaajat haluavat rahaa ja perheenjäsenesi ääni antaa ohjeita lunnaiden toimittamiseen.
Saatat olla varma, että se on rakkaasi ääni toisessa päässä, mutta on mahdollista, että se ei ole.
Deepfake audio- tai “äänen kloonaus” -huijaukset ovat levinneet kulovalkean tavoin ympäri Yhdysvaltoja tänä vuonna ja häikäisevät myötätuntoisia, valmistautumattomia henkilöitä useissa osavaltioissa.
Mutta se ei lopu tähän. Deepfake-hyökkäykset voivat saapua monessa muodossa. Nämä älykkäät huijaukset voivat myös ilmaantua videokeskusteluina jonkun tutun kanssa.
Ne voivat esiintyä pitkäaikaisen kollegan sosiaalisen median postauksena, jossa keskustellaan siitä, kuinka kryptovaluuttasijoituksen ansiosta he saivat ostaa kauniin uuden kodin, jota he osoittavat innoissaan valokuvassa.
” Meillä on paljon kryptovaluuttahuijauksia “, herra Roberts sanoi.
Deepfakeja käytetään myös kiristykseen. Yleensä siihen liittyy kelvollisen videon tai valokuvan luominen uhrista irstaisessa tai vaarallisessa tilanteessa.
Sitten hyökkääjät vaativat lunnaita, etteivät he jaa väärennettyä uhrin työtovereille, pomolle, perheelle ja ystäville.
Jokainen näistä esimerkeistä on jo tapahtumassa.
Mutta luodakseen näitä realistisia väärennöksiä rikolliset tarvitsevat materiaalin, kuten valokuvien, äänen ja videon. Valitettavasti näitä asioita ei ole vaikea saada.
” Jos joku pääsee yksityisiin kuviisi iCloudissasi, se antaa kaiken näytteen, kaiken tekniikan… hyperrealististen väärennösten tekemiseen “, Roberts sanoi.
Sosiaalisen median profiilit ovat aarreaitta rikollisille, jotka haluavat luoda näitä tuotteita.
Kadonneen omaisuuden ja uhrin maineen takaisin saaminen voi olla synkkää. Roberts huomautti, että kyberrikosten vastaiset oikeudenkäynnit ovat ylämäkeen taistelu. “Se on pitkä, se on raskasta, se on venynyt ja se on henkisesti ja taloudellisesti rasittavaa.”
Muut tekoälyalan sisäpiiriläiset sanovat, että ongelmana ei ole vain väärennösten laatu, vaan myös määrä.
“Ennemmin tai myöhemmin ihmiset voivat luoda minkä tahansa pikselien yhdistelmän minkä tahansa tyyppisestä sisällöstä. Ja sinun on suodatettava se”, Alan Ikoev kertoi The Epoch Timesille.
Mr. Ikoev on Fame Flow’n toimitusjohtaja, joka luo lisensoituja julkkis- ja vaikuttajamainoksia.
Julkkiksia sisältävän valtuutetun tekoälyn luoman sisällön edelläkävijänä hän tuntee liiankin pahantahtoisten kollegojensa työn.
Mutta vastustaakseen näitä yhä kehittyneempiä huijauksia ihmisten on suhtauduttava epäluuloisesti kaikkeen, mitä he näkevät verkossa. “Jos he eivät kyseenalaista, he ovat helposti vakuuttuneita”, Ikoev sanoi.
Aidon tai väärennöksen tunnistaminen verkossa on jo haastavaa. Ipsosin yli 25 000 osallistujaa 25 maassa tekemän tutkimuksen mukaan 86 prosenttia internetin käyttäjistä myönsi , että valeuutiset olivat hämmentyneitä.
Tätä pahentaa äskettäinen kyberturvallisuustutkimus, joka paljasti , että lähes puolet kaikesta Internet-liikenteestä on nyt robottien tuottamaa.
Mutta kaikki eivät ole huonoja uutisia. Mr. Roberts väittää, että rikolliset eivät ole tajunneet kuinka nopeasti teknologia edistyy, mikä ohittaa tällä hetkellä “huonoja toimijoita”.
Valppautta ja suunnitelmaa tarvitaan kuitenkin syvähyökkäysten torjumiseksi tai torjumiseksi.
Liikkeet ja vastaliikkeet
Teknologian nopea kehitys petoksissa herättää melkein nostalgiaa päiviä kohtaan, jolloin Internet-huijaukset olivat vain sähköposti vieraalla maalla itseään julistaneelta prinssiltä, joka tarvitsi apua rahansiirtoon.
Tekoäly on antanut kyberrikollisille parempia työkaluja, mutta sitä voidaan käyttää myös heitä vastaan.
” Tekoälypohjaisia algoritmeja käyttävien edistyneiden syvän väärennösten tunnistustyökalujen kehittäminen on ratkaisevan tärkeää tämän uhan torjumiseksi . Tekoälykehittäjien, tutkijoiden ja teknologiayritysten yhteistyö on olennaista luotaessa vankkoja turvatoimia ja lisätäkseen tietoisuutta”, Nikita Sherbina, AIScreenin toimitusjohtaja , kertoi The Epoch Timesille.
Sherbina sanoi, että yritykset voivat suojautua tuplaamalla tekniikan. Pohjimmiltaan digitaalisen tulen sammuttaminen tulella.
“Ota käyttöön kehittyneitä tekoälypohjaisia todennusjärjestelmiä, mukaan lukien ääni- ja kasvojentunnistus monitekijätodennuksella. Viestintämallien jatkuva seuranta ja analysointi tekoälyalgoritmeilla voi myös auttaa havaitsemaan ja ehkäisemään petollisia toimia”, hän sanoi.
Mutta yksityishenkilöille syvähuijauksen häiritseminen tai estäminen on yksinkertaisempaa.
Jos epäillään äänikloonihyökkäystä, herra Roberts sanoi: “Ensimmäinen asia, jonka teet, on sanoa: “Kulta, soitan sinulle heti takaisin.””
Hän huomautti, että huijarit keksivät tekosyyn, miksi et voi soittaa takaisin vahvistaaksesi heidän henkilöllisyytensä. Toinen temppu rikollisten suistamiseksi käyttämällä kloonattua ääntä sieppauksen väärentämiseen on kysyä soittajalta kysymyksiä, jotka eivät ole julkisia.
“Keskustele perheesi kanssa ennen kuin se todella tapahtuu, jotta he ymmärtävät, mitä olet tekemässä”, herra Roberts lisäsi.
Hän korosti, että on tärkeää olla käyttämättä yksittäisiä sähköpostiosoitteita, joissa on käyttäjän syntymäajan kannalta merkityksellisiä koko nimiä tai numeroita.
Lisäksi henkilön ei tulisi koskaan käyttää kirjautumissalasanaa uudelleen. Mr. Roberts huomautti, että ensimmäinen asia, jonka hakkerit tekevät, kun he nappaavat salasanan, yrittävät kirjautua kaikkiin mahdollisiin sivustoihin nähdäkseen, missä muualla se toimii.
Tämä sisältää pankkitilit, pilvitallennustilan, sosiaalisen median ja paljon muuta.
Mutta vaikka syväväärennökset ovat nostaneet rimaa korkealle verkkohuijareille, niiden jäljitysmenetelmät eivät ole muuttuneet.
“Prosessi ei muutu. Tekoäly on vain sisältö… mutta rikollisten jättämät leivänmurut ovat aina samat”, Ikoev sanoi.
Huijareiden jäljittäminen voi olla vakiintunutta, mutta uhreille ei ole selkeää tietä saada takaisin menetetyt rahat.
Deepfake-huijaukset voivat vaihdella 243 000 dollarista 35 miljoonaan dollariin yhden analyysin mukaan.
Yksi esimerkki oli kryptovaluuttojen touhu , jossa käytettiin väärennettyä Elon Muskin hahmoa, jonka kerrotaan maksaneen yhdysvaltalaisille kuluttajille noin 2 miljoonaa dollaria kuuden kuukauden aikana.
Ehkä huolestuttavampaa on se, että kuka tahansa voi luoda niitä. Herra Ikoev selitti, että kaikki, mitä joku tarvitsee luodakseen syväväärennön älypuhelimellaan, on näytönohjain ja muutaman verkko-opetusohjelman katsominen.
“Sitten voit mennä”, hän sanoi.
Mahdollisuuksien maailma
Yhdysvaltain tulevien presidentinvaalien ajankohta vuonna 2024 on epävarma, kun otetaan huomioon syväväärennösmateriaalin lisääntyminen.
Mr. Roberts sanoi, että amerikkalaisten pitäisi odottaa vaalikilpailua, joka on täynnä huijareita, jotka käyttävät syvää väärennösarsenaalia.
Yhdysvaltain sisäisen turvallisuuden ministeriö ilmaisi myös huolensa tekniikan käytöstä ja totesi: “Deepfake- ja synteettisten median uhka ei johdu sen luomiseen käytetystä teknologiasta, vaan ihmisten luonnollisesta taipumuksesta uskoa näkemäänsä.”
Pandoran lipas on kuitenkin jo auki.
Aiemmin tänä vuonna ilmestyi videoita yhdysvaltalaispoliitikoista, jotka esittivät hämmästyttävän luonteenomaisia huomautuksia.
Yksi koski Hillary Clintonin tukemista republikaanien presidenttiehdokkaaksi, Ron DeSantisiksi.
Toisessa kuvattiin presidentti Joe Bidenin vihaisia huomautuksia transsukupuoliselle henkilölle.
Herra Robertsin mukaan tämä on vasta alkua.
“Sitä käytetään paljon poliittiseen puuttumiseen”, hän sanoi ja lisäsi, että tämä tekniikka tekee seuraavasta COVID-tason tapahtumasta paljon huonomman yleisön kannalta.
“En puhu väärästä tiedosta, jota liberaali vasemmisto kuvailee. Puhun tietoisista valheista yhteiskuntainsinöörille koko maailmalle.”
Lähde: ActivistPost.com