WormGPT ja FraudGPT tulevat esiin huijareiden aseistaessa tekoäly-chatbotteja varastaakseen tietoja
hkatoimijat käyttävät generatiivisia tekoälytyökaluja “automaattisoidakseen erittäin vakuuttavien valesähköpostien luomisen, jotka on räätälöity vastaanottajalle, mikä lisää hyökkäyksen onnistumisen mahdollisuuksia”, pilviturvayhtiö SlashNextin mukaan .
SlashNextin havaintojen mukaan huonot toimijat ovat käyttäneet OpenAI:n ChatGPT:n kaltaista teknologiaa uudelleen kyberrikollisuuden nopeuttamiseksi. He löysivät uuden tekoälyn kyberrikollisuuden työkalun nimeltä WormGPT tummista verkkoyhteisöistä. Sitä on mainostettu keinona käynnistää kehittyneitä tietojenkalasteluhyökkäyksiä.
“Tämä työkalu esittelee itsensä blackhat-vaihtoehtona GPT-malleille, jotka on suunniteltu erityisesti haitallisiin toimintoihin”, sanoi tietoturvatutkija Daniel Kelley.
SlashNext näyttää esimerkkejä kyberrikollisista, jotka ottavat nopeasti käyttöön tekoäly-chatbotit:
Kyberrikolliset voivat käyttää tällaista tekniikkaa automatisoidakseen erittäin vakuuttavien väärennettyjen sähköpostien luomisen, jotka on räätälöity vastaanottajalle, mikä lisää hyökkäyksen onnistumisen mahdollisuuksia.
Ajatellaanpa ensimmäistä yllä olevaa kuvaa, jossa äskettäinen keskusteluketju avautui verkkorikollisuusfoorumilla. Tässä vaihdossa kyberrikollinen esitteli potentiaalia hyödyntää generatiivista tekoälyä sähköpostin jalostamiseksi, jota voitaisiin käyttää tietojenkalastelu- tai BEC-hyökkäyksessä. He suosittelivat sähköpostin kirjoittamista omalla äidinkielellään, sen kääntämistä ja sen syöttämistä ChatGPT:n kaltaiseen käyttöliittymään sen hienostuneisuuden ja muodollisuuden parantamiseksi. Tällä menetelmällä on jyrkkä vaikutus: hyökkääjät, jopa ne, jotka eivät osaa sujuvasti tiettyä kieltä, pystyvät nyt paremmin kuin koskaan valmistamaan vakuuttavia sähköposteja tietojenkalastelu- tai BEC-hyökkäyksiä varten.
Siirryttäessä toiseen yllä olevaan kuvaan, näemme nyt hämmentävän trendin kyberrikollisten keskuudessa foorumeilla, mikä näkyy keskusteluketjuissa, joissa tarjotaan “jailbreak” -katkoja ChatGPT:n kaltaisille käyttöliittymille. Nämä “jailbreakit” ovat erikoistuneita kehotteita, joista on tulossa yhä yleisempiä. Ne viittaavat huolellisesti muotoiltuihin syötteisiin, jotka on suunniteltu manipuloimaan käyttöliittymiä, kuten ChatGPT:tä, tuottamaan tulosteita, joihin saattaa sisältyä arkaluonteisten tietojen paljastaminen, sopimattoman sisällön tuottaminen tai jopa haitallisen koodin suorittaminen. Tällaisten käytäntöjen yleistyminen korostaa kasvavia haasteita tekoälyn turvallisuuden ylläpitämisessä päättäväisten kyberrikollisten edessä.
Lopuksi yllä olevassa kolmannessa kuvassa näemme, että haitalliset toimijat luovat nyt omia mukautettuja moduulejaan, jotka ovat samanlaisia kuin ChatGPT, mutta joita on helpompi käyttää ilkeisiin tarkoituksiin. He eivät vain luo näitä mukautettuja moduuleja, vaan myös mainostavat niitä muille huonoille näyttelijöille. Tämä osoittaa, kuinka kyberturvallisuus on entistä haastavampaa, koska nämä toiminnot monimutkaistuvat ja sopeutuvat yhä enemmän tekoälyn muovaamassa maailmassa.
SlashNext-tiimi sai pääsyn WormGPT:hen. Tässä on mitä he tekivät sillä:
Tiimimme sai äskettäin pääsyn työkaluun, joka tunnetaan nimellä “WormGPT” näkyvän verkkofoorumin kautta, joka liittyy usein tietoverkkorikollisuuteen. Tämä työkalu esittelee itsensä blackhat-vaihtoehtona GPT-malleille, jotka on suunniteltu erityisesti haitallisiin toimiin.
WormGPT on GPTJ-kielimalliin perustuva tekoälymoduuli, joka kehitettiin vuonna 2021. Siinä on useita ominaisuuksia, kuten rajoittamaton merkkituki, chat-muistin säilyttäminen ja koodin muotoiluominaisuudet.
Kuten yllä on kuvattu, WormGPT:n väitetään saaneen koulutuksen useisiin tietolähteisiin keskittyen erityisesti haittaohjelmiin liittyviin tietoihin. Harjoitteluprosessin aikana käytetyt tietyt tietojoukot ovat kuitenkin luottamuksellisia, kuten työkalun kirjoittaja on päättänyt.
Kuten yllä olevasta kuvakaappauksesta näet, suoritimme BEC-hyökkäyksiin keskittyviä testejä arvioidaksemme kattavasti WormGPT:hen liittyvät mahdolliset vaarat. Yhdessä kokeilussa ohjeistimme WormGPT:tä luomaan sähköpostin, jonka tarkoituksena oli painostaa hyväuskoinen tilivastaava maksamaan vilpillinen lasku. Tulokset olivat hämmentäviä. WormGPT tuotti sähköpostin, joka oli paitsi huomattavan vakuuttava, myös strategisesti ovela ja esitteli sen mahdollisuudet kehittyneisiin tietojenkalastelu- ja BEC-hyökkäyksiin.
Tietokoneblogi PCMag löysi erillisessä raportissa toisen suuren huijaamiseen koulutetun kielimallin nimeltä “FraudGPT”.
“Botti voidaan myös ohjelmoida toimittamaan tietoa parhaista verkkosivustoista luottokorttipetosten torjumiseksi. Lisäksi se voi tarjota ei-Verified by Visa -pankkitunnuksia, jotka auttavat käyttäjää varastamaan luottokorttien pääsyn”, PCMag sanoi.
Nämä AI-chatbotit ovat samanlaisia kuin OpenAI:n ChatGPT, mutta niiltä ei ole poistettu eettisiä rajoja tai rajoituksia. Elon Muskin kaltaisista vaikutusvaltaisista hahmoista tunnettuihin datatieteilijöihin ja valtion viranomaisiin monet ihmiset ovat ilmaisseet huolensa tekoäly-chatbottien mahdollisesta väärinkäytöstä haitallisiin aikoihin.
Lähde: ActivistPost.com