Bedrag i kryptovaluta-sektoren
Bedrag udgør en betydelig del af den ulovlige aktivitet i kryptovaluta-sektoren. Ifølge oplysninger fra Federal Bureau of Investigation (FBI) mistede amerikanske borgere 9,3 milliarder dollars til kryptobedrag sidste år. Fremkomsten af kunstig intelligens (AI) har kun forværret situationen. Ifølge blockchain-analysefirmaet TRM Labs var der en stigning på 456 % i AI-faciliterede bedragerier i 2024 sammenlignet med tidligere år.
Efterhånden som generativ AI (GenAI) udvikler sig, er kriminelle nu i stand til at implementere sofistikerede chatbots, deepfake-videoer, klonede stemmer og automatiserede netværk af bedrageritokens i en skala, der aldrig er set før. Som et resultat er kryptobedrag ikke længere kun menneskedrevne operationer, men snarere algoritmiske, hurtigere, tilpasningsdygtige og stadig mere overbevisende.
Bedrag i lynets hastighed
Ari Redbord, global leder af politik og offentlige anliggender hos TRM Labs, fortalte til Cryptonews, at generative modeller bruges til at lancere tusindvis af bedragerier samtidigt. “Vi ser et kriminelt økosystem, der er smartere, hurtigere og uendeligt skalerbart,” sagde han.
Redbord forklarede, at GenAI-modeller kan tilpasse sig en victims sprog, placering og digitale fodaftryk. For eksempel bemærkede han, at i ransomware bruges AI til at vælge ofre, der sandsynligvis vil betale, udarbejde løsesumsanmodninger og automatisere forhandlingssamtaler. I social engineering nævnte Redbord, at deepfake-stemmer og videoer bruges til at bedrage virksomheder og mennesker i “executive impersonation” og “family emergency” bedragerier. Endelig kan on-chain bedragerier, der involverer AI-værktøjer til at skrive scripts, flytte midler på tværs af hundreder af wallets inden for sekunder, hvilket vasker penge i et tempo, som ingen menneske kunne matche.
AI-drevne forsvar
Kryptoindustrien vender sig mod AI-drevne forsvar for at bekæmpe disse bedragerier. Blockchain-analysefirmaer, cybersikkerhedsfirmaer, børser og akademiske forskere bygger nu maskinlæringssystemer designet til at opdage, flagge og afbøde bedrageri længe før ofre mister midler. For eksempel sagde Redbord, at kunstig intelligens er indbygget i hvert lag af TRM Labs’ blockchain-intelligensplatform.
Firmaet bruger maskinlæring til at behandle billioner af datapunkter på tværs af mere end 40 blockchain-netværk. Dette gør det muligt for TRM Labs at kortlægge wallet-netværk, identificere typologier og fremhæve anomaløs adfærd, der indikerer potentiel ulovlig aktivitet. “Disse systemer opdager ikke bare mønstre – de lærer dem. Efterhånden som data ændrer sig, ændrer modellerne sig også og tilpasser sig den dynamiske virkelighed i kryptomarkederne,” kommenterede Redbord.
AI-risiko platformen Sardine tager en lignende tilgang. Sikkerhedsfirmaet blev grundlagt i 2020, en tid hvor fremtrædende kryptobedrag lige var begyndt at finde sted. Alex Kushnir, Sardines leder af kommerciel udvikling, fortalte til Cryptonews, at virksomhedens AI-bedrageriopdagelse består af tre lag.
“Data er kernen i alt, hvad vi gør. Vi indfanger dybe signaler bag hver bruger-session, der sker på finansielle platforme som kryptobørser – som enhedsattributter, om apps er blevet manipuleret, eller hvordan en bruger opfører sig. For det andet trækker vi på et bredt netværk af betroede dataleverandører for eventuelle brugerinput. Endelig bruger vi vores konsortiedata – som kan være det vigtigste for at bekæmpe bedrageri – hvor virksomheder kan dele data vedrørende dårlige aktører med andre virksomheder.”
Kushnir tilføjede, at Sardine bruger en realtidsrisikomotor til at handle på hver af de nævnte indikatorer for at bekæmpe bedragerier, mens de sker. Kushnir påpegede også, at i dag bruges agentisk AI og store sprogmodeller (LLMs) hovedsageligt til automatisering og effektivitet snarere end realtidsbedrageriopdagelse.
AI vs. AI brugssager
Disse værktøjer viser sig allerede at være effektive. Matt Vega, Sardines stabschef, fortalte til Cryptonews, at når Sardine opdager et mønster, udfører virksomhedens AI en dyb analyse for at finde trendanbefalinger for at stoppe en angrebsvektor fra at opstå.
“Dette ville normalt tage en menneske en dag at fuldføre, men ved at bruge AI tager det sekunder,” sagde han.
For eksempel forklarede Vega, at Sardine arbejder tæt sammen med førende kryptobørser for at flagge usædvanlig brugeradfærd. Brugertransaktioner køres gennem Sardines beslutningsplatform, og AI-analyse hjælper med at bestemme udfaldet af disse transaktioner, hvilket giver børserne forudgående varsel.
Et blogindlæg fra TRM Labs forklarer yderligere, at i maj oplevede firmaet en live deepfake under et videoopkald med en sandsynlig finansiel grooming-bedrager. Denne type bedrager etablerer et langsigtet, tillidsfuldt og ofte følelsesmæssigt eller romantisk forhold til et offer for at få adgang til deres penge. “Vi mistænkte, at denne bedrager brugte deepfake-teknologi på grund af personens unaturligt udseende hårgrænse,” forklarede Redbord.
“AI-detekteringsværktøjer gjorde det muligt for os at bekræfte vores vurdering af, at billedet sandsynligvis var AI-genereret.” Selvom TRM Labs var succesfulde, har denne specifikke bedrageri og andre relaterede til det stjålet omkring 60 millioner dollars fra uvidende ofre.
Beskyttelse mod AI-drevne bedragerier
Selvom det er klart, at AI-drevne værktøjer bruges til at opdage og forhindre sofistikerede bedragerier, vil disse angreb fortsætte med at stige. “AI sænker indgangsbarrieren for sofistikeret kriminalitet, hvilket gør disse bedragerier meget skalerbare og personlige, så de vil helt sikkert få mere traction,” bemærkede Kerbs.
Kerbs mener, at semi-autonome ondsindede AI-agenter snart vil være i stand til at orkestrere hele angrebs kampagner, der kræver minimal menneskelig overvågning med uopsporelig stemme-til-stemme deepfake-efterligning i live opkald. Selvom det er alarmerende, påpegede Vega, at der er specifikke skridt, brugere kan tage for at forhindre at falde offer for sådanne bedragerier.
For eksempel forklarede han, at mange angrebsvektorer er spoofing-websteder, som brugere til sidst vil besøge og derefter klikke på falske links. “Brugere bør se efter græske alfabetbogstaver på websteder. Det amerikanske multinationale teknologiselskab Apple blev for nylig offer for dette, da en angriber oprettede et falsk websted ved hjælp af et græsk ‘A’ bogstav i Apple. Brugere bør også holde sig væk fra sponsorerede links og være opmærksomme på URL’er.”
Derudover arbejder virksomheder som Sardine og TRM Labs tæt sammen med regulerende myndigheder for at bestemme, hvordan man kan bygge sikkerhedsforanstaltninger, der bruger AI til at mindske risikoen for AI-drevne bedragerier. “Vi bygger systemer, der giver retshåndhævende myndigheder og compliance-professionelle den samme hastighed, skala og rækkevidde, som kriminelle nu har – fra at opdage realtidsanomalier til at identificere koordineret cross-chain hvidvaskning. AI gør det muligt for os at flytte risikostyring fra noget reaktivt til noget forudsigende,” sagde Redbord.