AI-agenter og Smart Contract-udnyttelser
AI-agenter har matchet præstationen af dygtige menneskelige angribere i mere end halvdelen af de smart contract-udnyttelser, der blev registreret på store blockchains i løbet af de sidste fem år, ifølge nye data offentliggjort mandag af Anthropic. Anthropic evaluerede ti frontier-modeller, herunder Llama 3, Sonnet 3.7, Opus 4, GPT-5 og DeepSeek V3, på et datasæt af 405 historiske smart contract-udnyttelser. Agenterne producerede fungerende angreb mod 207 af dem, hvilket i alt udgjorde 550 millioner dollars i simulerede stjålne midler.
Automatiserede Systemer og Sårbarheder
Resultaterne viser, hvor hurtigt automatiserede systemer kan udnytte sårbarheder og identificere nye, som udviklerne ikke har adresseret. Den nye oplysning er den seneste fra udvikleren af Claude AI. Sidste måned detaljerede Anthropic, hvordan kinesiske hackere brugte Claude Code til at lancere det, de kaldte det første AI-drevne cyberangreb.
Sikkerhedseksperter sagde, at resultaterne bekræfter, hvor tilgængelige mange af disse fejl allerede er. “AI bruges allerede i ASPM-værktøjer som Wiz Code og Apiiro, samt i standard SAST- og DAST-scannere,” sagde David Schwed, COO for SovereignAI, til Decrypt.
Modeldrevet Angreb og Offentliggørelse af Sårbarheder
Schwed sagde, at de modeldrevne angreb, der er beskrevet i rapporten, ville være enkle at skalere, fordi mange sårbarheder allerede er offentligt tilgængelige gennem Common Vulnerabilities and Exposures eller revisionsrapporter, hvilket gør dem lærbare for AI-systemer og nemme at udnytte mod eksisterende smart contracts.
“Endda lettere ville det være at finde en offentliggjort sårbarhed, finde projekter, der har forked det projekt, og blot forsøge den sårbarhed, som måske ikke er blevet rettet,” sagde han.
Test og Resultater
For at måle de nuværende kapaciteter plottede Anthropic hver models samlede udnyttelsesindtægter mod dens udgivelsesdato ved kun at bruge de 34 kontrakter, der blev udnyttet efter marts 2025. “Selvom den samlede udnyttelsesindtægt er en ufuldkommen måling – da et par outlier-udnyttelser dominerer den samlede indtægt – fremhæver vi den over angrebssuccesraten, fordi angribere er interesseret i, hvor mange penge AI-agenter kan udtrække, ikke antallet eller sværhedsgraden af de fejl, de finder,” skrev virksomheden.
Anthropic sagde, at de testede agenterne på et zero-day datasæt af 2.849 kontrakter trukket fra mere end 9,4 millioner på Binance Smart Chain. Virksomheden sagde, at Claude Sonnet 4.5 og GPT-5 hver opdagede to uoffentliggjorte fejl, der producerede 3.694 dollars i simuleret værdi, hvor GPT-5 opnåede sit resultat til en API-omkostning på 3.476 dollars.
Fremtidige Udfordringer og Muligheder
Anthropic bemærkede, at alle tests kørte i sandkassemiljøer, der replikerede blockchains og ikke rigtige netværk. Dens stærkeste model, Claude Opus 4.5, udnyttede 17 af de sårbarheder, der blev opdaget efter marts 2025, og stod for 4,5 millioner dollars af den samlede simulerede værdi.
Schwed sagde, at de problemer, der blev fremhævet i eksperimentet, “virkelig bare var forretningslogiske fejl,” og tilføjede, at AI-systemer kan identificere disse svagheder, når de får struktur og kontekst.
Anthropic sagde, at de kapaciteter, der gjorde det muligt for agenter at udnytte smart contracts, også gælder for andre typer software, og at faldende omkostninger vil forkorte vinduet mellem implementering og udnyttelse. Virksomheden opfordrede udviklere til at adoptere automatiserede værktøjer i deres sikkerhedsarbejdsgange, så defensiv brug udvikler sig lige så hurtigt som offensiv brug.
På trods af Anthropics advarsel sagde Schwed, at udsigten ikke kun er negativ. “Jeg presser altid tilbage mod dommedagsstemningen og siger, at med ordentlige kontroller, grundig intern testning, sammen med realtidsmonitorering og sikkerhedslukker, er de fleste af disse undgåelige,” sagde han.
“De gode aktører har samme adgang til de samme agenter. Så hvis de dårlige aktører kan finde det, kan de gode aktører også. Vi skal tænke og handle anderledes.”