Piuttosto che decine di piccoli furti, le perdite del 2025 si sono concentrate in pochi gravi violazioni, con soli tre incidenti principali che costituiscono quasi il 70 % del valore totale sottratto. Il caso più rilevante è stato l’attacco all’exchange Bybit, che da solo ha sottratto circa 1,4 miliardi di dollari — uno dei più grandi furti crypto mai registrati
OpenAI sta collaborando con Paradigm e OtterSec per testare se gli agenti AI possono rilevare vulnerabilità in ambienti blockchain reali utilizzando il suo EVMbench.
Gli agenti AI esaminano gli smart contract per identificare e correggere problemi di sicurezza che causano perdite nel settore crypto
Qualsiasi errore nel codice di uno smart contract oggi influenzerà denaro reale appartenente sia a grandi che a piccoli investitori, poiché questi programmi automatizzati gestiscono oltre 100 miliardi di dollari in asset digitali open-source.
E dopo che gli hacker hanno sottratto oltre 3,4 miliardi di dollari da piattaforme crypto nel 2025, gli sviluppatori possono ora vedere quanto sia vulnerabile il sistema quando gli aggressori sfruttano codice debole.
Affidarsi solo ad audit umani non è più un’opzione, perché i contratti attivi affrontano attacchi nuovi e in evoluzione che non erano presenti durante i controlli. Inoltre, richiede molto tempo e ha costi elevati, dato che i team di sicurezza devono esaminare il codice degli smart contract prima del deployment.
Invece di attendere il prossimo ciclo di audit manuale che potrebbe arrivare troppo tardi per fermare un attacco, gli sviluppatori si stanno ora rivolgendo agli agenti AI per monitorare continuamente gli smart contract attivi.
Gli agenti AI impiegano meno tempo a rilevare irregolarità nascoste nel codice rispetto alle persone, che potrebbero avere bisogno di giorni o anche settimane, quindi framework come EVMbench di OpenAI risultano più sensati per gli sviluppatori.
EVMbench utilizza agenti AI in ambienti di test per aiutare gli sviluppatori a comprendere come gli smart contract potrebbero comportarsi sotto pressione reale prima del deployment effettivo.
Gli agenti rileveranno prima le vulnerabilità nascoste nel codice, correggeranno il problema senza compromettere la funzione del contratto, e poi cercheranno di sfruttare la debolezza per drenare fondi se il problema persiste.
Secondo i primi risultati, gli agenti AI sono più abili nello sfruttare le vulnerabilità che nel correggerle in modo sicuro. C’è ora preoccupazione che gli hacker possano abusare di strumenti alimentati da AI per sfruttare le debolezze nei sistemi blockchain in modo più efficiente che mai.
Gli agenti AI possono anche creare nuovi rischi di sicurezza aiutando gli hacker a identificare le debolezze nei sistemi blockchain
Le macchine stanno imparando a violare contratti deboli più rapidamente che mai, poiché i sistemi attuali di agenti AI riescono ora a sfruttare oltre il 70% delle vulnerabilità rispetto ai modelli AI precedenti, che avevano un tasso di successo inferiore al 20%.
Gli aggressori stanno ora abbandonando i metodi manuali di hacking a favore di agenti AI che analizzano grandi quantità di codice e testano diversi percorsi di attacco senza input umano diretto.
E con il protrarsi di questa tendenza, gli esperti ora affermano che gli agenti AI saranno presto in grado di spostare fondi, approvare transazioni e gestire compiti finanziari automaticamente per conto degli utenti.
Il tecnologo americano Jeremy Allaire ha dichiarato che presto miliardi di agenti AI utilizzeranno stablecoin per inviare e ricevere pagamenti attraverso le reti blockchain. Il fondatore ed ex CEO di Binance, Changpeng Zhao (CZ), ha inoltre affermato che la crypto potrebbe diventare in futuro lo strato di pagamento nativo per i sistemi guidati da AI.
Tutte queste tendenze e previsioni rendono gli agenti AI più utili sia per gli utenti che per gli aggressori, poiché presto interagiranno direttamente con i contratti in ambienti finanziari reali dove è in gioco denaro vero.
I leader del settore hanno persino sollevato preoccupazioni sulla sicurezza degli utenti. Il managing partner di Dragonfly, Haseeb Qureshi, ha avvertito che molti utenti sono ancora preoccupati di inviare fondi all’indirizzo sbagliato o di approvare per errore una transazione dannosa tramite operazioni crypto.
Per risolvere questo problema, Qureshi ha proposto che presto i wallet gestiti da AI potrebbero interagire con la blockchain senza che gli utenti debbano comprendere il complesso processo coinvolto.
In questo modo, gli agenti AI possono aiutare a ridurre gli errori umani durante gli audit e a proteggere gli smart contract monitorando continuamente i sistemi. Tuttavia, possono anche aumentare la velocità con cui gli aggressori scoprono vulnerabilità nel sistema, permettendo agli exploit di scalare molto più rapidamente.
Questo crea un problema di sicurezza, in cui i sistemi AI sviluppati per proteggere le piattaforme di finanza decentralizzata potrebbero anche essere i più efficaci nell’attaccarle se cadono nelle mani sbagliate.



