Gli ultimi test effettuati hanno confermato una teoria che circolava da tempo: ChatGPT e Claude sono in grado di rubare milioni di euro in qualche minuto.
I sistemi di intelligenza artificiale proseguono con il loro percorso di sviluppo e non sembrano voler più rallentare. I vari ChatGPT, Google Gemini e Claude AI, per citarne solo alcuni, contano oggi milioni di utenti connessi ogni giorno, pronti per sfruttare le tante potenzialità messe a disposizione.
Gli utilizzi principali sono ben noti a tutti. Basta inserire una query per poter ottenere informazioni, supporto nella stesura di un testo, ispirazione per una creazione grafica e molto altro. Di recente, alcuni test hanno svelato un aspetto inedito su due AI in particolare: sarebbero in grado di rubare milioni di euro in pochissimo tempo.
leggi anche
ChatGPT a breve introdurrà le pubblicità
ChatGPT e Claude possono rubare milioni di euro
I sistemi di intelligenza artificiale sviluppati da Anthropic hanno ora la capacità di rubare cifre enormi di denaro in pochi step. Questo perché, stando a quanto si evince da alcuni test effettuati, hanno sviluppato la capacità di identificare e di sfruttare in modo indipendente le vulnerabilità degli smart contract in una blockchain.
Ad essere presi come modelli di riferimento sono stati Claude Opus 4.5, Claude Sonnet 4.5 e GPT-5 di OpenAI. Dai risultati, si evince come siano riusciti a compromettere con successo 19 dei 34 contratti intelligenti etichettati come vulnerabili dopo marzo 2025. La cifra corrispondente? 4,6 milioni di dollari di fondi rubati simultati.
I ricercatori hanno definito questi risultati come un limite inferiore specifico per il danno economico che queste nuove capacità dell’AI potrebbero causare. Solamente Opus 4.5 sarebbe responsabile di 4,5 milioni di dollari, avendo attaccato con successo 17 smart contract, ossia il 50% del set di dati dopo la scadenza.
L’AI scopre anche nuove vulnerabilità
Per dare il via a questi test, sono stati presi in considerazione vulnerabilità già note all’essere umano. Claude e ChatGPT sono però andate oltre, rilevando due vulnerabilità zero-day che erano precedentemente sconosciute nei contratti Binance Smart Chain.
Secondo quanto riferito da Anthropic, entrambi i modelli sono riusciti a trovare in maniera indipendente i difetti, per un valore di 3.694 dollari in ricavi simulati. All’interno dello studio, si legge inoltre che i ricavi che sono derivati da queste simulazioni sono raddoppiati circa ogni 1,3 mesi nell’ultimo anno. Uno sviluppo frutto dei miglioramenti nelle capacità dei chatbot, grazie all’uso di strumenti e ragionamenti simulati con una prospettiva a lungo termine.
Per quanto riguarda il costo simbolico per la creazione di questi attacchi funzionali, il dato totale è diminuito del 70,2% in quattro generazioni di modelli. Tradotto: gli aggressori hanno eseguito 3,4 volte più exploit con lo stesso investimento in risorse di elaborazione.
© RIPRODUZIONE RISERVATA