TrendAI™ ha presentato le previsioni sugli attacchi IT che colpiranno quest’anno in occasione del #SecurityBarcamp, l’evento dedicato agli scenari di cybercrime e di cybersecurity.
Il cybercrime entra in una nuova fase. Non più attività frammentata o legata a singoli gruppi altamente specializzati, ma un vero e proprio modello industriale destinato a crescere in velocità, scala e complessità. È questo il messaggio principale che emerge da “The AI-fication of Cyberthreats – Trend Micro Security Predictions for 2026”, il report presentato da TrendAI a Milano durante il Security Barcamp, appuntamento annuale dedicato agli scenari di cybercrime e cybersecurity.
Secondo lo studio, l’intelligenza artificiale e l’automazione stanno cambiando radicalmente l’economia del crimine informatico. Nei prossimi mesi i cybercriminali potranno avviare campagne di attacco in modo sempre più autonomo, con una rapidità e una portata mai viste prima. Il risultato è un contesto in cui aziende e utenti dovranno confrontarsi con minacce generate e gestite dalle macchine, capaci di adattarsi in tempo reale.
Salvatore Marcis, Country Manager di TrendAI Italia, sintetizza così il cambio di paradigma: il 2026 sarà ricordato come l’anno in cui il cybercrime smetterà di essere un settore basato sui servizi per diventare completamente automatizzato. In questo scenario, agenti di intelligenza artificiale saranno in grado di individuare vulnerabilità, sfruttarle e monetizzarle senza intervento umano.
TrendAI
Fonte TrendAI
Attacchi sempre più autonomi e adattivi
Il report evidenzia come le campagne di intrusione diventeranno autosufficienti e capaci di evolvere in tempo reale. Si diffonderanno malware polimorfici in grado di riscrivere costantemente il proprio codice e tecniche di ingegneria sociale basate sui deepfake. Allo stesso tempo cresceranno gli attacchi basati su codice sintetico, l’avvelenamento dei modelli di intelligenza artificiale e l’inserimento di moduli difettosi all’interno di workflow legittimi.
L’intelligenza artificiale agirà quindi su due fronti opposti: come strumento di difesa, ma anche come vettore di attacco sempre più sofisticato. L’intelligenza artificiale agentica, in particolare, sarà in grado di eseguire operazioni complesse e interagire con sistemi del mondo reale. In caso di compromissione, questi agenti potrebbero trasformarsi in nuove fonti di minacce.
Tra i fenomeni destinati a crescere c’è anche il cosiddetto “vibe coding”, che accelererà lo sviluppo software ma aumenterà i rischi legati a una codifica non sicura quando mancano adeguati processi di revisione. Parallelamente, le truffe basate sull’AI raggiungeranno livelli di sofisticazione sempre più elevati, mettendo in crisi la fiducia degli utenti e sovraccaricando i sistemi di difesa tradizionali.
Cloud, supply chain e infrastrutture AI nel mirino
Nel 2026 i cybercriminali concentreranno gli attacchi su ambienti cloud ibridi, supply chain software e infrastrutture di intelligenza artificiale. Tra i principali vettori di intrusione figurano pacchetti open source compromessi, immagini container dannose e identità cloud con privilegi eccessivi.
Gli ambienti cloud continueranno a rappresentare obiettivi prioritari, con campagne di phishing sempre più evolute che combineranno email, SMS, voce e tecnologie di intelligenza artificiale. Configurazioni errate, API esposte e container non sicuri resteranno tra i punti di accesso più sfruttati, mentre setup ibridi e multi-cloud introdurranno nuovi punti ciechi per la sicurezza.
Parallelamente, le risorse cloud basate su GPU diventeranno sempre più appetibili per attività malevole, offrendo potenza di calcolo per attacchi su larga scala.
Ransomware e attacchi sponsorizzati dagli Stati
Il ransomware evolverà verso un modello completamente basato sull’intelligenza artificiale. Gli attacchi saranno in grado di identificare autonomamente le vittime, sfruttare i punti deboli e persino negoziare il riscatto tramite bot automatizzati. L’attenzione si sposterà dalla sola crittografia dei dati allo sfruttamento intelligente delle informazioni più sensibili per aumentare la pressione sulle vittime.
Gli strumenti ransomware-as-a-service, sempre più accessibili, permetteranno anche a soggetti con competenze tecniche limitate di lanciare campagne complesse e adattive.
Sul fronte geopolitico, i gruppi sponsorizzati dagli Stati adotteranno modelli di collaborazione che consentiranno la condivisione di accessi, infrastrutture e payload. Le minacce interne e quelle legate alla supply chain tenderanno a convergere, mentre le infrastrutture critiche e le industrie strategiche diventeranno bersagli privilegiati per operazioni di spionaggio e disruption.
Vulnerabilità e nuovi rischi negli ambienti AI
L’intelligenza artificiale accelererà la scoperta e lo sfruttamento delle vulnerabilità zero-day, permettendo riconoscimento e attacchi più rapidi. Nuovi rischi emergeranno direttamente dagli ambienti AI, tra cui prompt injection, backdoor e vulnerabilità nei framework di inferenza.
Le supply chain, le librerie open source e i repository di modelli AI resteranno obiettivi centrali per i cybercriminali alla ricerca del massimo impatto. Anche dispositivi IoT e OT non aggiornati, appliance edge e ambienti AI offriranno nuovi punti d’appoggio per movimenti laterali e ulteriori exploit.
La risposta: resilienza e governance dell’AI
Di fronte a uno scenario sempre più complesso, TrendAI invita le organizzazioni a superare le strategie difensive reattive e adottare un approccio di resilienza proattiva. La sicurezza deve essere integrata in ogni livello dell’infrastruttura AI, del cloud e della supply chain.
Andrea Angeletta, CISO di Aria S.p.A., sottolinea come l’obiettivo sia trasformare l’intelligenza artificiale da fattore di rischio a strumento di rafforzamento della difesa, soprattutto per chi opera a tutela di infrastrutture critiche. Luca Bechelli, Membro del Comitato Direttivo, Clusit, evidenzia invece come lo scenario geopolitico renda ormai superata l’idea di non essere un bersaglio interessante per i cybercriminali. Matteo Macina, Head of Cyber Security di TIM, richiama infine l’attenzione sulla governance dei sistemi AI e sulla necessità di nuove capacità di controllo e assessment.
Le organizzazioni che sapranno integrare uso etico dell’intelligenza artificiale, difesa adattiva e supervisione umana saranno nella posizione migliore per affrontare le minacce dei prossimi anni, proteggendo dati, servizi e continuità operativa.
© RIPRODUZIONE RISERVATA