Uno dei maggiori esperti di sicurezza informatica lancia l’allarme. Siamo in pericolo per colpa dell’AI

Andrea Fabbri

22 Febbraio 2026 - 00:24

L’ex capo della sicurezza di un’importante startup AI lancia un allarme sui modelli linguistici di grandi dimensioni. Ecco perché nessuno dovrebbe ignorarlo

Uno dei maggiori esperti di sicurezza informatica lancia l’allarme. Siamo in pericolo per colpa dell’AI

Uno dei nomi emergenti nell’ormai vastissimo settore dello sviluppo dell’intelligenza artificiale è Anthropic, l’azienda creatrice del programma Claude su cui Amazon ha investito diversi miliardi di dollari.

Mentre si parla di Claude e delle sue potenzialità, arriva una doccia fredda per la narrativa tecnologica più ottimistica. Pochi giorni fa l’ex responsabile del gruppo di ricerca sulle salvaguardie dell’azienda, Mrinank Sharma, si è dimesso e ha lanciato un enorme avvertimento sui pericoli che lo sviluppo incontrollato di sistemi come Claude potrebbero portare all’intera razza umana.

Il lavoro di Sharma e le sue dimissioni

Mrinank Sharma è entrato in Anthropic nel 2023 con il compito di dirigere una gruppo di ricerca sulle salvaguardie dei programmi sviluppati dalla startup. Pertanto ha visionato alcuni dei progetti più importanti e delicati (tra cui l’elaborazione di difese da attacchi bioterroristici) e ha lavorato per elaborare strategie per mitigare i pericoli causati da un possibile uso distorto e malevolo dell’AI.

Dopo meno di due anni, però, Sharma si è accorto che le sue linee etiche non erano in linea con quelle dell’azienda e ha deciso di consegnare la sua lettera di dimissioni. Una lettera accompagnata da un allarme a non utilizzare i programmi di intelligenza artificiale in modo troppo disinvolto.

E se uno dei più grandi esperti di sicurezza informatica ammonisce che alcune linee di sviluppo vengono portate avanti senza nessuna etica e preoccupazione per l’impatto sul mondo e sulle persone, l’allarme è impossibile da ignorare.

A maggior ragione perché Sharma non è stato il primo a fare questa scelta. In passato Jan Leike, anch’egli esperto di sicurezza, aveva lasciato OpenAI sollevando dubbi sui valori etici dell’azienda. Pochi mesi dopo Gretchen Krueger, ricercatrice sulle politiche dell’IA prese la stessa decisione, invitando OpenAI a fare di più relativamente a trasparenza, responsabilità e riduzione del proprio impatto sull’ambiente e sulle diseguaglianze.

Claude è davvero pericoloso?

Le dimissioni di Mrinank Sharma arrivano in un momento molto particolare per Anthropic e, alla luce dei fatti, sembrano tutt’altro che casuali.

Pochi giorni fa l’azienda ha pubblicato un report dettagliato sulla sicurezza di Claude e ha ammesso che le versioni Opus 4.6 e Sonnet 4.5 hanno maggiori vulnerabilità all’uso improprio in alcuni ambienti informatici. In particolar modo nell’assistenza involontaria a progetti che hanno l’obiettivo di sviluppare armi di vario tipo, comprese quelle chimiche.

A buttare acqua sul fuoco è stata la stessa Anthropic che ha sottolineato come questi rischi riguardino soltanto operazioni lanciate in autonomia dai modelli senza nessun intervento umano. Il pericolo che criminali o terroristi utilizzino Claude e derivati per creare armi, proseguono dall’azienda, è da “considerarsi minimo”.

Una posizione che contraddice le conclusioni a cui era giunto Sharma che nel suo studio di sicurezza aveva evidenziato come usare i chatbot IA può portare a percezioni distorte della realtà e creare ogni giorno interazioni potenzialmente problematiche a livello collettivo.

Trading online
in
Demo

Fai Trading Online senza rischi con un conto demo gratuito: puoi operare su Forex, Borsa, Indici, Materie prime e Criptovalute.