Allarme ChatGPT, l’AI di OpenAI è ora esposta a 7 vulnerabilità critiche

Pasquale Conte

8 Novembre 2025 - 12:33

E scattato un nuovo allarme in casa ChatGPT. Pare che l’AI di OpenAI sia attualmente esposta a 7 vulnerabilità critiche. Che cosa rischiano gli utenti?

Allarme ChatGPT, l’AI di OpenAI è ora esposta a 7 vulnerabilità critiche

ChatGPT sembra essere finito nel mirino dei cybercriminali. Utilizzato da centinaia di milioni di persone ogni giorno, il chatbot di intelligenza artificiale viene visto come una preda ricca di dati e informazioni sensibili, motivo per cui gli hacker di tutto il mondo stanno studiando metodi e sistemi nascosti per riuscire a bypassare i sistemi di sicurezza di OpenAI.

E sembra che ci stiano riuscendo. Secondo quanto segnalato dall’azienda di sicurezza informatica Tenable, infatti, sono state riscontrate almeno 7 vulnerabilità critiche all’interno di ChatGPT. Sono state denominate HackedGPT e potrebbero arrecare problemi non da poco agli utenti che utilizzano ogni giorno il servizio. Addirittura 4 di queste persistono in GPT-5, ossia il modello più recente e avanzato di OpenAI.

Le 7 falle riscontrate in ChatGPT

Chiunque utilizzi ChatGPT è potenzialmente a rischio. Le 7 falle di sicurezza evidenziate da Tenable sono tanto temibili quanto semplici nella loro applicazione. Per esempio, basta che un aggressore lasci un commento dannoso su un blog popolare per compromettere migliaia di utenti. Quando all’AI viene chiesto di riassumere un articolo, legge anche i commenti e obbedisce alle istruzioni dannose nascoste. Per esempio, può fornire link da cliccare o consigliare di scaricare app pericolose.

Altro problema potenziale il cosiddetto attacco zero-click. Immagina di fare una domanda a ChatGPT e permettergli di effettuare una ricerca online per risponderti. Se tra i siti indicizzati ce n’è uno con codice dannoso progettato per SearchGPT, potresti venire attaccato senza nemmeno cliccare su un tasto o link.

Ma non è finita qui. ChatGPT permette agli utenti di condividere link con una domanda precompilata. Cliccandoci sopra, la domanda viene così avviata automaticamente, senza dover scrivere il prompt. Cosa può accadere? Che l’hacker sostituisca la domanda innocente con istruzioni dannose. Se un utente clicca sul collegamento, attiva comandi nascosti all’interno del proprio ChatGPT.

I sistemi di sicurezza di OpenAI sono stati raggirati

OpenAI ha da tempo cercato di proteggere ChatGPT, andando ad integrare un sistema che si chiama “url_safe”. Di base, ha il compito di bloccare link pericolosi prima che compaiano sullo schermo. A quanto pare non è bastato e anzi gli hacker stanno riuscendo a colpire migliaia di vittime ignare.

Queste 7 vulnerabilità sono un incubo per la privacy, poiché le istruzioni dannose sono state inserite nella memoria a lungo termine di ChatGPT. Cosa vuol dire? Che qualsiasi risposta potrebbe potenzialmente nascondere informazioni false e inserite da malintenzionati.

E non basta nemmeno chiudere e riavviare ChatGPT, è tutto già stato inglobato nei database di machine learning e resterà attivo. Sul tema è intervenuto anche il ricercatore di Tenable Moshe Bernstein, secondo cui è fondamentale che le persone presumano che gli strumenti di AI possano venire manipolati. Per questo, non bisogna mai diffondere dati personali e informazioni sensibili.

Iscriviti a Money.it