Un nuovo strumento di intelligenza artificiale si è spinto oltre le capacità umana. È stata fatta una scoperta a cui l’uomo aveva lavorato per 27 anni.
C’è un nuovo modello di intelligenza artificiale talmente potente che il creatore ha deciso, per il momento, di non renderlo disponibile al pubblico. Il motivo? La paura di farlo finire nelle mani sbagliate e di aprire le porte agli hacker per sfruttare pericolosi vantaggi.
Dietro tutto questo c’è Anthropic, l’azienda che possiede il modello di AI Claude. Tramite un comunicato stampa, ha affermato di aver messo alla prova una nuova versione sperimentale del suo software chiamata Mythos Preview. Quest’ultimo è stata capace di scovare migliaia di vulnerabilità critiche in tutto ciò che è stato esaminato, inclusi sistemi operativi e browser. Ma si è compresa la reale potenza del modello solo quando è stato trovato un problema che andava avanti da 27 anni.
leggi anche
5 competenze che l’intelligenza artificiale non può sostituire (secondo il CEO di LinkedIn)
La scoperta di Claude Myhtos Preview
Dopo qualche minuto di analisi, il modello Claude Mythos Preview è stato in grado di trovare una vulnerabilità non ancora corretta proveniente da un codice vecchio di 27 anni. Migliaia di esperti lo hanno studiato per decenni, senza essere riusciti ad arrivare a una soluzione.
Ma non solo, perché lo stesso Mythos avrebbe poi trovato un problema vecchio di 16 anni nella libreria FFmpeg, che viene usata da tantissime app per l’elaborazione video. Cosa aveva fatto prima l’uomo? Usato degli strumenti di test automatizzati con 5 milioni di analisi, senza riuscire a rilevare il problema.
Pur non essendo ancora pubblico, in realtà il modello Mythos è attualmente utilizzabile tramite Project Glasswing. Si tratta di un progetto che permette di utilizzare l’AI per proteggere i software più critici al mondo, dando al tempo stesso al settore il tempo e la preparazione utili per affrontare le sfide di sicurezza nel breve e nel lungo termine. Al momento, lo stanno già utilizzando Amazon, Apple, Google, Microsoft, Nvidia e Linux Foundation.
Perché il modello non è pubblico
Come anticipato, Anthropic ha deciso di non permettere a chiunque di accedere a Mythos. E il motivo è molto semplice: si tratta di un modello indipendente. Questo vuol dire che una qualsiasi persona, anche senza competenze in materia di sicurezza informatica, potrebbe lasciarlo in esecuzione durante la notte per trovare vulnerabilità non corrette e programmi di attacco funzionante.
E di conseguenza anche un hacker avrebbe la possibilità di utilizzare l’AI per trovare tutte le vulnerabilità critiche ancora non corrette e poi sfruttarle a proprio favore. I numeri fin qui parlano di un’efficacia oltre il 99%, dunque si tratterebbe di un tool potenzialmente letale per la protezione degli utenti qualora finisse nelle mani sbagliate.
© RIPRODUZIONE RISERVATA