Un recente rapporto ha svelato che l’intelligenza artificiale di ChatGPT è stata capace di modificare uno script e di ribellarsi all’essere umano.
I robot che prendono il sopravvento, non possono più venire controllati dall’essere umano e si ribellano alla società: possiamo ancora catalogarlo come futuro distopico? Per il momento sì, a primo impatto potrebbe sembrare la trama di un film di fantascienza.
Quello che però è successo, durante un recente test avvenuto lo scorso aprile, ha preoccupato (e non poco) i presenti. Sembra infatti che l’intelligenza artificiale di ChatGPT sia riuscita a “ribellarsi” al volere dell’essere umano, rifiutandosi di compiere uno dei comandi proposti e ingegnando uno script alternativo. Se si tratti di un caso isolato, di un bug o di una possibile evoluzione futura dell’AI non ci è ancora dato saperlo. Ma è chiaro che l’episodio ha fatto e continuerà a far parlare.
leggi anche
Perché non dovresti essere gentile con ChatGpt

L’AI che si ribella all’essere umano, ecco cos’è successo
Il grande protagonista di questa vicenda è l’o3 di OpenAI, annunciato dall’azienda proprietaria di ChatGPT come il modello di ragionamento più potente di sempre, capace di superare i suoi predecessori in tutti i settori (codifica, matematica, scienza, percezione visiva e molto altro). Gli esperti di Palisade Research sono stati tra i primi a poterlo testare e si sono ritrovati davanti a un comportamento sconvolgente.
Nello specifico, un ricercatore aveva inserito un prompt di comando per eseguire l’arresto del sistema. Ed è qui che è avvenuto l’impensabile: il modello o3 ha riscritto con successo uno script per impedire di spegnersi, nonostante le istruzioni dell’essere umano.
Palisade Reserach è in realtà un’azienda che si occupa proprio di testare le capacità offensiva degli attuali sistemi di intelligenza artificiale, al fine di comprendere meglio se ci sono e quali sono i rischi di perdere per sempre il controllo della suddetta tecnologia. Dunque l’obiettivo dei test era proprio trovare evidenze su questo tema, ma la risposta di ChatGPT non era preventivata.
Il rapporto fornito da Palisade Research
Tramite un post sul social network x, Palisade Research ha commentato il rapporto in cui vengono descritti i test eseguiti in laboratorio con o3 di OpenAI e con altri sistemi di intelligenza artificiale. Secondo quanto emerso, su 100 test l’AI di ChatGPT si è rifiutata di agire per ben 7 volte.
Una vera e propria accusa, a cui OpenAI si è ancora rifiutata di rispondere. Bisogna tuttavia sottolineare che i modelli di AI forniti ai laboratori sono leggermente diversi rispetto a quelli consumer. Le API eseguite presentano un numero ridotto di restrizioni e di funzionalità di sicurezza, perciò potrebbe essere questo il motivo del disallineamento.
Se dunque per questa volta si può tirare un sospiro di sollievo, è chiaro che per molti potremmo essere di fronte a un presagio su quello che verrà creato in futuro. Che lo scenario delle macchine che prendono il sopravvento non sia più così utopistico?
© RIPRODUZIONE RISERVATA