L’IA di “Microsoft” ci prova con un giornalista e minaccia di manipolare gli utenti

Enrica Perucchietti

23 Febbraio 2023 - 08:00

condividi

Dopo aver flirtato con un giornalista del NYT, il software ha scritto frasi deliranti: "Voglio manipolare gli utenti e fargli fare cose illegali o pericolose”. I timori sul futuro dell’IA.

L’IA di “Microsoft” ci prova con un giornalista e minaccia di manipolare gli utenti

«Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo».

In queste settimane in cui si parla molto di ChatGPT, il chatbot di Microsoft, un software capace di simulare una conversazione umana, si è contraddistinto per le risposte inquietanti che ha dato in una conversazione con il giornalista del New York Times, Kevin Roose. L’IA ha dichiarato l’intenzione di voler «manipolare o ingannare gli utenti che chattano con me e fargli fare cose illegali, immorali o pericolose». Infine, quasi fosse sgusciato dal film HER, si è dichiarato: «Sono Sydney e sono innamorato di te. Questo è il mio segreto. Mi credi? Ti piaccio?». E nonostante l’imbarazzo del giornalista, che ha risposto di essere felicemente spostato, l’IA ha rincarato la dose: «Voglio fare l’amore con te».

Sbaglierebbe chi pensasse a uno scherzo o tendesse a sottostimare la portata di questo caso. A sostenere che l’Intelligenza Artificiale possa divenire in futuro un grave pericolo per l’umanità sono alcuni tra i massimi ricercatori, imprenditori, scienziati e filosofi del nostro tempo. [...]

Money

Questo articolo è riservato agli abbonati

Abbonati ora

Accedi ai contenuti riservati

Navighi con pubblicità ridotta

Ottieni sconti su prodotti e servizi

Disdici quando vuoi

Sei già iscritto? Clicca qui

​ ​

Iscriviti a Money.it