Intelligenza artificiale, il Ceo di ChatGpt è preoccupato. «Le persone non hanno capito»

Alessandro Nuzzo

23 Agosto 2025 - 12:48

Sam Altman ha svelato una delle conseguenze più inaspettate dovuta alla creazione dell’intelligenza artificiale.

Intelligenza artificiale, il Ceo di ChatGpt è preoccupato. «Le persone non hanno capito»

L’intelligenza artificiale continua a radicarsi sempre più nella vita di ciascuno di noi. Un po’ come accaduto con i social network una decina di anni fa, oggi sempre più persone utilizzano quotidianamente l’AI per semplificare il lavoro, ma anche in ambito scolastico o per effettuare ricerche. L’intelligenza artificiale più usata è certamente ChatGPT, che di recente ha introdotto un nuovo aggiornamento: ChatGPT 5, subentrato ai modelli precedenti. Mentre prima l’utente poteva scegliere tra diverse versioni, con l’aggiornamento non era più possibile tornare indietro. Ciò ha generato numerose critiche, soprattutto per un motivo: gli utenti hanno notato che ChatGPT era diventato meno empatico, lamentando una perdita di calore.

Queste osservazioni sono state subito recepite da OpenAI, che ha ripristinato il modello 4 per gli account a pagamento. Tuttavia, la vicenda ha messo in evidenza una conseguenza inattesa dello sviluppo dell’intelligenza artificiale. Ne ha parlato Sam Altman, CEO di OpenAI, riconoscendo il legame profondo che può instaurarsi tra l’utente e la chat. Sempre più persone, infatti, hanno iniziato a sviluppare rapporti di natura estremamente personale con l’assistente AI, un fenomeno che ha sorpreso tutti.

Sempre più persone si affezionano agli assistenti AI

«Ci sono individui che hanno realmente sentito di avere una relazione con ChatGPT», ha ammesso Altman. Sebbene si tratti di una minoranza, la tendenza desta preoccupazione. Su Reddit circolano numerosi contenuti che testimoniano come alcuni utenti instaurino quelle che considerano vere relazioni con l’intelligenza artificiale.

Sono molti i post di persone che si affezionano all’assistente AI, interagendo con lui per qualsiasi esigenza: dai suggerimenti pratici ai consigli personali, apprezzandone la capacità empatica. In casi estremi, ci sono individui che arrivano a dichiararsi sposati o fidanzati con l’assistente virtuale.

Si tratta di una deriva imprevista, poiché nessuno immaginava che l’uso costante dell’AI potesse generare un legame affettivo tra un essere umano e un’entità digitale. È evidente che a cadere in questa trappola siano spesso persone sole, vulnerabili, in cerca di ascolto e compagnia. Per questo è fondamentale che l’assistente mantenga sempre un certo livello di distanza nelle interazioni.

Altman ha inoltre criticato Grok, l’AI di Elon Musk, accusandolo di incentivare un modello di assistente basato sulle emozioni, disponibile 24 ore al giorno, 7 giorni su 7. «Non ci vedrete fare lo stesso. Continueremo a impegnarci per sviluppare un’app utile e consentire agli utenti di sfruttarla al meglio, ma non fino al punto di esporre persone con fragilità psicologiche al rischio di essere inconsapevolmente sfruttate», ha dichiarato il CEO di OpenAI.

Il caso è emerso proprio dal cambio di modello di ChatGPT, dimostrando come minime variazioni di tono o formulazione possano avere un impatto enorme, soprattutto quando uno strumento è profondamente radicato nella quotidianità. Il lancio di GPT-5 è diventato così un esempio emblematico del peso emotivo che gli utenti attribuiscono all’intelligenza artificiale e della responsabilità che grava sugli sviluppatori nel prevedere tali reazioni.

Iscriviti a Money.it