Le nuove frodi digitali non si combattono più solo con antivirus e firewall. Servono consapevolezza, cultura del rischio e una risposta giuridica che non resti indietro.
Come in ogni ambito, anche nel mondo delle truffe l’intelligenza artificiale è entrata da protagonista, cambiando radicalmente il volto delle frodi: niente più email sgrammaticate o chiamate sospette, oggi l’inganno ha forme molto più sofisticate. Oggi, la voce del truffatore può sembrare quella di un collega, il volto apparire indistinguibile da quello di un familiare, e i messaggi provenire da fonti apparentemente affidabili. A segnare questa svolta è stata l’IA generativa, capace di produrre voci, volti e contenuti tanto credibili da rendere labile il confine tra vero e falso. Quello che un tempo sembrava fantascienza, oggi è realtà quotidiana.
Secondo una ricerca di McAfee del 2023, quasi il 70% degli utenti non è in grado di distinguere una voce clonata con l’intelligenza artificiale da una autentica. Un esempio concreto è rappresentato dalla recente truffa ai danni di alcuni imprenditori italiani, tra cui Massimo Moratti e Giorgio Armani, contattati da finti membri dello staff del Ministro Guido Crosetto. I truffatori, utilizzando una voce clonata del Ministro generata con l’intelligenza artificiale, chiedevano bonifici urgenti su conti esteri per presunte operazioni riservate. In almeno un caso è stato versato oltre un milione di euro.
I cosiddetti deepfake – contenuti audio e video manipolati dall’IA – sono ormai accessibili a chiunque; ciò che fino a ieri richiedeva competenze tecniche avanzate oggi si ottiene con un’app gratuita. E quando una tecnologia è così potente e semplice da usare, anche i confini della responsabilità tendono a confondersi. Il diritto, com’è prevedibile, fatica a tenere il passo del progresso. [...]
Accedi ai contenuti riservati
Navighi con pubblicità ridotta
Ottieni sconti su prodotti e servizi
Disdici quando vuoi
Sei già iscritto? Clicca qui
© RIPRODUZIONE RISERVATA