Gli errori umani che confondono l’intelligenza artificiale: come usiamo male i chatbot

John Thornhill

2 Agosto 2025 - 06:42

Il modo in cui gli utenti usano un prodotto nel mondo reale può divergere enormemente da ciò che i progettisti avevano previsto.

Gli errori umani che confondono l’intelligenza artificiale: come usiamo male i chatbot

Una mia parente ha sentito storie strane mentre lavorava a una linea di assistenza sanitaria durante la pandemia di Covid. Il suo compito era aiutare le persone a eseguire i test rapidi antigenici, usati milioni di volte durante il lockdown. Ma alcuni chiamanti erano chiaramente confusi dalla procedura. “Allora, ho bevuto il liquido nella provetta. E ora cosa devo fare?” chiese uno.

Questa confusione dell’utente può sembrare un esempio estremo di un problema tecnologico comune: il modo in cui le persone comuni usano un prodotto o servizio nel mondo reale può divergere enormemente dalle intenzioni dei progettisti in laboratorio.

A volte questo uso improprio può essere intenzionale, nel bene o nel male. Ad esempio, l’organizzazione Reporters Without Borders ha cercato di proteggere la libertà di parola in vari paesi autoritari nascondendo contenuti vietati nel server del videogioco Minecraft. I criminali, nel frattempo, hanno utilizzato stampanti 3D domestiche per fabbricare armi non tracciabili. Più spesso, però, l’uso improprio è involontario, come nel caso dei test Covid. Possiamo chiamarlo il problema dell’uso involontario improprio, o “imp” in breve. I nuovi gremlins nelle macchine potrebbero essere proprio gli imp nei chatbot. [...]

Money

Questo articolo è riservato agli abbonati

Abbonati ora oppure Prova senza abbonamento

Accedi ai contenuti riservati

Navighi con pubblicità ridotta

Ottieni sconti su prodotti e servizi

Disdici quando vuoi

Sei già iscritto? Clicca qui

​ ​

Iscriviti a Money.it

SONDAGGIO