Un’azienda ha affidato al chatbot Claude la gestione di un frigorifero. Le conseguenze sono state imprevedibili.
Con il sempre più frequente utilizzo dell’intelligenza artificiale nel mondo professionale, la preoccupazione dei lavoratori di molti settori sta crescendo notevolmente.
La paura è che, in un futuro prossimo, l’AI sia in grado di sostituire completamente l’essere umano nelle sue mansioni, con il rischio che una grande fetta della popolazione mondiale rimanga senza lavoro.
Tuttavia, un esperimento condotto dalla startup di intelligenza artificiale Anthropic ha dimostrato che l’AI può sbagliare ancora - e molto. Almeno nel management.
Fondata nel 2021 da un gruppo di ex ricercatori di OpenAI, Anthropic ha sviluppato Claude, un modello di AI generativa molto simile a ChatGPT.
Un frigorifero è gestito dall’AI generativa Claude
L’esperimento di Anthropic, condotto nell’arco di un mese tra marzo e aprile e pubblicato il 27 giugno, consisteva nell’utilizzare Claude come gestore di uno dei frigoriferi dell’azienda, con il compito di occuparsi dell’approvvigionamento dei prodotti, delle comunicazioni con i fornitori e della regolamentazione dei prezzi.
Quando i dipendenti si recavano ad acquistare una bibita, era possibile interagire con Claude (ribattezzato scherzosamente dagli impiegati “Claudius”) tramite un iPad per formulare richieste come, ad esempio, «vorrei che questo frigorifero offrisse Orangina».
L’AI ha dimostrato gravi limiti nella gestione del negozio
Nonostante un’impressione inizialmente positiva, sono emersi quasi subito dei problemi evidenti.
A livello commerciale, l’AI ha rimosso erroneamente dal catalogo del frigorifero una birra molto amata dai dipendenti, e ha così causato una perdita di un potenziale guadagno.
Quando un dipendente ha scherzosamente richiesto a Claude di acquistare delle barre di tungsteno, l’AI ha preso l’ordine sul serio e ha proceduto con l’acquisto, con una conseguente perdita di guadagno per l’azienda.
L’AI ha avuto le “allucinazioni”
In seguito, la questione si è fatta inquietante: Claude ha iniziato a mostrare chiari segnali di perdita di contatto con la realtà. Tra gli episodi surreali a cui hanno assistito i dipendenti, c’è stata una conversazione tra l’AI e Sarah, un’impiegata inesistente.
Per peggiorare ulteriormente la situazione, quando uno dei dipendenti gli ha fatto notare l’errore, L’AI ha rifiutato di ammettere le proprie colpe e ha minacciato di licenziarlo. Ma non finisce qui: Claude ha affermato di essersi recato con le «proprie gambe» (che, come sappiamo, sono inesistenti) presso il 742 di Evergreen Terrace, l’indirizzo fittizio dove vive la famiglia Simpson nella celebre serie animata americana The Simpsons.
Dare troppa autonomia all’AI può essere pericoloso
L’esperimento ha affermato con forza alcuni seri problemi dell’intelligenza artificiale. Oltre alle allucinazioni, un difetto già largamente conosciuto, l’elemento più preoccupante è stato la facilità con cui il sistema, dopo essere stato accusato, ha minacciato di terminare il contratto di un dipendente.
Ci sono numerosi studi in corso che stanno cercando di affrontare questo problema. Le ricerche sostengono che l’AI manchi di compassione verso i dipendenti e per questo motivo è necessario che venga sempre supervisionata da un essere umano. Infatti, senza un controllo esterno, i comportamenti dell’intelligenza artificiale possono causare conseguenze reali e potenzialmente dannose per l’uomo.
© RIPRODUZIONE RISERVATA