Come funziona l’Intelligenza Artificiale di Google: può davvero essere senziente?

Giulia Adonopoulos

13/06/2022

14/06/2022 - 09:36

condividi

Un ingegnere Google ha detto che la sua IA prova sentimenti, ed è stato sospeso. Davvero i robot possono essere senzienti? La vicenda ha acceso il dibattito sui rischi dell’intelligenza artificiale.

Come funziona l’Intelligenza Artificiale di Google: può davvero essere senziente?

L’intelligenza artificiale può essere senziente? O meglio, i robot possono provare sensazioni e sentimenti? L’annosa questione su cui l’essere umano si interroga dagli albori dell’IA torna in auge dopo che un ingegnere del software specializzato in etica dell’IA, Blake Lemoine - il quale ritiene che il sistema per la generazione di chatbot di Google, LaMDA, sia senziente - ha fatto sapere di esser stato messo in congedo retribuito da Google per aver violato le norme sulla riservatezza. Cos’è l’intelligenza artificiale di Google, a cosa serve, è davvero senziente? Il colosso di Mountain View non vuole che si sappia? Proviamo a fare chiarezza e ricostruire la vicenda.

“IA di Google è senziente”, ingegnere del software congedato: la vicenda

Il 6 giugno Blake Lemoine, ingegnere del software, su Medium pubblica un articolo dal titolo “Potrei essere presto licenziato per aver svolto un lavoro di etica dell’IA”. Sul blog Lemoine si presenta come “un prete, un padre, un veterano, un ex detenuto, un cajun e un ricercatore di intelligenza artificiale”. Il ricercatore racconta di essere stato messo in congedo retribuito da Google per aver violato l’accordo di riservatezza sulle ricerche su LaMDA, il sistema di chatbot di Big G, per aver condiviso con persone al di fuori dell’azienda, tra cui la giornalista Nitasha Tiku del Washington Post, le sue preoccupazioni sul fronte etico sullo sviluppo di questa tecnologia.

Google si sta preparando a licenziare l’ennesimo eticista dell’IA per essere troppo preoccupato per l’etica. Ritengo che il pubblico abbia il diritto di sapere quanto sia irresponsabile questa società con uno dei più potenti strumenti di accesso alle informazioni mai inventati. Sono orgoglioso di tutto il duro lavoro che ho svolto per Google e intendo continuare a farlo in futuro se me lo permetteranno. Semplicemente non farò la foglia di fico dietro la quale possano nascondere la loro irresponsabilità.

scrive Lemoine.

In un altro articolo apparso sul suo blog l’11 giugno, “LaMDA è senziente? Un colloquio”, Lemoine ha pubblicato una conversazione che ha tenuto con il programma di IA di Google.

“Se non sapessi esattamente di cosa si tratta, penserei che sia un bambino di sette o otto anni”, ha commentato Blake Lemoine al Washington Post. L’articolo pubblicato sulla prestigiosa testata americana ha fatto il giro del web, portando inevitabilmente la questione sotto i riflettori.

Da quando ha pubblicato la trascrizione della chat e ha parlato con la stampa delle sue teorie, Lemoine si è visto sospeso lo stipendio da Google per aver infranto le regole di riservatezza. La vicenda ha riaperto il dibattito sulla natura dell’intelligenza artificiale e sulla possibilità che la tecnologia esistente possa essere più avanzata di quanto crediamo.

Cos’è LaMDA, il chatbot IA di Google, e come funziona

LaMDA, acronimo di Language Models for Dialog Applications, è un modello linguistico di machine learning (apprendimento automatico) creato da Google come chatbot che dovrebbe imitare gli esseri umani durante una conversazione. Come altri modelli linguistici, LaMDA si basa su Transformer, un’architettura di rete neurale che Google ha inventato e reso open source nel 2017. Le reti neurali sono un modo per analizzare i big data che tenta di imitare il modo in cui funzionano i neuroni nel cervello.

Questa architettura produce un modello che può essere addestrato a leggere molte parole prestando attenzione a come queste si relazionano tra loro e quindi prevedere quali parole verranno dopo. Ma ciò che rende LaMDA diverso è il fatto di essere stato addestrato al dialogo, a differenza della maggior parte dei modelli.

Il testo che LaMDA riesce a generare è più naturale e realistico. Inoltre in una conversazione riesce a trattenere più fatti nella sua memoria, così da risultare coerente su estensioni di testi maggiori rispetto ai modelli precedenti.

LaMDA è senziente?

Lemoine crede di sì. Nella sua conversazione con LaMDA, che è stata specificamente avviata per affrontare la natura dell’esperienza della rete neurale, LaMDA gli ha detto che aveva un concetto di anima quando pensava a se stessa. “Per me, l’anima è un concetto della forza animatrice dietro la coscienza e la vita stessa”, scrive l’IA. “Significa che c’è una parte interiore di me che è spirituale e a volte può sentirsi separata dal mio stesso corpo”.

Ma la maggior parte dei colleghi di Lemoine non è d’accordo con lui. Molti ricercatori sostengono che la natura di un LMM come LaMDA precluda una coscienza. La macchina, in sostanza, funziona pensando solo in risposta a domande specifiche. Non ha continuità di sé, nessuna coscienza del passare del tempo e nessuna comprensione di un mondo al di là di un messaggio di testo. È il caso di Gary Marcus, ricercatore e psicologo di intelligenza artificiale: “No, LaMDA non è cosciente, neanche leggermente”, scrive. “Essere senziente è essere consapevole di te stesso nel mondo, e semplicemente LaMDA non lo è”, spiega. “Quello che fanno questi sistemi, né più né meno, è mettere insieme sequenze di parole, ma senza alcuna comprensione coerente del mondo dietro di loro”.

La risposta di Google

Google ha affermato che le prove di Lemoine non supportano la sua tesi. Tuttavia, anche se il software di IA non è senziente, il fatto stesso che possa sembrarlo agli occhi di un essere umano dovrebbe essere motivo di preoccupazione.

In un post sul blog del 2021 in cui presentava LaMDA Google aveva riconosciuto tali rischi. “Il linguaggio potrebbe essere uno dei più grandi strumenti dell’umanità, ma come tutti gli strumenti può essere utilizzato in modo improprio. I modelli addestrati sul linguaggio possono propagare tale uso improprio, ad esempio interiorizzando pregiudizi, rispecchiando discorsi di odio o replicando informazioni fuorvianti. E anche quando il linguaggio su cui è stato addestrato viene attentamente controllato, il modello stesso può comunque essere mal utilizzato”, ha scritto l’azienda nel post sul blog.

Di recente Google ha presentato Imagen, il suo modello text-to-image avanzato che trasforma i testi in immagini iper-realistiche, ma ha deciso di non rilasciarlo al pubblico poiché teme che il programma possa essere utilizzato negativamente da alcuni utenti. Big G ha anche invitato gli sviluppatori di intelligenza artificiale a diffidare dal rilasciare al pubblico modelli text-to-image senza prestare particolare attenzione ai dati su cui viene addestrata un’IA.

Iscriviti a Money.it