Intelligenza artificiale, chi la vuole fermare e perché

Dario Colombo

1 Aprile 2023 - 16:42

condividi

L’intelligenza artificiale è davvero un pericolo per l’umanità e va fermata? Intanto il Garante della Privacy ha posto un limite a ChatGpt. Ne abbiamo parlato con Pasquale Viscanti della AI Week.

Intelligenza artificiale, chi la vuole fermare e perché

L’intelligenza artificiale è un pericolo per l’umanità: lo dice una lettera-appello del Future For Life Institute, firmata da quasi duemila personalità della scienza, della tecnologia, dell’imprenditoria, della politica, fra cui Elon Musk, Steve Wozniak (co-fondatore di Apple insieme a Steve Jobs), Gary Markus (Università di New York), il computer scientist Yoshua Bengio, Yuval Noah Harari, autore di Sapiens, Emad Mostaque, ceo di Stability AI (concorrente di Open AI).

L’iniziativa pone all’attenzione un’intelligenza artificiale che sarebbe fuori controllo e potrebbe diventarlo sempre di più senza interventi regolatori, da farsi entro sei mesi non prima di aver qualsiasi sviluppo degli algoritmi.

Ne parlano tutti e noi ne ne abbiamo parlato con Pasquale Viscanti, in qualità di divulgatore di intelligenza artificiale da tempi non sospetti, con il progetto AI Spiegata semplice e ideatore insieme a Giacinto Fiore della settimana dell’intelligenza artificiale, la AI Week.

L’appello del Future For Life Institute è stato, ieri, sorpassato nella cronaca dall’altolà italiano a ChatGPT finché non rispetterà la disciplina della privacy. Il Garante per la protezione dei dati personali, Pasquale Stanzione, ha infatti disposto, con effetto immediato, la limitazione del trattamento dei dati degli utenti italiani da parte di OpenAI, aprendo un’istruttoria.

Intelligenza artificiale e Grarante della Privacy

Il Garante della Privacy lo ha fatto perché ha rilevato la mancanza di una corretta informativa agli utenti i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione di dati personali allo scopo di addestrare gli algoritmi che fanno funzionare la piattaforma.
E per tutta risposta OpenAI ha interrotto il servizio di ChatGPT in Italia.

L’iniziativa del Garante della Privacy si collega direttamente al contenuto della lettera-appello del Future For Life Institute, che va oltre l’aspetto della privacy e si spinge a dire che l’intelligenza artificiale può comportare il grave rischio della la perdita di controllo da parte della civiltà.

Una minaccia a fronte della quale il tema del cambiamento o, peggio, della sparizione del lavoro, che sinora ha tenuto banco come principale rischio dell’intelligenza artificiale, è passato in secondo piano.

Va da sé che è stato lo stesso Sam Altman, ceo di OpenAI non più tardi di un mese fa, in un’intervista ad ABC News a dirsi consapevole della necessità di regolamentare un’intelligenza artificiale che dimostra di poter accelerare il cambiamento in modo inaspettato.

Intelligenza artificiale e Big Tech

La lettera pare indirizzata soprattutto alle Big Tech, che hanno investito decine, se non centinaia di miliardi di dollari nell’intelligenza artificiale, e contemporaneamente hanno licenziato i loro team di etica: prima Meta, poi Twitter (ancora una volta, le contraddizioni di Elon Musk), poi Microsoft e Google.

Il tema allora è che esiste un oligopolio dell’intelligenza artificiale. E, aggiungiamo, un oligopolio dal quale Elon Musk pare sentirsi escluso, perché è vero che aveva partecipato alla fase iniziale di OpenAI, ma si è fermato e ora sembra che recrimini.

L’aveva fondata nel 2015 per focalizzarsi sugli impatti positivi dell’intelligenza artificiale, a vantaggio di tutti, in ottica no profit, nel 2018 la voleva controllare, ma l’opposizione di Sam Altman lo ha fatto ritirare, trovando 1 miliardo di dollari da Microsoft per finanziare gli sviluppi che hanno portato a ChatGPT. Il resto è storia recente, i miliardi di Microsoft sono diventati 10 e ChatGPT ha raggiunto 100 milioni di utenti in 2 mesi.

La lettera-appello parla di darsi delle regole. Ma in Europa si sta già cercando di farlo, ci si sta già lavorando dal 2021 con l’AI Act, un framework di regolamenti pensato come un sistema di valutazione dei rischi dell’intelligenza artificiale, che prevede il divieto degli utilizzi pericolosi.

Il problema finale dell’intelligenza artificiale non è tecnologico, ma umano, per questo si parla di algoretica. E con Pasquale Viscanti abbiamo ricordato le parole di Papa Francesco: «Non possiamo permettere che gli algoritmi limitino o condizionino il rispetto della dignità umana».

Iscriviti a Money.it