Demis Hassabis, CEO di Google DeepMind, mette in guardia sui veri rischi dell’intelligenza artificiale: se utilizzata in modo sbagliato, può indebolire il pensiero critico.
L’intelligenza artificiale può renderci più brillanti oppure, al contrario, indebolire la nostra capacità di ragionare in modo autonomo. La differenza, secondo Demis Hassabis, dipende interamente da come scegliamo di utilizzarla.
Durante un’intervista concessa all’imprenditore Varun Mayya nel corso dell’India AI Impact Summit, il CEO di Google DeepMind ha paragonato l’AI a Internet: uno strumento che può essere utilizzato per approfondire qualsiasi argomento oppure in modo tale da compromettere la qualità del ragionamento.
Se impiegata con superficialità, ha spiegato, l’intelligenza artificiale può peggiorare il pensiero critico. La responsabilità, ha sottolineato, è individuale. Nessuno può sostituirsi alla persona nella scelta di utilizzare questi strumenti per rafforzare le proprie capacità cognitive anziché indebolirle.
leggi anche
L’India ospita il vertice mondiale sull’intelligenza artificiale. Ma Jensen Huang (Nvidia) non ci sarà
Dalla fondazione di DeepMind al Nobel per la Chimica
Hassabis ha cofondato DeepMind nel 2010 con l’obiettivo dichiarato di sviluppare un’intelligenza artificiale generale, capace di apprendere e ragionare in modo flessibile. Fin dall’inizio il progetto ha unito neuroscienze, informatica e psicologia cognitiva, con l’ambizione di replicare alcuni meccanismi dell’intelligenza umana attraverso reti neurali avanzate e sistemi di apprendimento per rinforzo.
Nel 2014 DeepMind è stata acquisita da Google, un’operazione che ha segnato uno dei passaggi più rilevanti nella corsa globale all’AI. L’ingresso nell’orbita del colosso tecnologico ha garantito al laboratorio risorse finanziarie e infrastrutturali decisive per accelerare la ricerca.
La svolta mediatica e scientifica arriva nel 2016 con AlphaGo, il programma sviluppato da DeepMind per giocare a “Go”, un antico gioco da tavolo cinese considerato estremamente complesso per via dell’enorme numero di possibili combinazioni di mosse, superiore a quello degli scacchi. A differenza dei software tradizionali basati su calcoli esaustivi, AlphaGo combinava reti neurali profonde e apprendimento per rinforzo.
Nel 2023 DeepMind si è fusa poi con Google Brain, dando vita a Google DeepMind, unificando sotto un’unica struttura le principali attività di ricerca avanzata del gruppo. Oggi il laboratorio è alla base dello sviluppo dei modelli multimodali come Gemini e delle applicazioni integrate nei servizi Google.
Nel 2024 Hassabis e il collega John Jumper hanno ricevuto il Premio Nobel per la Chimica per il lavoro sulla previsione della struttura delle proteine, grazie ai progressi compiuti con i modelli di DeepMind. Il riconoscimento ha sancito l’impatto della ricerca sull’AI anche al di fuori dell’ambito strettamente tecnologico, con ricadute dirette nel campo della biologia e della medicina.
Il dibattito sull’AI tra i leader tecnologici
Con l’integrazione crescente dell’intelligenza artificiale nella vita quotidiana, il confronto sui suoi effetti si è intensificato. Diversi esponenti del settore tecnologico hanno richiamato l’attenzione sui rischi di una dipendenza eccessiva dagli strumenti generativi.
In un post su X, il miliardario statunitense Mark Cuban ha affermato che esistono due categorie di utenti dei modelli linguistici. C’è chi li utilizza per imparare il più possibile e chi li sfrutta per evitare di apprendere: “In genere ci sono due tipi di utenti LLM: quelli che lo usano per imparare tutto e quelli che lo usano per non dover imparare nulla”. In precedenza Cuban aveva definito questi sistemi incapaci di fornire tutte le risposte, descrivendoli come “stupidi” sotto alcuni aspetti ma dotati di una memoria straordinaria.
Anche Arthur Mensch, CEO della società francese Mistral AI, ha messo in guardia dai rischi di un utilizzo totalizzante dell’intelligenza artificiale. Lo scorso giugno, durante un intervento pubblico, ha dichiarato che il pericolo principale non è che l’AI diventi incontrollabile o superi l’uomo, ma che renda le persone troppo dipendenti e meno inclini a pensare o agire in autonomia:
“Il rischio più grande dell’intelligenza artificiale non è che ci superi in astuzia o diventi incontrollabile, ma che ci renda troppo comodi, troppo dipendenti e, in definitiva, troppo pigri per pensare o agire da soli”.
leggi anche
Cos’è l’AI washing e come riconoscerlo
© RIPRODUZIONE RISERVATA