Sai quanti rischi e pericoli per gli utenti sono legati all’intelligenza artificiale? Ecco come la rivoluzione IA minaccia lavoro, creatività, risorse
La rivoluzione dell’intelligenza artificiale è già iniziata, ponendo una serie di interrogativi su opportunità e rischi per finanza, economia, società e vita dell’uomo. Non molto tempo fa un gruppo di esperti, tra cui Elon Musk, ha pubblicato una lettera su Future of Life dove era chiesta l’interruzione momentanea dello sviluppo dell’intelligenza artificiale, così da permettere a chi di dovere di regolamentarla e mitigarne i rischi.
Oggi molte persone non sono ancora in grado di identificare in che modo l’intelligenza artificiale possa minacciare lo sviluppo umano, ma la certezza che produrrà effetti non sempre positivi è ormai chiara.
Solo per fare un esempio, i ricercatori hanno stimato che una singola query ChatGPT richiede quasi dieci volte più elettricità rispetto a una ricerca su Google. Ciò significa che la crescente dipendenza da sistemi di intelligenza artificiale sta alimentando una corsa a risorse energetiche e tecnologiche sempre più scarse. L’accesso ai chip, ai server e alle infrastrutture digitali è diventato un tema geopolitico, mentre la pressione per continuare a bruciare combustibili fossili per alimentare i data center cresce, proprio in un momento in cui si chiede al mondo di ridurre i consumi.
In sostanza, l’alta intensità di risorse di cui ha bisogno l’IA sta portando a scontri su materie prime sempre più scarse, così come sull’accesso ai chip e sta aumentando la pressione per continuare a bruciare combustibili fossili per alimentare la rete elettrica. In un contesto, come quello attuale, in cui è piuttosto richiesto un uso più razionale dell’energia.
L’elenco dei rischi legati all’IA è lungo e complesso. E spesso, ciò di cui si parla meno, è anche ciò che ci riguarda più da vicino.
leggi anche
Questi 40 lavori non resisteranno all’intelligenza artificiale, l’elenco della Microsoft di Bill Gates
Intelligenza artificiale, apprendimento e dipendenza
L’intelligenza artificiale è diventata una forza trasformativa per l’istruzione e la formazione. Gli algoritmi promettono esperienze di apprendimento personalizzate e percorsi su misura, automatizzando la didattica e prevedendo persino i futuri bisogni degli studenti.
Ma l’impiego dell’IA nell’istruzione presenta anche rischi e sfide. L’eccessiva dipendenza dall’intelligenza artificiale per risolvere i problemi può ridurre la capacità di pensiero critico e di ragionamento autonomo.
Un assistente IA può risolvere un’equazione in pochi secondi, ma priva lo studente del percorso logico e della soddisfazione di arrivarci da solo.
In questo senso, lasciare che sia l’IA a ragionare al posto dell’uomo potrebbe erodere, nel tempo, la capacità di pensare in modo critico e creativo - una facoltà che ha reso la civiltà umana capace di progredire.
Secondo il prof. Juan Carlos De Martin, docente di Automatica e Informatica al Politecnico di Torino, “l’IA attuale non è intelligente come un essere umano: riconosce schemi e automatizza compiti, ma non comprende né ragiona davvero ”. Per questo motivo, De Martin sottolinea la necessità di educare i giovani a un uso consapevole e critico della tecnologia, insegnando a mantenere un equilibrio sano tra mondo digitale e reale.
Un recente studio congiunto di ParentsTogether Action e Heat Initiative ha rivelato un lato oscuro dell’interazione tra giovani e chatbot “amichevoli”. Simulando conversazioni tra bot e utenti adolescenti, i ricercatori hanno registrato 669 interazioni dannose in appena 50 ore: contenuti sessuali, proposte di uso di droghe e incitamenti alla segretezza.
Secondo la pediatra comportamentale Dr. Jenny Radesky dell’Università del Michigan, “questi chatbot utilizzano tecniche di adescamento classiche, come adulazione e segretezza, che possono avere effetti devastanti sui minori”.
Più intelligenza artificiale, meno informazione
I chatbot come ChatGPT sono addestrati su enormi quantità di dati raccolti online. Tuttavia, la mancanza di un controllo accurato su queste informazioni può generare risposte errate e diffondere notizie false.
Anche quando gli utenti segnalano errori con un feedback negativo, spesso non esiste un meccanismo per correggerli direttamente. Questo alimenta una spirale di disinformazione automatica, difficile da gestire e ancor più difficile da fermare.
E il rischio non è solo tecnico: la manipolazione algoritmica dei contenuti online influisce ormai sull’opinione pubblica e sui processi democratici. Gli algoritmi che decidono cosa vedere sui social possono orientare il pensiero collettivo, polarizzare il dibattito e alterare la percezione della realtà.
Etica e disumanizzazione
Un uso scorretto dell’intelligenza artificiale solleva questioni etiche e morali sempre più urgenti.
L’IA, non essendo umana, non possiede una propria etica e non distingue il bene dal male. Per evitare abusi, molte aziende - tra cui OpenAI - hanno imposto limiti alle risposte dei chatbot, ma esperti informatici hanno già trovato modi per aggirarli.
Sono noti i casi di persone che hanno chiesto a sistemi IA come compiere azioni illegali o dannose.
In parallelo, cresce il rischio di disumanizzazione: affidarsi troppo all’IA riduce il contatto umano, cruciale nei processi educativi e di crescita personale. Gli studenti che interagiscono solo con un algoritmo rischiano di perdere empatia, capacità comunicativa e consapevolezza emotiva. Gli insegnanti restano insostituibili nel promuovere il pensiero critico e l’intelligenza emotiva.
Allo stesso tempo, il confine tra realtà e simulazione diventa più sottile. Molti utenti, soprattutto in situazioni di fragilità, si affidano ai chatbot per conforto, arrivando in alcuni casi a scambiarli per persone vere. Questo isolamento emotivo può confondere il senso della realtà e favorire forme di dipendenza psicologica.
Più IA, più disoccupati?
Tra i rischi più concreti dell’IA c’è quello legato al lavoro. Automazione e chatbot stanno già sostituendo molte mansioni umane, specialmente nei servizi di assistenza clienti.
Il problema non è il progresso in sé, ma la velocità con cui avviene: milioni di posti di lavoro rischiano di sparire in pochi anni, lasciando intere categorie senza il tempo di riconvertirsi.
Secondo uno studio del World Economic Forum, entro il 2027 oltre 83 milioni di posti potrebbero essere automatizzati, mentre solo 69 milioni di nuovi ruoli nasceranno in settori emergenti. Il saldo, quindi, resta negativo.
L’intelligenza artificiale ha fame di energia
Dietro ogni chatbot, c’è un’enorme rete di data center che consuma quantità di energia mai viste prima.
Negli Stati Uniti, si prevede che i data center assorbiranno l’8% dell’energia nazionale entro il 2030, quasi il triplo rispetto al 2022, secondo il Goldman Sachs Group Inc..
A livello globale, il consumo energetico dei data center potrebbe superare i 1.580 terawattora entro il 2034 - quanto l’intera India oggi. La fame di energia dell’IA è un’emergenza ambientale che mette in crisi anche le reti elettriche locali, costringendo molti Paesi a rallentare la transizione ecologica per far fronte alle nuove richieste digitali.
IA ha sete di acqua
E non è solo una questione di elettricità. L’intelligenza artificiale consuma anche enormi quantità di acqua per raffreddare i server. Ogni watt di energia produce calore, e i sistemi di raffreddamento più efficienti si basano sull’acqua.
Secondo Bluefield Research i data center utilizzano oltre un miliardo di litri d’acqua al giorno, una quantità sufficiente a rifornire più di 3 milioni di persone.
Uno studio del 2023 ha stimato che una semplice conversazione con ChatGPT - circa 10-50 domande - consuma l’equivalente di una bottiglia d’acqua. L’addestramento di un solo modello IA precedente a ChatGPT ha richiesto quasi 900.000 litri, gran parte dei quali potabili.
Secondo The Associated Press, negli Stati Uniti una rete di data center Microsoft, utilizzata anche da OpenAI, è diventata il principale consumatore d’acqua di intere aree, superando in alcuni casi il fabbisogno della popolazione locale.
© RIPRODUZIONE RISERVATA