Perché l’intelligenza artificiale è come un grande grattacielo

Dario Colombo

11/03/2023

24/04/2023 - 12:31

condividi

Il senso del grande cambiamento in atto, iniziato con la diffusione dell’intelligenza artificiale generativa, in un’intervista a Maurizio Sanarico, Chief Data Scientist di SDG Group

Perché l’intelligenza artificiale è come un grande grattacielo

Maurizio Sanarico è Chief Data Scientist di SDG Group, è un grande esperto di dati, sperimentatore di nuove tecnologie e di nuovi modelli progettuali.

In vista della AI Week 2023 (dal 17 al 21 aprile) ci siamo rivolti a lui per capire la dimensione e la qualità del grande cambiamento in atto, che è iniziato quando (era la fine di novembre dello scorso anno) l’intelligenza artificiale generativa, quella di ChatGpt per capirci, è diventata alla portata di tutti.

Ci siamo interrogati insieme sul modo in cui l’intelligenza artificiale cambia i progetti data driven e di conseguenza come cambia il modo di fare consulenza alle aziende; su un futuro fatto di graph analytics, continuous intelligence e quantum AI; sui nuovi paradigmi di ricerca e sviluppo che vengono dettati dall’intelligenza artificiale, sulle competenze che servono e, in modo più alto, sul senso del progresso umano.

Nel farlo abbiamo scoperto che la visione di un data scientist è per nulla meramente numerica, piuttosto sa essere molto immaginifica.

E allora ci sta il paragone dell’intelligenza generativa con un grattacielo, così come la valorizzazione dell’intelligenza mediterranea e il riferimento all’esposoma. Leggere per credere.

Come cambia il modo di fare consulting e fare progetti data driven con l’intelligenza artificiale?

Il cambiamento principale risiede nella necessità di coniugare un insieme di competenze eterogenee, nel supportare il cambio culturale, in particolare nella capacità di spiegare l’intelligenza artificiale (explanable AI) ad attori diversi, non solo per farla accettare, ma anche per valorizzare il contributo che ciascuno di essi può apportare.

Come pensiero collaterale, vorrei smitizzare i Foundation Models in generale.
Sono fantastici perché permettono di rispondere a molte domande, generare codice funzionante per problemi limitati, fare tante cose utili ma non costituiscono un cambio di paradigma verso l’Intelligenza Artificiale Generale.

Io paragono GPT3 (e ChatGPT3), LlaMA, PaLM e derivati a ingegnose e grandi opere di ingegneria, paragonabili a un grande grattacielo.

Giusto per completare l’analogia, le Torri Petronas per essere costruite hanno dovuto attendere l’invenzione di un nuovo tipo di cemento, dopodiché i principi costruttivi sono stati quelli delle scienze delle costruzioni.

In questo caso abbiamo i transformer (modelli di apprendimento automatico specializzati nell’elaborazione e nell’interpretazione di dati sequenziali - ndr.) a svolgere il ruolo del cemento.

Dal punto di vista del consulting abbiamo strumenti per accelerare determinate attività e, utilizzando prompt ben costruiti, ottenere risposte utili e rapide a domande di business contemplate nello spazio dei dati di training.

Cloud, analytics, data management, dataops, metadata, sono di estrema attualità per la trasformazione digitale, ma oggi sembrano quasi il passato. Alle porte si sono la Graph analytics, continuous intelligence e quantum AI, c’è il futuro. Cosa sono queste tecnologie e cosa potrà arrivare ancora?

In realtà si tratta dell’estensione di paradigmi esistenti a strutture dati più complesse (network, siano esse macromolecole, reti sociali, pathway metabolici, o altro).
La continuous intelligence è l’estensione di un principio di MLOps con la limitata capacità di modificare le regole di apprendimento.
Le reti basate su Neural Operators (di Anima Anandkumar) e le Macchine Parametriche (di Bergomi e Vertechi) sono avanzamenti più interessanti e da seguire con attenzione, sia per la componente di innovazione teorica, sia per le performance.

Il quantum computing in generale e Quantum AI in particolare per ora sono ristretti a un limitato set di applicazioni, interessante per esempio OpenFermion di Google, primo ambiente open source di quantum computing.

Le applicazioni generaliste sono ancora alla finestra. Dal punto di vista fisico computazionale sia un sistema quantistico, sia un sistema classico obbediscono alla legge di Church-Turing, solo che il primo potrebbe essere estremamente più rapido, permettendo di risolvere problemi oggi impossibili dal punto di vista computazionale.

Cambia anche il modo di fare ricerca e sviluppo? Come sono i nuovi paradigmi R&D dettati dell’intelligenza artificiale?

In questo caso l’intelligenza artificiale permette un’accelerazione che si può definire un salto qualitativo oltre che quantitativo.
Un esempio: nell’analisi causale il controllo dei fattori di confondimento nel paradigma classico si basa su metodi relativamente rigidi (modelli parametrici, matching e propensity matching, spesso combinati), mentre l’intelligenza artificiale generativa permette l’uso di GAN (Generative Adversarial Network) specializzate per questo motivo, nel quale le strutture relazionali tra osservabili e trattamenti (l’oggetto della ricerca di causalità) sono estremamente flessibili e persino dinamiche.

Ancora: dati sintetici realistici per effettuare training su data set ricostruibili, capacità di combinare dati multi-modali e multi-frequenza per derivare lo stato di salute di pazienti monitorati, tenendo conto di dati ambientali e del loro impatto sugli organismi, ossia l’esposoma (concetto definito nel 2005 dall’epidemiologo Christopher Wild, per indicare la globalità dell’esposizione ambientale a partire dalle origini della vita nel determinare le condizioni di salute di un individuio - ndr.) sono solo alcuni degli esempi, per non dover ripetere cose che si trovano spesso sui media.

Le cosiddette physics-informed neural networks sono un altro importante contributo dell’intelligenza artificiale alla ricerca.

Quali competenze e risorse servono oggi a un’azienda per fare progetti con intelligenza artificiale? Come le costruisce, o dove le trova?

Come tutte le attività complesse si richiedono competenze e risorse composite, dall’esperto che conosce in modo approfondito gli algoritmi, la teoria e la pratica, fino ad arrivare a un profilo capace di applicare gli algoritmi e di studiare i dati, guidato da figure più esperte, senza entrare in profondità ma consapevole del loro significato e ambito di validità.
Nel mezzo ci sono esperti che coprono lo spettro delle competenze intermedie.

La grandezza dell’intelligenza artificiale sta nell’essere una metafora del secolare progresso umano, con la capacità che ha di mettere insieme temi tecnologici, economici, etici e normativi. Ne esiste uno che predomina? Qual è il suo pensiero al riguardo?

Attualmente, come facile attendersi, domina l’aspetto algoritmico, incarnato nel software. In un futuro più maturo e, spero, in divenire, si parlerà di Humanist AI, nella direzione dell’Human-centered AI di Stanford.
Tuttavia, ritengo che si debba recuperare una ricchezza culturale mediterranea nel contribuire a questa direzione in modo originale.

Ci si riuscirà?

Io spero di si.

Per approfondire la propria conoscenza sull’intelligenza artificiale un’ottima occasione è la AI Week 2023 (dal 17 al 19 aprile online e il 20 e 21 alla Fiera di Rimini). Il business ticket costa 257 euro e il Vip ticket 397 euro.
Ma ci si può iscrivere e risparmiare il 20% sul pass utilizzando il codice sconto offerto da Money.it, MONEY20.

Iscriviti a Money.it

SONDAGGIO