L’Italia approva la prima legge dedicata all’intelligenza artificiale. Per le imprese ci saranno vantaggi, ma anche grandi sfide da affrontare. Ecco quali sono.
L’Italia ha approvato ufficialmente la sua prima legge dedicata all’intelligenza artificiale, una normativa che si affianca all’AI Act europeo e che segna un passo importante nella regolamentazione di una tecnologia ormai entrata in modo strutturale nell’economia e nella società del nostro Paese.
Con 77 voti favorevoli, 5 contrari e 2 astensioni al Senato, il Belpaese diventa così il primo Stato membro dell’Unione Europea ad approvare una legge nazionale sull’AI.
Per le imprese, questo nuovo quadro normativo offre un ventaglio di grandi opportunità e - allo stesso tempo - impone il rispetto di regole precise e l’assunzione di nuove responsabilità. Ecco cosa c’è da sapere.
Quali sono le differenze tra il DDL AI italiano e l’AI Act europeo?
Entrato ufficialmente in vigore dal 1 agosto 2025, l’AI Act è la proposta di regolamentazione dell’Unione Europea per disciplinare l’uso dell’intelligenza artificiale con l’obiettivo di tutelare i diritti fondamentali dei cittadini. Il punto cardine dell’AI Act risiede nella classificazione di quattro livelli di rischio - inaccettabile, alto, limitato e minimo - per lo sviluppo e l’utilizzo dell’intelligenza artificiale.
Il nuovo DDL italiano, composto da 28 articoli, mira a completare la legge UE con l’obiettivo di garantire un utilizzo dell’intelligenza artificiale etico, sicuro e in grado di favorire strategie innovative capaci di sostenere la competitività delle imprese italiane.
Per garantire il rispetto delle normative, la legge ha affidato all’Agenzia per la Cybersicurezza Nazionale (ACN) la vigilanza sulla sicurezza dei sistemi e all’Agenzia per l’Italia Digitale (AgID) la gestione delle notifiche e la promozione di usi sicuri dell’intelligenza artificiale.
Inoltre, la Strategia nazionale per l’intelligenza artificiale, aggiornata ogni due anni dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio con il supporto delle due agenzie, sarà sottoposta a monitoraggio annuale del Parlamento. Per favorire l’adozione del nuovo DDL è previsto anche un piano di investimenti da 1 miliardo di euro a sostegno di startup e piccole e medie imprese nei settori di intelligenza artificiale, cybersecurity e tecnologie emergenti.
Cosa cambia per le imprese italiane?
Per le aziende, questo nuovo quadro normativo può rappresentare un’arma a doppio taglio, che da una parte favorisce grandi opportunità di sviluppo, ma dall’altra propone anche sfide complesse in termini di governance, trasparenza e responsabilità.
La legge ha fissato una roadmap chiara e con tempi stretti: entro un anno il Governo dovrà approvare i decreti attuativi che definiranno strumenti concreti e relative sanzioni. In questo breve arco di tempo, le aziende dovranno agire tempestivamente per mettersi in regola. Ecco quali sono le novità principali:.
Governance aziendale
Dal punto di vista della governance, il nuovo DDL richiede di rafforzare i ruoli interni dedicati all’intelligenza artificiale. Le imprese dovranno nominare responsabili della compliance AI, integrare i rischi legati all’AI nei sistemi di gestione del rischio e nei report destinati al consiglio di amministrazione, rivedere i processi di acquisto per includere criteri di sicurezza e trasparenza e prestare maggiore attenzione ai fornitori esterni, introducendo verifiche preventive, clausole contrattuali per audit, ispezioni e specifici requisiti assicurativi.
Inoltre, le aziende quotate in borsa o che puntano a ottenere fondi pubblici avranno la responsabilità di dimostrare un utilizzo trasparente dell’AI per mantenere la fiducia degli investitori istituzionali.
La legge prevede infine che le controversie rilevanti in materia di dati e algoritmi possano essere affidate a sezioni specializzate in diritto d’impresa. Così, l’intelligenza artificiale si prepara a diventare un settore specifico del diritto commerciale e civile.
leggi anche
L’IA ruberà il tuo lavoro? Il sondaggio

Responsabilità
Un altro tema centrale è quello della responsabilità. Le aziende che adottano sistemi di AI dovranno garantirne l’affidabilità e dimostrare la qualità e la sicurezza dei dati utilizzati. A questo scopo, il DDL introduce la possibilità di ispezioni senza preavviso e, soprattutto, di sanzioni in caso di mancato rispetto degli standard.
Per evitare brutte sorprese, sarà quindi fondamentale investire in tecnologie e servizi di governance come MLOps, data lineage e tool di explainability. In questo modo, in caso di ispezione, sarà possibile mostrare processi di audit interni ed esterni, registri tecnici, log di funzionamento e procedure di test.
Inoltre, le imprese sono tenute a informare le autorità competenti nel caso in cui un sistema automatizzato venga utilizzato in decisioni che riguardano clienti o cittadini, specificando limiti, margini di errore e grado di autonomia dei modelli impiegati.
Per quanto riguarda la responsabilità civile, penale e amministrativa, la legge mira a riequilibrare l’onere della prova e a rafforzare le tutele per chi subisce danni. Sarà quindi il Governo a stabilire criteri di imputazione, regole sui risarcimenti e modalità di ripartizione della prova, in coerenza con la classificazione dei sistemi AI prevista dall’AI Act europeo.
Nonostante le sanzioni non siano ancora state definite, le imprese possono già muoversi in anticipo per controllare che contratti, indennizzi e polizze assicurative siano effettivamente in regola.
Lavoro
Le nuove regole sull’uso dell’intelligenza artificiale impatteranno profondamente anche sul mondo del lavoro. Le aziende saranno tenute a informare i lavoratori quando utilizzano l’AI, garantendo che i sistemi non ledano dignità e privacy dei dipendenti. A tutelare gli impiegati ci sarà anche un Osservatorio istituito presso il Ministero del Lavoro incaricato di monitorare l’impatto occupazionale.
Per il DDL italiano, è fondamentale assicurare che, nonostante la promozione dell’utilizzo dell’AI in ambito lavorativo, i dipendenti non vengano sostituiti dall’intelligenza artificiale. Al contrario, la legge promette il rafforzamento del capitale umano e la possibilità di nuove opportunità di impiego.
In concreto, le imprese dovranno aggiornare le policy interne di gestione del personale e della privacy, valutare i rischi etici e normativi legati ad algoritmi usati per i processi di selezione, scheduling o people analytics e investire in percorsi di riqualificazione e nuove competenze - sia nei team tecnici che manageriali - insieme agli enti di formazione.
Un ruolo chiave lo avranno, ovviamente, anche i sindacati, che controlleranno i processi di consultazione e gestione delle trasformazioni organizzative portate dall’automazione.
Investimenti per startup e PMI
Sul fronte degli investimenti, la legge prevede la creazione di fondi e incentivi per sostenere l’adozione dell’intelligenza artificiale, con un’attenzione particolare alle startup e ai progetti di venture capital.
Per il tessuto imprenditoriale italiano, caratterizzato da una forte presenza di piccole e medie imprese, questo rappresenta un’opportunità ma anche un banco di prova. Adeguarsi ai nuovi standard può essere costoso e - senza adeguato supporto - il rischio è che le PMI restino indietro.
Le categorie di rischio definite dall’AI Act
Come anticipato, il provvedimento europeo - in cui si inserisce ora anche quello italiano - introduce un sistema di classificazione dei sistemi di intelligenza artificiale in base a quattro livelli di rischio. I sistemi di AI a rischio inaccettabile violano i valori fondamentali dell’UE - come dignità, democrazia e stato di diritto - e sono quindi vietati o fortemente limitati, come quelli che manipolano il comportamento umano contro la volontà dell’utente o consentono lo scoring sociale (un sistema AI che valuta o classifica persone in base al comportamento sociale, caratteristiche personali o tratti della personalità).
I sistemi ad alto rischio hanno un impatto significativo sui diritti o sulla sicurezza delle persone e devono rispettare rigidi obblighi prima dell’uso. In questa categoria rientrano applicazioni come la selezione del personale, l’istruzione, i servizi sociali essenziali, la sorveglianza biometrica a distanza, l’ambito giudiziario e la gestione della sicurezza critica delle infrastrutture.
I sistemi a rischio limitato arrecano potenziali danni agli utenti in misura minore, ma devono comunque garantire trasparenza, ad esempio nelle chatbot o nei contenuti generati dall’AI come i deepfake. Infine, i sistemi a rischio minimo non incidono sui diritti o sulla sicurezza e sono liberi da obblighi normativi, come nel caso dei videogiochi o dei filtri fotografici.
© RIPRODUZIONE RISERVATA