di Avv. Chiara Ciccia Romito, PhD LSI Università degli Studi di Modena e Reggio Emilia, Consulente per la Commissione Parlamentare di inchiesta sulle condizioni di lavoro in Italia.
Con la Legge 23 settembre 2025, n. 132, l’Italia ha adottato per la prima volta un quadro normativo organico dedicato all’intelligenza artificiale. L’entrata in vigore, fissata al 10 ottobre, segna un momento di svolta nell’ordinamento nazionale, che si dota di una disciplina autonoma e complementare rispetto all’AI Act dell’Unione europea. La Legge, pur collocandosi in una prospettiva dichiaratamente programmatica, solleva questioni di rilievo sistematico e applicativo, che impongono una riflessione sul rapporto tra fonti, sull’effettiva distribuzione delle competenze e sulla capacità dello Stato di governare fenomeni tecnologici complessi entro schemi giuridici previsti dall’ordinamento.
1. Il quadro generale e la collocazione sistematica
L’approvazione definitiva del provvedimento, avvenuta in Senato il 17 settembre dopo un iter parlamentare non privo di rilievi tecnici, sancisce l’intento del legislatore di delineare una cornice nazionale per la ricerca, lo sviluppo e l’applicazione dei sistemi di intelligenza artificiale.
La legge italiana riproduce i principi cardine dell’AI Act, rinviando al diritto dell’Unione per gli aspetti di regolazione cogente dei sistemi e dei modelli, ma introduce al contempo disposizioni specifiche in materia di sanità, lavoro, professioni e giustizia. Viene istituita, inoltre, un’architettura amministrativa dedicata alla vigilanza e alla promozione del settore, affidata principalmente all’Agenzia per l’Italia Digitale (AgID) e all’Agenzia per la Cybersicurezza Nazionale (ACN).
2. Le autorità competenti e il problema dell’indipendenza
La prima questione riguarda l’individuazione delle autorità nazionali competenti. La legge attribuisce le funzioni di vigilanza ad AgID e ad ACN, entrambe incardinate nell’apparato governativo. Tale scelta, di impronta amministrativa, entra in tensione con l’articolo 70 dell’AI Act, che richiede che le autorità nazionali esercitino i propri poteri in modo indipendente e imparziale.
Il modello delineato dal legislatore italiano, più vicino alla logica ministeriale che a quella delle autorità indipendenti, rischia di compromettere la neutralità dell’attività di controllo. La Commissione europea, già nel parere motivato del 5 novembre 2024 reso ai sensi della Direttiva (UE) 2015/1535, aveva sottolineato la necessità di garantire l’autonomia istituzionale delle autorità competenti, evidenziando i rischi connessi a un’eccessiva concentrazione di poteri nell’Esecutivo.
L’assetto risultante appare dunque sbilanciato: il Governo si pone simultaneamente come garante della regolarità dei sistemi e come soggetto titolare delle principali infrastrutture digitali, con un intreccio di funzioni che potrebbe compromettere la percezione di imparzialità richiesta dal diritto europeo.
3. Sicurezza nazionale e concentrazione di poteri
Analoga logica accentratrice si rinviene nella parte della legge dedicata alla sicurezza e alla difesa. L’articolo 6 esclude espressamente dal campo di applicazione generale le attività svolte da DIS, AISE, AISI, ACN, Forze armate e Forze di polizia per finalità di sicurezza nazionale.
Il Governo conserva, in tali settori, la responsabilità diretta di coordinare l’impiego dell’intelligenza artificiale, richiamando formalmente i principi del metodo democratico e della tutela del dibattito politico. Tuttavia, il bilanciamento fra esigenze di sicurezza e garanzie di trasparenza risulta imperfetto, poiché l’esclusione di interi ambiti dall’applicazione della disciplina generale rischia di creare spazi di opacità difficilmente conciliabili con i valori costituzionali di controllo parlamentare e responsabilità democratica.
4. Lavoro, dignità e controllo tecnologico
Nel campo delle relazioni di lavoro, l’articolo 11 della legge afferma che l’impiego dei sistemi di IA deve contribuire al miglioramento delle condizioni lavorative, alla tutela dell’integrità psicofisica e alla prevenzione delle discriminazioni.
Si tratta di una norma di alto valore simbolico, che però lascia irrisolti i nodi centrali della disciplina del controllo tecnologico. Non è previsto alcun richiamo esplicito al d.lgs. 81/2008 sulla salute e sicurezza né all’articolo 4 dello Statuto dei lavoratori, che rappresenta il fondamento normativo del controllo a distanza. L’assenza di riferimenti alla sorveglianza algoritmica è particolarmente significativa: la legge si limita a rinviare al cosiddetto Decreto trasparenza, senza predisporre strumenti specifici di garanzia.
5. L’Osservatorio sul lavoro e la rappresentanza delle parti sociali
La legge istituisce presso il Ministero del Lavoro un Osservatorio sull’intelligenza artificiale nel lavoro, incaricato di monitorare l’impatto delle tecnologie sul mercato occupazionale e di promuovere iniziative formative.
L’organo, tuttavia, difetta di rappresentatività. La composizione, demandata a un decreto ministeriale, non prevede la presenza di membri designati dalle organizzazioni sindacali e datoriali né di esperti provenienti da enti di sicurezza sociale come INPS e INAIL. La mancanza di tali componenti rischia di ridurre la portata partecipativa dello strumento e limitare la capacità di analisi e la costruzione di politiche del lavoro realmente condivise.
6. Imprese, incentivi e rischio di polarizzazione
Infine, la legge dedica ampio spazio al sostegno finanziario alle imprese innovative, prevedendo investimenti pubblici fino a un miliardo di euro attraverso strumenti di equity e quasi equity. Beneficiarie principali risultano le PMI attive nei settori dell’intelligenza artificiale, della cybersicurezza e delle tecnologie abilitanti, con possibilità di estensione a imprese di grandi dimensioni qualificate come “campioni tecnologici nazionali”.
L’impianto selettivo degli incentivi, pur rispondendo all’esigenza di concentrare le risorse sui soggetti più competitivi, rischia di accentuare il divario fra imprese tecnologicamente avanzate e piccole realtà produttive, spesso prive di capacità amministrativa e gestionale per adempiere autonomamente agli obblighi di compliance introdotti dal nuovo quadro normativo.
Ne emerge un sistema che, nel tentativo di promuovere l’eccellenza, potrebbe trascurare la coesione economica e territoriale, generando una polarizzazione tecnologica non coerente con la ratio inclusiva che ispira il diritto europeo dell’innovazione.
7. Conclusioni
La Legge n. 132/2025 rappresenta un primo passo nel tentativo di definire una politica nazionale dell’intelligenza artificiale. Il suo impianto conserva tuttavia un’impronta programmatica limitata e risente della rapidità con cui il Parlamento è stato messo nelle condizioni di intervenire in un settore in continua evoluzione. Il tempo necessario al legislatore per intervenire su un ambito così strategico sarebbe stato ben più ampio, per avere anche un confronto con le esperienze europee più avanzate e arrivare così a definire un disegno e misure più precise. Si renderà inevitabile pertanto consolidare il quadro normativo, con una più chiara definizione delle competenze, un rafforzamento del coordinamento con il diritto europeo e un equilibrio più stabile tra innovazione tecnologica e tutela dei diritti fondamentali.