L'ANALISI
La legge italiana sull’IA nel solco dell’impianto normativo europeo
Il disegno di legge intitolato «Disposizioni e delega al Governo in materia di intelligenza artificiale» lo scorso 19 marzo è stato approvato dal Senato e passa ora all’esame della Camera. Da una prima lettura, appare indubbio che il legislatore abbia ribadito alcuni indirizzi espressi in alcuni propri recenti provvedimenti, primo tra essi il “correttivo” al codice dei contratti pubblici, emanato lo scorso 31 dicembre, con il decreto legislativo 209/2024.
Il primo di essi è l’intento di implementare, promuovere, favorire i processi di digitalizzazione, introducendo sì in taluni casi, l’obbligo all’utilizzo, ma altresì prevedendo un quadro regolatorio che permetta all’operatore di avere regole certe allo scopo.
Sul punto merita menzione l’articolo 24, il quale prevede la delega al Governo di emanare i provvedimenti attuativi entro dodici mesi dall’entrata in vigore della legge e che gli stessi siano conformi al Regolamento europeo 1689/2024, che deve trovare attuazione, in via gradata, entro due anni dall’emanazione.
Il disegno di legge approvato, infatti, pare aver eliso il taglio prevalentemente programmatico delle origini che si muoveva nella contraddizione di una difficoltà di regolamentazione di una tecnologia in fortissima espansione, ma che in ragione dei possibili significativi utilizzi, necessitava invece, di uno spazio di libera sperimentazione.
Il disegno di legge infatti era stato redatto, nonché approvato dal Consiglio dei Ministri lo scorso anno, ancor prima dell’emanazione del Regolamento europeo, e pertanto pur essendo chiaramente ispirato ai lavori della commissione, indicava soprattutto una serie di principi generali, i bona mores del diritto romano, allo scopo di perimetrare il campo d’azione degli utilizzatori, ma soprattutto degli sviluppatori.
Sinteticamente si è parlato di un richiamo all’etica, quale sineddoche degli ulteriori principi, tra cui il c.d. antropocentrismo, cioè una valorizzazione del ruolo gestorio della persona, nonché del perseguimento della c.d. autonomia tecnologica, intendendo quest’ultima, l’insieme di azioni e processi, per poter utilizzare la tecnologia in sicurezza all’interno dello Stato Italiano e nell’Unione Europea.
Ora gli interventi sugli articoli, ma altresì le osservazioni delle varie commissioni, dimostrano una maggiore maturità, derivante senz’altro dall’anno decorso, ove sia a livello internazionale, che domestico, molti sono stati gli sviluppi, anche a livello normativo.
Segnatamente per il settore dell’ambiente costruito, rilevante, nella fattispecie, per alcuni riferimenti che promettono di richiedere approfondimenti e riflessioni.
Occorre, anzitutto, però, rilevare come il testo proponga, all’articolo 2, le definizioni di dato e di sistema e modelli di intelligenza artificiale, cercando di dare preliminare chiarezza al tema trattato.
Il dato è, infatti, definito come «qualsiasi rappresentazione digitale di atti, fatti o informazioni e qualsiasi raccolta di tali atti, fatti o informazioni, anche sotto forma di registrazione sonora, visiva o audiovisiva». E’ interessante il richiamo alla “raccolta”, atteso che l’intero processo di utilizzo dell’IA, è basato sulla classificazione dei dati, i c.d. data set, funzionalmente agli scopi a cui sarà addestrato l’algoritmo.
E infatti il sistema di intelligenza artificiale figura come «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali».
Qui, a nostro parere, il riferimento più interessante, è quello del livello di autonomia dell’IA, definito “variabile”, implicitamente introducendo la possibilità di un raggiungimento crescente di tale livello, circostanza che pone significativi problemi per la gestione delle responsabilità conseguenti, e la riconducibilità dei diritti-doveri che si cerca di disciplinare negli articoli a seguire.
I modelli di intelligenza artificiale sono «modelli che identificano strutture ricorrenti attraverso l’uso di collezioni di dati, che hanno la capacità di svolgere un’ampia gamma di compiti distinti e che possono essere integrati in una varietà di sistemi o applicazioni». In tale ultima definizione, coerentemente con quanto sopra esposto, vediamo il riferimento alla possibilità che l’IA si integri con altri sistemi o applicazioni, per l’appunto.
Il tema è non solo la versatilità di utilizzo, ma altresì il richiamo ai principi regolatori dell’informatica, quali l’interoperabilità e la computazione.
Il settore delle costruzioni è direttamente destinatario di almeno quattro articoli, dall’11 al 14, aventi ad oggetto l’applicazione dell’IA nel mondo del lavoro.
Il primo di questi articoli, l’articolo 11, ribadisce il rispetto dei diritti inviolabili del lavoratore di non discriminazione “in conformità con il diritto dell’Unione Europea”, ma altresì richiama il rispetto alla riservatezza dei dati personali.
Tale norma necessiterà di raccordo con la disciplina del Reg. UE 1689/2024, la quale disciplina l’IA secondo il paradigma giuridico già utilizzato per il GDPR, meglio noto come “Regolamento privacy”, e cioè la valutazione del rischio da parte del titolare del Trattamento e la responsabilità di questi di porre in essere le attività necessaria alla mitigazione/eliminazione dello stesso.
Ad esempio, in tema di sicurezza sul lavoro, molto caro al settore costruzioni, vi sono significative restrizioni sul contemperamento delle esigenze di controllo del lavoratore, ed i diritti di quest’ultimo, che oltre al rispetto della disciplina privacy, imporrano nuove regole giuslavoristiche e conseguenti esigenze di accordi sindacali.
Tra essi si anticipa il dovere del datore di lavoro o committente di informare il lavoratore dell’utilizzo dell’IA, proprio per consentire l’esercizio dei proprio diritti, ivi compreso quello inerente la difesa delle competenze e dei ruoli.
Di là di ciò, i passaggi che risultano maggiormente rilevanti si trovano rispettivamente all’art. 12 e all’art.13 del disposto legislativo. Nel caso dell’articolo 13, titolato “Disposizioni in materia di professioni intellettuali”, si tratta di disciplinare il ruolo di supporto che i sistemi di intelligenza artificiale possono offrire nei confronti del lavoro e della prestazione intellettuale e di chiarire al cliente le modalità con cui tali sistemi contribuiscono all’erogazione della prestazione medesima. A prescindere dai risvolti che tale tema possa presentare nella tutela della proprietà intellettuale, è evidente che si manifesta la questione attinente all’autorialità dei contenuti prodotti e il relativo sistema di attribuzione di responsabilità.
È facile, inoltre, associare questo aspetto con l’attività in essere, da parte di UNINFO, nella profilazione di soggetti professionali non regolamentati, tra cui, in merito lo AI Prompt Engineer. In ogni caso, si ribadisce l’impostazione “antropocentrica”, relegando l’utilizzo di IA ad un ruolo meramente ancillare rispetto alla prestazione di lavoro intellettuale resa, quale mera “attività strumentale e di supporto”.
Analogamente, l’articolo 14, a proposito dell’uso dell’intelligenza artificiale nella pubblica amministrazione, si preoccupa che nel suo esercizio siano assicurate la conoscibilità del funzionamento e la tracciabilità dell’utilizzo, riaffermando quindi il principio della trasparenza, che soggiace all’intero impianto del diritto amministrativo.
Appare chiaro come ciò possa riguardare sia la gestione del ciclo di vita del contratto pubblico sia la gestione dei procedimenti autorizzativi relativi all’urbanistica e all’edilizia privata, regolamentati rispettivamente dal codice dei contratti pubblici e dal Testo unico dell’edilizia.
Tanto nel caso delle prestazioni professionali private, quanto in quello delle attività della amministrazione pubblica, la legislazione ha premura di ribadire la centralità della riserva di umanità, sottolineando anche qui il carattere ausiliario e strumentale dei sistemi e dei modelli attinenti all’intelligenza artificiale.
All’interno di tale articolo si riconosce, inoltre, la necessità di determinare le misure tecniche, organizzative e formative: il che rimanda, ancora una volta, all’azione relativa alle professioni non regolamentate e all’introduzione dei criteri espressi dalla norma UNI CEI ISO/IEC 42001:2024 (Tecnologie informatiche – Intelligenza artificiale – Sistema di gestione).
In definitiva sia sul versante della domanda pubblica, sia su quello dell’offerta professionale privata, anche per il settore dell’ambiente costruito, il testo di legge comporterà una serie di azioni mirate.
Sull’effettività dell’applicazione della legge, vi è la scrittura dell’articolo 14 bis, avente ad oggetto la “Delega al Governo in materia di dati, algoritmi e metodi matematici per l’addestramento dei sistemi di IA”. Il decreto attuativo dovrà prevedere, proprio nel rispetto del principio di trasparenza sopracitato, non solo le indicazioni, ma altresì le sanzioni per coloro i quali non le rispetteranno. In tal modo si realizza un sistema regolatorio pieno, la norma intesa come precetto e sanzione che dovrebbe garantire una migliore e più efficace diffusione della tecnologia.
Da ultimo, ma non per ultimo, è l’attribuzione della competenza giudiziaria alle sezioni specializzate d’impresa dei Tribunali, nell’ipotesi dei contenziosi. Ciò consente di avere contezza del Foro competente, ma suscita sin da subito riflessioni rispetto ai possibili conflitti di attribuzione, nell’ipotesi di altri e diverse Curie funzionalmente competenti, ad esempio il Tribunale Amministrativo in materia di appalti pubblici.
Il provvedimento legislativo dovrà quindi essere valutato a seguito dell’emanazione dei decreti attuativi, ma altresì delle altre e diverse fonti normative e regolamentari nazionali ed europee, medio tempore intervenute. Senza dire della variabile situazione politica internazionale che guarda alla nostra legislazione continentale in maniera molto critica, invocando una posizione più destrutturata nell’utilizzo dell’IA.
Angelo Luigi Camillo Ciribini è ordinario all’Università degli Studi di Brescia
Chiara Micera è titolare dello Studio Legale Micera