Certificare l’Intelligenza Artificiale nella pubblica amministrazione, la strada di un indice di reputazione fondato sulle sue prestazioni in contesti reali
Il disegno di legge sull’intelligenza artificiale, approvato con modifiche dalla Camera dei Deputati, lo scorso 25 giugno, (A.C. 2316-A) continua il suo iter parlamentare. Tra le varie disposizioni previste va da subito considerata quella riferita all’applicazione dell’IA nella Pubblica Amministrazione (art. 14) secondo la quale, l’utilizzo dell’intelligenza artificiale dovrà avvenire “in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale”. Per quanto animata da buone intenzioni, volendo la proposta normativa, probabilmente, far riferimento all’utilizzo antropocentrico dell’intelligenza artificiale, per come scritta rischia di produrre un effetto “paralizzante” se solo si pensa che la “persona” di cui si parla nella disposizione, in ambito amministrativo, non è altri che il funzionario pubblico. In alcuni ambienti, questa previsione è stata già letta come un potenziale de profundis per l’utilizzo dell’IA nella PA, poiché rischia di scoraggiarne l’adozione proprio nei contesti in cui sarebbe più necessaria.
Da tempo, i funzionari pubblici soffrono di una cronica “paura della firma”. L’utilizzo di un elemento tecnologico e sostanzialmente misterioso come l’IA potrebbe certamente acuire questa paura. Se la responsabilità è umana ma il comportamento dello strumento non è interamente controllabile, il rischio è che i dipendenti pubblici si ritraggano dall’uso dell’IA, rinunciando in partenza a una delle più grandi opportunità di modernizzazione della macchina amministrativa. E rassegnarsi a questa rinuncia sarebbe un grave errore strategico: significherebbe privarsi di uno strumento che, se ben governato, può potenziare e rendere fluida l’azione pubblica, non comprometterla. L’intelligenza artificiale, se impiegata con “intelligenza istituzionale”, può infatti sostenere sia l’efficienza della pubblica amministrazione sia l’azione dei cittadini, in un’epoca segnata dalla digitalizzazione che non deve significare o trasformarsi, tuttavia, in un labirinto burocratico.
Le difficoltà che si incontrano con l’IA non sono solo regolatorie, ma anzitutto di natura scientifica. Le macchine che oggi chiamiamo “intelligenti”, in particolare i Large Language Models (LLM) come ChatGPT, non sono “strumenti” nel senso classico. Non eseguono soltanto istruzioni ma apprendono, generalizzano, generano. Sono, in una certa misura, macchine “cognitive”.
Si usa qui il termine cognitivo in senso descrittivo e funzionale, ben consapevoli della sua ambiguità nel contesto scientifico e filosofico. La “cognizione” è una loro funzionalità di natura emergente, non esplicitamente progettata. Non esiste ancora una teoria scientifica che spieghi perché queste macchine funzionino con l’efficacia che sta sorprendendo tutti. E dunque, cosa si può fare per la pubblica amministrazione affinchè non perda questa occasione di efficienza?
Prima di affrontare il punto serve chiarire che in ambito amministrativo si utilizzano da sempre strumenti di cui non si controlla pienamente il funzionamento interno: i software gestionali, i motori di ricerca, perfino gli strumenti di firma digitale. Questi, tuttavia, hanno un funzionamento che, anche se sofisticato, può essere ricondotto a quello di una macchina classica, ispezionabile e comprensibile per quanto articolata. Un chatbot moderno, invece, si basa su un numero astronomico di passaggi algoritmici dedotti dai database e assemblati dalla macchina e non dal programmatore che, presi uno per uno, sono solo sequenze numeriche prive di un significato interpretabile in modo diretto. Tra l’altro va anche considerato che piccole variazioni delle domande possono generare grandi cambiamenti nelle risposte.
Per tutte queste ragioni potrebbe essere importante tracciare un nuovo paradigma di certificazione, che esca completamente dall’analisi del codice finale del programma come è stato fino ad ora, e ci si concentri soprattutto su test statistici, simulazioni su larga scala sia prima che dopo l’utilizzo, che includano analisi di stabilità. Questa prospettiva può risultare utile anche in chiave normativa. Se si ha a disposizione un sistema di IA altamente affidabile si può immaginare una responsabilità amministrativa che non ricada integralmente sul funzionario ma sulla ragionevole diligenza nel suo impiego.
E’ chiaro che ridefinire i confini della responsabilità è un passaggio delicato e controverso, che richiederà un confronto approfondito tra dottrina giuridica e innovazione tecnologica; ma un passo importante per ottenere questo possibile e auspicabile risultato potrebbe rinvenirsi nella costruzione di una nuova fiducia e reputazione della macchina cognitiva. La fiducia, per avere basi solide, deve poggiare su una reputazione tecnica verificabile, fondata su evidenze concrete. Sarebbe, quindi, importante avviare una linea di ricerca nell’ambito della quale associare all’IA una sorta di indice di reputazione, fondato sulle sue prestazioni in contesti reali. Pur nella consapevolezza dell’attenzione che richiede questo concetto si tratterebbe di realizzare una reputazione costruita con criteri trasparenti e supervisionati da enti pubblici ex ante, oltre che validata dall’uso ex post. Questo processo potrebbe essere ottenuto in diverse fasi, a partire da test in silico di natura scientifica fino a terminare con il rilascio, da parte di strutture della PA, di una certificazione di conformità, su contesti specifici, che attesti che la macchina cognitiva è affidabile e testabile nell’uso.
Allo stesso tempo, si ritiene utile esplorare un percorso di responsabilizzazione, articolato su due aspetti complementari. Il primo riguarda il lato umano: una patente/abilitazione per i funzionari pubblici che utilizzano o supervisionano sistemi di IA, intesa come certificazione di competenza che attesti la comprensione delle potenzialità e dei limiti dell’intelligenza artificiale, e abiliti all’uso consapevole e responsabile di questi strumenti in ambito amministrativo. Il secondo aspetto potrebbe rivolgersi, invece, al lato tecnologico-produttivo, prevedendo che i soggetti che sviluppano o distribuiscono sistemi di IA siano tenuti a stipulare un’assicurazione obbligatoria, sul modello di quanto avviene in altri settori a rischio elevato.
Un tale meccanismo introdurrebbe una leva di natura economica verso la responsabilità, in grado di disincentivare l’immissione sul mercato di tecnologie opache o non monitorate. Patente e assicurazione possono contribuire a costruire un ecosistema di fiducia articolato, in cui l’adozione dell’intelligenza artificiale nella sfera pubblica sia accompagnata da criteri di competenza, trasparenza e corresponsabilità.
Da questo punto di vista, l’esperienza della Pubblica Amministrazione italiana potrebbe diventare pionieristica. Invece di attendere una disciplina che garantisca totalmente, che di fatto risulta impossibile, si potrebbe adottare una strategia incrementale, fondata su criteri operativi, su sperimentazioni vigilate, su linee guida adattabili ai contesti e relative al funzionamento di queste nuove macchine all’interno di un perimetro d’uso definito. In questo quadro, diventa fondamentale distinguere tra i diversi livelli di rischio e le tipologie di attività amministrativa: un chatbot che orienta il cittadino all’interno di un sito comunale comporta rischi diversi rispetto a un sistema che “influenza” decisioni amministrative. Serve quindi una proporzionalità regolativa, capace di calibrare le garanzie in funzione dell’impatto.
La formazione dei funzionari pubblici è parte essenziale del sistema di garanzie. Non basta saper usare l’IA: serve comprenderne la natura, i limiti e le possibili derive. La macchina cognitiva non è una leva né un oracolo. Richiede discernimento. Il funzionario è il garante dell’equilibrio tra innovazione e responsabilità. La certificazione, così intesa, diventa anche un fatto sociale: nasce dall’equilibrio tra fiducia e responsabilità. Si costruisce con l’esperienza, l’errore corretto, la pratica condivisa. Non può ridursi a un controllo formale. Né paura né delega, quindi, ma una terza via fondata su consapevolezza, sperimentazione e visione sistemica.
La vera innovazione, dunque, sarà tanto tecnologica quanto istituzionale. Riguarderà il modo in cui si intende l’azione pubblica in un’epoca in cui le macchine iniziano, seppure timidamente e in senso non umano, a “pensare”; e in cui, forse per la prima volta, diritto e scienza sono chiamati, ancora prima di scrivere regole, a proiettare e a progettare una convivenza virtuosa tra essere umano e macchina cognitiva.
Anna Corrado è Magistrato amministrativo e Coordinatrice del Gruppo di lavoro sulla digitalizzazione dei contratti pubblici del MIT
Pierluigi Contucci è Professore ordinario di fisica matematica all’Università Alma Mater di Bologna