INTELLIGENZA ARTIFICIALE
Nuove norme dell’AI Act, cosa cambia dal 2 agosto
Il Regolamento Europeo 2024/1689, meglio noto come AI Act, prevede l’applicazione gradata delle norme ivi contenute, le quali non si rivolgono solo agli sviluppatori di sistemi di intelligenza artificiale, ma anche alle organizzazioni pubbliche e private che intendono farne uso, nonchè agli importatori e distributori di tali tecnologie.
Successivamente alla prima serie di prescrizioni e divieti per i sistemi ad alto rischio e attività che presentano rischi cd. “inaccettabili” – attivi dal 2 febbraio 2025, l’AI Act entra in una nuova fase cruciale il 2 agosto 2025. …
Da quel giorno si applicheranno in modo effettivo:
- il Capo III, sezione 4, sulle autorità di notifica e vigilanza per i sistemi ad alto rischio;
 - il Capo V, relativo agli obblighi per i modelli di IA di uso generale (GPAI);
 - il Capo VII, che istituisce una governance multilivello con AI Office e Consiglio europeo per l’IA;
 - il Capo XII, che rende operativi gli articoli sulle sanzioni (Artt. 99-100), ad esclusione di quelle relative ai modelli IA ad uso generale (art. 101);
 - Art. 78, in tema di riservatezza.
 
Quanto al primo gruppo di norme, ogni Stato membro deve designare un’Autorità nazionale di controllo responsabile dell’attuazione dell’AI Act, e per l’Italia si suppone possa essere l’Agid (Agenzia per l’Italia Digitale), magari di concerto con l’Agenzia per la Cybersicurezza (ACN).
Questa Autorità sarà dotata di poteri sanzionatori e di vigilanza e dovrà operare in coordinamento con le altre autorità europee (tra cui il Consiglio europeo per l’IA).
Le Autorità nazionali designate secondo il nuovo quadro legislativo armonizzato svolgeranno audit, ispezioni e verifiche continue sui sistemi di IA ad alto rischio, garantendo imparzialità, riservatezza e il rispetto degli standard imposti dall’AI Act.
Il Capo V invece, introduce un regime ad hoc per i modelli di IA ad uso generale (General Purpose AI o GPAI) – definiti come sistemi in grado di effettuare prestazioni trasversali in una vasta gamma di applicazioni – con un’attenzione speciale ai cd. foundation models ad alto impatto: modelli addestrati utilizzando grandi quantità di dati e con complessità, potenzialità e prestazioni particolarmente elevate – spesso fondati su reti neurali – in grado di compiere una molteplicità di compiti di gran lunga più elevata rispetto ai cd. “modelli tradizionali” (per questi ultimi. il noto chat gpt, nelle sue molteplici versioni, o il suo “rivale” deepseek), e che possono rappresentare un rischio per beni primari, quali la salute, i diritti fondamentali, l’ambiente, la democrazia o lo Stato di diritto.
Dal 2 agosto 2025 i fornitori di nuovi modelli GPAI saranno tenuti a:
- pubblicare una Model Documentation (documentazione tecnica) dettagliata (architettura, capacità, limiti e benchmark) e un summary of training data sufficientemente analitico (art. 53 Ai Act);
 - adottare policy by design mirata a tutelare il diritto d’autore (diritto di opt‑out relativo al “text and data mining”, utilizzando web crawler conformi al protocollo robots.txt).
 
Su tale ultimo aspetto, trattasi in realtà del rispetto di un’altra vigente regolamentazione europea, la Direttiva UE 790/2019, nota con l’acronimo CDSM, che sta per Copyright nel mercato unico digitale, che tutela gli editori, con il diritto di esercitare una riserva (il c.d. opt out di cui sopra) per impedire che le proprie opere vengano utilizzate per l’addestramento dei sistemi di intelligenza artificiale per finalità generali, evitando le partiche di estrazione automatica dei dati e contenuti, il c.d. “text and data mining” per l’appunto.
Per i modelli classificati “a rischio sistemico” (art. 55), sono poi previsti obblighi più stringenti:
- Verifiche preliminari e test in contraddittorio
 
I fornitori devono applicare protocolli e strumenti standardizzati, aggiornati allo stato dell’arte, per valutare il modello, anche svolgendo il test in contraddittorio (cd. “adversarial testing”) al fine di individuare e mitigare i rischi sistemici.
- Mitigazione dei rischi sistemici a livello UE
 
Devono identificare le fonti di rischio sistemico derivanti dallo sviluppo, dalla commercializzazione o dall’uso del modello e adottare misure atte a ridurli, tenendo conto dell’impatto su salute, sicurezza, diritti fondamentali e infrastrutture critiche.
- Monitoraggio degli incidenti e reporting
 
È obbligatorio tracciare, documentare e riferire senza ingiustificato ritardo all’AI Office (e, se del caso, alle autorità nazionali) eventuali incidenti gravi, corredandoli di piani correttivi.
- Sicurezza informatica
 
Il modello IA a rischio sistemico e la sua infrastruttura fisica devono essere protetti mediante adeguate misure/policy di cybersecurity.
- Tutela della riservatezza
 
Tutte le informazioni raccolte nell’ambito di questi obblighi, inclusi eventuali segreti commerciali, sono soggette al vincolo di riservatezza previsto dall’art. 78.
Al fine di rispettare correttamente gli obblighi imposti dall’AI Act, i fornitori di modelli GPAI a rischio sistemico possono avvalersi, in via transitoria e fino a che non saranno pubblicate norme tecniche armonizzate, di codici di buone pratiche (art. 56 AI Act – se ne parlerà in seguito) per attestare la conformità agli obblighi di valutazione, mitigazione del rischio e sicurezza; una volta disponibili, il rispetto delle norme armonizzate a livello comunitario garantirà invece ai player coinvolti una presunzione legale di conformità.
Per converso, chi non aderisce ai codici di buone pratiche approvate, né segue le norme armonizzate dovrà invece dimostrare con prove alternative (e ben più gravose) di rispettare gli stessi requisiti, sotto la valutazione della Commissione Europea.
A tal proposito, nel processo di attuazione dell’AI Act, lo scorso 10 luglio 2025, è stato pubblicato il Codice di Buone Pratiche in materia di intelligenza artificiale, dalla Commissione Europea, si propone come strumento di soft law tecnico e volontario, pensato per accompagnare sviluppatori e fornitori di modelli GPAI – specialmente quelli a rischio sistemico – verso una piena conformità con il nuovo quadro normativo.
Pur non avendo valore vincolante, il Codice rappresenta una guida operativa altamente strutturata, in grado di trasformare le disposizioni dell’AI Act in procedure concrete, tecnicamente solide e armonizzate a livello europeo.
Esso è stato redatto da organizzazioni del settore che, volontariamente, hanno aderito all’invito di condividere prassi e policy, per giungere a schemi condivisi, che si impegnano a rispettare.
Il testo si articola in tre aree tematiche principali: trasparenza, sicurezza e tutela del diritto d’autore, offrendo una griglia di best practices, prassi tecniche e “commitments” calibrati sulle esigenze di chi opera nel settore dell’IA, cercando un equilibrio tra innovazione e tutela giuridica.
Il Capo VII invece, da vita a un’articolata architettura di governance europea:
- l’Ufficio europeo per l’IA (AI Office), fulcro operativo per il coordinamento, l’armonizzazione e il supporto agli Stati membri nell’applicazione del Regolamento a livello nazionale (Art. 64);
 - il Consiglio (o Comitato) europeo per l’IA, organo consultivo con un rappresentante per Paese (art. 65 e ss.) e il GEPD come osservatore. Anche l’ufficio per l’IA partecipa alle riunioni del consiglio per l’IA senza partecipare alle votazioni, inoltre, altre autorità, organismi o esperti nazionali e dell’Unione possono essere invitati alle riunioni dal consiglio per l’IA caso per caso, qualora le questioni discusse siano di loro pertinenza;
 - istituzione, da parte della Commissione, di gruppi di esperti scientifici indipendenti inteso a sostenere le attività esecutive dell’Ufficio per l’IA (Artt. 68-69);
 - Designazione di autorità nazionali di verifica e controllo sull’applicazione del Regolamento.
 
Vi è l’obbligo biennale, per gli Stati Membri, di riferire alla Commissione in merito allo stato delle risorse finanziarie e umane delle autorità nazionali competenti, con una valutazione della loro adeguatezza.
Questa struttura dovrà essere pienamente operativa a partire dal 2 agosto 2025, con attività di scambio di consulenze sull’applicazione del Regolamento e best practice, supporto e aggiornamento continuo dei fattori di rischio.
Da ultimo, il sistema sanzionatorio (artt. 99‑101) in presenza di violazione dei precetti dell’AI Act:
- fino a 35 milioni di euro o al 7 % del fatturato globale annuo per le violazioni più gravi (cui all’art. 5);
 - fino a 15 milioni o al 3 % del fatturato globale annuo per violazione degli obblighi sui sistemi ad alto rischio (o, più in generale, per quelle diverse dall’articolo 5);
 - fino a 7,5 milioni o all’1 % de fatturato qualora venissero fornite informazioni false o incomplete.
 
Inoltre, dalla lettura dell’articolo 100 si evince la possibilità per il GEPD (Garante Europeo Protezione Dati) di irrogare sanzioni pecuniarie a carico delle istituzioni e organismi dell’UE assoggettati alle prescrizioni enunciate nell’AI Act: nel decidere l’opportunità e l’entità della sanzione, dovrà tenere conto di tutte le circostanze rilevanti del caso concreto, seguendo determinati criteri stabiliti ex lege.
Ciò detto, si sottolinea nuovamente quanto già accennato in precedenza: differentemente dagli articoli 99 e 100, la vigenza dell’articolo 101 – sanzioni per i fornitori di GPAI – non è altrettanto prossima.
Infatti, la sua piena efficacia è prevista per il 2 agosto 2026, in contemporanea con la completa applicazione dell’AI Act (ad eccezione dell’articolo 6, paragrafo 1, la cui vigenza è rinviata al 2 agosto 2027).
Infine, ai sensi dell’Art. 101 la Commissione potrà in futuro infliggere ai fornitori tali modelli sanzioni fino al 3 % del fatturato annuo o 15 milioni EUR (se maggiore) in caso di:
- violazioni intenzionali (o per negligenza) dell’AI Act;
 - mancata ottemperanza a una richiesta di documenti o di informazioni a norma dell’articolo 91 o se ha fornito informazioni inesatte, incomplete o fuorvianti;
 - mancata ottemperanza a una misura richiesta a norma dell’articolo 93;
 - mancata messa a disposizione della Commissione dell’accesso al modello di IA per finalità generali o al modello di IA per finalità generali con rischio sistemico al fine di effettuare le opportune valutazioni.
 
Dopo il 2 agosto 2025, si amplia quindi ulteriormente il perimetro normativo dell’intelligenza artificiale, e la prossima sfida sarà l’armonizzazione tra la disciplina europea, e l’approvazione del DDL AI prevista entro fine anno, evitando un ritardo normativo che potrebbe tradursi in gravoso gap di competitività e tutela nei confronti degli altri Stati Membri.