EU AI Act: guida pratica per le aziende italiane ed europee
Il 2 agosto 2026 scatta la piena applicabilità dell'EU AI Act per i sistemi ad alto rischio. Sanzioni fino a 35 milioni di euro, obblighi di documentazione, supervisione umana e registrazione nel database UE. Ecco cosa devono fare concretamente le aziende italiane entro quella data.
Il 2 agosto 2026 la maggior parte delle disposizioni dell'EU AI Act diventa pienamente applicabile. Chi sviluppa, vende o utilizza sistemi di intelligenza artificiale nell'Unione Europea, incluse le aziende italiane che usano AI nei propri processi interni, dovrà conformarsi entro quella data, pena sanzioni fino a 35 milioni di euro o al 7% del fatturato annuo globale.
Cos'è l'EU AI Act
L'EU AI Act (Regolamento UE 2024/1689) è il primo quadro normativo al mondo specificamente dedicato all'intelligenza artificiale. Non è una direttiva ma un regolamento, il che significa che si applica direttamente in tutti gli stati membri senza necessità di recepimento nella legislazione nazionale. Riguarda chiunque sviluppi, distribuisca o utilizzi sistemi AI nel mercato europeo, indipendentemente da dove abbia sede l'azienda.
L'approccio scelto dal legislatore è basato sul rischio: non tutti i sistemi AI sono soggetti agli stessi obblighi, ma solo quelli che possono avere un impatto significativo sui diritti fondamentali, sulla sicurezza o sull'autonomia delle persone. Più è alto il rischio potenziale, più stringenti sono i requisiti da rispettare.
Le quattro categorie di rischio
Il regolamento classifica i sistemi AI in quattro livelli, ognuno con un regime diverso.
I sistemi a rischio inaccettabile sono vietati dal febbraio 2025 senza eccezioni significative. Rientrano in questa categoria il social scoring da parte di autorità pubbliche, la manipolazione comportamentale inconsapevole e il riconoscimento facciale in tempo reale in spazi pubblici per finalità di law enforcement, salvo casi eccezionali espressamente previsti dal testo.
I sistemi ad alto rischio sono quelli impiegati in ambiti sensibili: biometria, gestione di infrastrutture critiche, istruzione e formazione professionale, selezione e valutazione del personale, concessione del credito, amministrazione della giustizia, erogazione di servizi pubblici essenziali. Su questi si concentrano gli obblighi più stringenti e la deadline del 2 agosto 2026.
I sistemi a rischio limitato, tra cui chatbot, generatori di contenuti sintetici e deepfake, sono soggetti principalmente a obblighi di trasparenza: gli utenti devono essere informati che stanno interagendo con un sistema automatizzato o che il contenuto che stanno fruendo è generato da AI.
I sistemi a rischio minimo, come i filtri antispam, i motori di raccomandazione e l'AI integrata nei videogiochi, non hanno obblighi specifici. Il regolamento prevede per questi solo codici di condotta volontari.
La classificazione non è sempre immediata, e questo è uno dei rischi pratici più sottovalutati. Molti software aziendali moderni (gestionali HR, CRM, strumenti di scoring del credito) integrano componenti AI che possono rientrare nell'alto rischio senza che le aziende ne siano consapevoli.
Il calendario delle scadenze
L'AI Act è entrato in vigore progressivamente, con un calendario pensato per dare alle aziende il tempo di adeguarsi. Il divieto per i sistemi a rischio inaccettabile è scattato nel febbraio 2025. Gli obblighi per i modelli AI general-purpose (i grandi modelli linguistici come GPT e Gemini) sono entrati in vigore nell'agosto 2025. La piena applicabilità per i sistemi ad alto rischio, invece, è fissata al 2 agosto 2026: da quella data, chi non sarà conforme sarà esposto alle sanzioni. Una deroga parziale è prevista per i sistemi GPAI già sul mercato da prima dell'agosto 2025, ma avranno tempo solo fino all'agosto 2027.
Chi è coinvolto
Il regolamento distingue due figure con responsabilità diverse. Il provider è chi sviluppa e immette sul mercato un sistema AI. Su di lui ricadono gli obblighi più pesanti: deve implementare un sistema di risk management documentato e aggiornato per l'intero ciclo di vita del prodotto, garantire la qualità e la rappresentatività dei dati di addestramento, produrre documentazione tecnica dettagliata, assicurare il logging automatico delle operazioni, prevedere meccanismi di supervisione umana, adottare misure di cybersecurity adeguate, completare la conformity assessment e registrare il sistema nel database UE prima della messa in servizio.
Il deployer è chi usa un sistema AI di terzi nei propri processi. I suoi obblighi sono più leggeri ma non trascurabili: deve usare il sistema secondo le istruzioni del provider, implementare adeguata supervisione umana, formare il personale coinvolto e conservare i log operativi. Un'azienda italiana che utilizza un software HR con AI per la selezione del personale è un deployer di un sistema ad alto rischio, con tutti gli obblighi che ne derivano.
Le sanzioni
Il regime sanzionatorio è calibrato sulla gravità della violazione. L'uso di sistemi vietati comporta sanzioni fino a 35 milioni di euro o al 7% del fatturato annuo globale. La non conformità per i sistemi ad alto rischio e il mancato rispetto degli obblighi sui modelli GPAI possono costare fino a 15 milioni di euro o al 3% del fatturato. La fornitura di informazioni false o incomplete alle autorità è punita con sanzioni fino a 7,5 milioni di euro o all'1% del fatturato.
Per le PMI si applica sempre il valore più basso tra importo fisso e percentuale del fatturato. In termini pratici, una PMI con 2 milioni di euro di fatturato rischia fino a 60.000 euro per non conformità sui sistemi ad alto rischio, una cifra concreta, che rende difficile giustificare l'inerzia.
Il caso specifico delle PMI e startup italiane
Le PMI sono tra i soggetti più esposti, per due ragioni che si combinano in modo sfavorevole: da un lato tendono a sottostimare la propria esposizione, dall'altro hanno meno risorse per affrontare i costi di compliance. Il regolamento prevede alcune misure di supporto, tra cui le regulatory sandbox dell'articolo 57 (ambienti controllati dove le PMI possono testare sistemi AI innovativi con la supervisione dell'autorità competente, con accesso prioritario e agevolato) e obblighi di documentazione proporzionati alle dimensioni aziendali per alcune categorie di sistemi.
In Italia, l'autorità di vigilanza designata è l'Agenzia per la Cybersicurezza Nazionale (ACN), che coordina l'attuazione del regolamento con il Garante per la Privacy per i profili di protezione dei dati personali.
Cosa fare adesso
Con meno di cinque mesi alla deadline, il percorso minimo per qualsiasi azienda parte da un inventario completo dei sistemi AI in uso o in sviluppo, inclusi quelli embedded in software acquistati da terzi. Una volta identificati i sistemi, è necessario classificarli per livello di rischio, preferibilmente con il supporto di consulenza legale specializzata. Il passo successivo è una gap analysis che confronti lo stato attuale di documentazione, governance e supervisione umana con i requisiti del regolamento, seguita da un piano di remediation che prioritizzi gli interventi sui sistemi ad alto rischio. Parallelamente, va garantita la formazione delle figure interne responsabili dei sistemi AI.
Chi non ha ancora iniziato non ha perso il treno, ma i margini si stanno restringendo. Il Codice di condotta sulla trasparenza sarà finalizzato entro l'estate 2026, e ulteriori orientamenti interpretativi della Commissione sono attesi nelle prossime settimane.