Chi riguarda davvero l’AI Act
L’AI Act (Reg. UE 2024/1689) è in vigore dall’agosto 2024. La maggior parte delle startup SaaS italiane tende a pensare che riguardi chi costruisce modelli AI — OpenAI, Anthropic, Google — e non chi li usa. È un errore frequente, e costoso.
Il regolamento distingue due figure principali: il provider (chi sviluppa e immette sul mercato un sistema AI) e il deployer (chi usa un sistema AI sviluppato da altri nel proprio prodotto o servizio). Se il tuo SaaS integra le API di OpenAI per generare testo, usa un modello di machine learning per classificare documenti, o applica un algoritmo di raccomandazione agli utenti: sei un deployer. E i deployer hanno obblighi precisi.
Questo articolo li riassume in cinque punti operativi.
C’è però un aspetto strutturale che rende il quadro normativo dell’AI Act diverso da ogni precedente regolazione tecnologica: i sistemi AI sono imprevedibili per progettazione. Non si tratta di un difetto da correggere — è una caratteristica deliberata. I modelli di machine learning ottengono performance migliori proprio perché non seguono percorsi decisionali predefiniti: apprendono pattern da dati e generalizzano in modi che i loro stessi sviluppatori non possono prevedere completamente. Nella letteratura tecno-giuridica si parla di unpredictable by design — un’imprevedibilità strutturale che rende inadeguati i framework normativi pensati per il software tradizionale, dove ogni output è il risultato di istruzioni esplicite e verificabili. L’AI Act risponde a questa caratteristica con requisiti di supervisione umana, documentazione tecnica e monitoraggio post-mercato che non sono burocrazia fine a se stessa: sono la risposta tecnico-giuridica al fatto che nessuno — nemmeno il provider — può garantire il comportamento del sistema in ogni situazione reale. Capire questo cambia il modo in cui si approccia la compliance.
1. Verificare la classificazione del rischio del sistema AI che usi
Il primo passo — e quello che molte aziende saltano — è capire in quale categoria di rischio rientra il sistema AI che stai usando o integrando.
L’AI Act classifica i sistemi AI in quattro livelli: rischio inaccettabile (vietati), alto rischio (Allegato III), rischio limitato (obblighi di trasparenza) e rischio minimo (nessun obbligo specifico).
La categoria che interessa la maggior parte dei SaaS è quella ad alto rischio. L’Allegato III elenca otto aree in cui i sistemi AI sono automaticamente classificati come tali: istruzione e formazione professionale, occupazione e gestione dei lavoratori, accesso a servizi essenziali (credito, assicurazioni, prestazioni sociali), applicazione della legge, gestione della migrazione, amministrazione della giustizia, infrastrutture critiche, e — rilevante per chi costruisce hardware — componenti di sicurezza nelle macchine.
Se il tuo prodotto opera in una di queste aree, gli obblighi del Punto 3 si applicano integralmente. Se non sei sicuro della classificazione, il rischio è che tu stia operando inconsapevolmente in un regime normativo più stringente di quello che pensi.
2. Non usare sistemi AI che l’AI Act vieta
L’articolo 5 dell’AI Act elenca le pratiche AI vietate, applicabili dal febbraio 2025. Alcune riguardano direttamente le scelte di prodotto dei SaaS:
- Sistemi di social scoring — valutare persone fisiche sulla base del comportamento sociale o di caratteristiche personali per determinare trattamenti differenziati in contesti non collegati al contesto originale di raccolta.
- Sistemi di manipolazione subliminale — tecniche che agiscono al di sotto della soglia di consapevolezza per influenzare il comportamento degli utenti in modo da causare danno.
- Sistemi di categorizzazione biometrica che inferiscono caratteristiche sensibili (orientamento politico, religioso, sessuale) da dati biometrici.
- Identificazione biometrica real-time in spazi pubblici per finalità di law enforcement.
Il confine tra personalizzazione legittima e social scoring non è sempre netto, e dipende da come vengono usati i dati e in quale contesto. Se il tuo prodotto usa dati comportamentali degli utenti per prendere decisioni che li riguardano in modo significativo, è il momento di fare una valutazione esplicita.
3. Adempiere agli obblighi per i sistemi ad alto rischio
Se il sistema AI che usi o integri rientra nell’alto rischio (Allegato III), gli obblighi del deployer sono concreti e documentabili:
Supervisione umana. I sistemi ad alto rischio richiedono che le decisioni significative siano sottoposte a revisione umana prima di produrre effetti. Automatizzare interamente una decisione che riguarda l’accesso a un servizio, la valutazione di un candidato o la gestione di un dipendente non è consentito senza un meccanismo di override umano.
Registro dei log. I sistemi ad alto rischio devono mantenere log automatici dell’attività del sistema per un periodo definito, verificabili in caso di contestazione o indagine.
DPIA e FRIA. La DPIA deve essere aggiornata per tenere conto dell’uso del sistema AI. La FRIA (Art. 27 AI Act) — obbligatoria per i deployer di sistemi ad alto rischio che siano enti di diritto pubblico oppure soggetti privati che erogano servizi di interesse pubblico (sanità, istruzione, servizi sociali, amministrazione della giustizia) — valuta l’impatto sui diritti fondamentali delle persone interessate. I SaaS puramente commerciali non hanno questo obbligo, a meno che il loro servizio non rientri nelle categorie citate.
Comunicazione ai lavoratori. Se il sistema AI monitora o valuta dipendenti, questi devono essere informati prima dell’attivazione.
Una distinzione operativa rilevante per i SaaS riguarda il tipo di sistema AI che si sta usando. L’Art. 14 dell’AI Act si applica diversamente ai sistemi automatizzati — che agiscono direttamente sul mondo — e ai sistemi di supporto alle decisioni, dove l’output del sistema AI viene valutato da una persona prima che produca effetti. Per la quasi totalità dei SaaS che integrano AI, il sistema rientra in questa seconda categoria: l’AI suggerisce, valuta, classifica — ma un essere umano decide. L’obbligo di supervisione umana in questo contesto non significa che esista un pulsante “rifiuta” nell’interfaccia: significa che la persona che vede l’output del sistema deve essere concretamente in grado di comprenderlo, contestarlo e ignorarlo. Se il flusso operativo rende impraticabile la revisione sistematica degli output, l’obbligo di supervisione umana non è soddisfatto — indipendentemente da come è nominato il processo nella documentazione.
4. Rispettare gli obblighi di trasparenza verso gli utenti
Anche per i sistemi a rischio limitato — che non rientrano nell’alto rischio ma interagiscono direttamente con gli utenti — esistono obblighi di trasparenza che scattano dall’agosto 2026:
- I chatbot e i sistemi di conversazione automatica devono informare l’utente che sta interagendo con un sistema AI, a meno che non sia ovvio dal contesto.
- I contenuti generati da AI (testi, immagini, audio, video) devono essere marcati come tali con tecniche di watermarking leggibile da macchina.
- I sistemi di riconoscimento delle emozioni devono informare le persone coinvolte del loro utilizzo.
Per molti SaaS che integrano modelli generativi nelle proprie interfacce, questi obblighi di disclosure verso l’utente finale sono i più immediati da implementare.
5. Strutturare il post-market monitoring e la gestione degli incidenti
L’AI Act non si esaurisce al lancio del prodotto. I deployer di sistemi ad alto rischio devono:
- Monitorare le performance del sistema in produzione rispetto ai parametri documentati al momento della conformity assessment.
- Notificare gli incidenti gravi — malfunzionamenti che hanno causato o rischiano di causare danni alla salute, alla sicurezza o ai diritti fondamentali delle persone — al market surveillance authority nazionale.
- Segnalare anomalie al provider del sistema AI, quando rilevanti per la sicurezza complessiva del sistema.
Per i SaaS che usano modelli di terze parti: questo significa costruire un sistema di monitoring che non si limita alle performance applicative, ma tiene traccia degli output del modello rispetto ai casi d’uso dichiarati.
Scadenze e sanzioni
| Scadenza | Cosa entra in vigore |
|---|---|
| 2 feb 2025 | Divieti assoluti (art. 5): pratiche AI vietate — già in vigore |
| 2 ago 2025 | Obblighi per i modelli AI general purpose (GPAI): trasparenza sui dati di training, documentazione tecnica, governance — già in vigore |
| 2 ago 2026 | Piena applicazione per sistemi ad alto rischio (Allegato III): documentazione tecnica, FRIA, registrazione database EU, supervisione umana, post-market monitoring |
| 2 ago 2027 | Periodo transitorio per i GPAI immessi sul mercato prima del 2 agosto 2025: entro questa data devono adeguarsi agli obblighi GPAI |
Le sanzioni per le violazioni degli obblighi per i sistemi ad alto rischio arrivano fino a 15 milioni di euro o il 3% del fatturato mondiale annuo. Per l’uso di pratiche vietate (art. 5): fino a 35 milioni di euro o il 7% del fatturato.
Cosa fare nei prossimi 90 giorni
Il punto di partenza non è la documentazione — è la classificazione. Prima di costruire qualsiasi procedura, bisogna rispondere a tre domande: il sistema AI che uso rientra nelle categorie dell’Allegato III? Le funzionalità del mio prodotto si avvicinano a una delle pratiche vietate dall’art. 5? Come è strutturato il flusso decisionale — c’è supervisione umana dove serve?
Dalla risposta a queste domande dipende tutto il resto: quali documenti produrre, quali processi costruire, quali obblighi di disclosure implementare nell’interfaccia utente. Iniziare dall’audit di classificazione è il modo più efficiente per non fare lavoro che non serve — e per non ignorare lavoro che è già obbligatorio.
Una dimensione aggiuntiva: la legge italiana sull’AI
Mentre l’AI Act introduce un sistema di sanzioni amministrative, il legislatore italiano ha aggiunto una dimensione penale. La Legge 23 settembre 2025, n. 132 — in vigore dal 10 ottobre 2025 — è la prima legge quadro italiana sull’intelligenza artificiale. Tra le disposizioni penali, introduce l’art. 612-quater c.p., che punisce la diffusione illecita di contenuti generati o alterati con sistemi AI (i cosiddetti deepfake) quando causano un danno ingiusto alla persona rappresentata. La legge prevede inoltre circostanze aggravanti per reati commessi con il contributo di sistemi AI. Non si tratta di un’alternativa all’AI Act — si affianca ad esso come layer ulteriore di rischio. Per i SaaS che operano in aree sensibili — generazione di contenuti che rappresentano persone, valutazione delle persone, monitoraggio dei lavoratori — questa dimensione aggiuntiva rende l’analisi del rischio più urgente: il perimetro di responsabilità va valutato su due livelli normativi contemporaneamente.
Hai domande sulla classificazione del tuo sistema AI o sugli obblighi applicabili al tuo prodotto?
Scrivici