L'AI Act (Reg. UE 2024/1689) classifica i sistemi di intelligenza artificiale in quattro categorie di rischio, da "inaccettabile" (vietato) ad "alto rischio" (obblighi pesanti di documentazione, testing e supervisione umana), fino ai sistemi a rischio limitato o minimo. La maggior parte delle startup SaaS si trova nella zona grigia tra rischio limitato e alto rischio — e sbagliare classificazione è costoso.
Chi integra API di LLM come OpenAI o Anthropic nel proprio prodotto deve capire se diventa "deployer" o "provider" di un sistema AI ai sensi del regolamento. Chi sviluppa modelli proprietari ha obblighi aggiuntivi di documentazione tecnica. Chi usa AI per scoring, ranking o raccomandazioni verso consumatori ha obblighi di trasparenza che scattano progressivamente dal 2025.
La mia consulenza ti aiuta a navigare questo quadro normativo con un approccio ingegneristico: classificazione corretta, documentazione proporzionata al rischio, governance interna sostenibile per un team small.