News![]() |
Martedì 21 maggio 2024, il Consiglio dell'UE ha approvato all'unanimità l'AI Act, la prima legge al mondo che regola lo sviluppo, la commercializzazione e l'uso dei sistemi di intelligenza artificiale (IA). Dopo essere stato firmato dai presidenti del Parlamento europeo e del Consiglio, l’atto legislativo sarà pubblicato nei prossimi giorni sulla Gazzetta Ufficiale dell’UE ed entrerà in vigore venti giorni dopo tale pubblicazione.
Questa legge stabilisce una serie di obblighi per fornitori e sviluppatori di IA basati sui diversi livelli di rischio identificati.
1. Rischio minimo o nullo: I sistemi di IA che presentano un rischio minimo o nullo non sono soggetti a regolamentazioni particolari, permettendo uno sviluppo e utilizzo libero.
2. Rischio limitato: I sistemi di IA che rientrano in questa categoria devono rispettare obblighi di trasparenza leggeri, come informare gli utenti che stanno interagendo con un sistema di IA.
3. Rischio alto: I sistemi di IA ad alto rischio devono soddisfare una serie di requisiti rigorosi prima di poter accedere al mercato dell'UE. Questi includono valutazioni dettagliate del modello, misure di mitigazione dei rischi e protezioni per la sicurezza informatica. Esempi di tali sistemi includono le applicazioni di IA utilizzate in infrastrutture critiche, istruzione, occupazione, servizi essenziali e forze dell'ordine.
4. Rischio inaccettabile: I sistemi di IA che rappresentano un rischio inaccettabile sono vietati. Questa categoria include tecniche manipolative, pratiche di polizia predittiva, riconoscimento delle emozioni sul posto di lavoro e nelle scuole, e l'uso del riconoscimento facciale (eccetto per le forze dell'ordine, sotto condizioni rigorose).
Le nuove regole entreranno in vigore gradualmente: i divieti saranno applicabili dopo 6 mesi dalla pubblicazione, i controlli sui sistemi di IA per finalità generali dopo 12 mesi e gli obblighi per i sistemi ad alto rischio dopo 36 mesi.
Il riconoscimento facciale, ad esempio, sarà permesso solo alle forze dell'ordine e sotto rigide condizioni. Un capitolo specifico riguarda l'IA generativa, come ChatGPT, con regole diverse in base ai rischi sistemici associati.
La legge prevede anche la creazione di "regulatory sandboxes" per testare l'IA innovativa prima della commercializzazione e stabilisce sanzioni per le violazioni che possono arrivare fino a 35 milioni di euro o il 7% del fatturato globale dell'azienda.