L’Unione Europea ha finalmente iniziato ad applicare le restrizioni previste dall’AI Act, il regolamento sull’intelligenza artificiale approvato nel marzo 2024 e in vigore a partire dal 1° agosto dello stesso anno. La scadenza del 2 febbraio 2025 segna l’inizio dell’effettiva applicazione delle misure più stringenti, volte a vietare i sistemi considerati a “rischio inaccettabile” per i diritti fondamentali e la sicurezza dei cittadini.
Queste nuove norme si inseriscono in un quadro normativo complesso, che suddivide le tecnologie AI in quattro categorie di rischio, e definisce obblighi e sanzioni specifici a seconda della pericolosità percepita. Uno degli aspetti più rilevanti dell’AI Act riguarda il divieto assoluto di utilizzare sistemi di intelligenza artificiale classificati come “a rischio inaccettabile”. Questi includono, ad esempio, tecnologie in grado di manipolare il comportamento umano mediante tecniche subliminali o ingannevoli, capaci di influenzare le decisioni degli individui senza che questi ne siano consapevoli.
Allo stesso modo, è proibito impiegare sistemi che sfruttano vulnerabilità personali, approfittando di fattori quali età, disabilità o condizioni socio-economiche, per indurre comportamenti particolarmente suscettibili. Inoltre, il regolamento vieta il social scoring, ossia la classificazione degli individui in base al loro comportamento o alle loro caratteristiche personali, fenomeno che rischia di condurre a trattamenti discriminatori e ingiusti. Un ulteriore divieto riguarda l’uso di tecnologie predittive per il crimine basate esclusivamente su profili personali, le quali potrebbero portare a discriminazioni arbitrarie e stigmatizzazione di specifici gruppi sociali.
Tra le misure più discusse e criticate, spicca il divieto dell’utilizzo dei sistemi di identificazione biometrica in tempo reale negli spazi pubblici. Questa norma mira a contenere la sorveglianza di massa e a proteggere il diritto alla privacy dei cittadini. Tuttavia, il regolamento prevede eccezioni significative per l’uso da parte delle forze dell’ordine. In particolar modo, queste deroghe consentono l’impiego di tecnologie biometriche in situazioni critiche, come nella ricerca di persone scomparse, nella prevenzione di attacchi terroristici o nella gestione di reati gravi, come il rapimento e la tratta di esseri umani.
Le autorità potranno, quindi, utilizzare questi strumenti in contesti ben definiti, purché si osservino i principi di necessità e proporzionalità e siano sottoposte a controlli rigorosi. Nonostante ciò, le associazioni per i diritti digitali e le ONG sollevano preoccupazioni riguardo a un possibile ampliamento dell’uso di tali tecnologie, temendo che la mancanza di criteri chiari e trasparenti possa portare a violazioni della privacy e a una sorveglianza eccessiva. L’AI Act prevede inoltre un sistema di classificazione dei rischi per i sistemi di intelligenza artificiale.
I sistemi a rischio minimo, come i filtri anti-spam per le email, non saranno soggetti a regolamentazioni stringenti, mentre quelli a rischio limitato, come alcuni chatbot di assistenza clienti, dovranno rispettare obblighi di trasparenza e monitoraggio più lievi. La maggiore attenzione, invece, sarà riservata ai sistemi classificati come ad alto rischio, come quelli impiegati in ambito medico, nei trasporti o in servizi essenziali, che dovranno essere sottoposti a controlli rigorosi per garantirne la sicurezza e l’aderenza alle normative vigenti.
Per chi non rispetta le nuove disposizioni, l’AI Act prevede sanzioni pesanti, calcolate in base al fatturato annuo globale o a importi fissi, a seconda di quale sia il valore più elevato. Le multe possono variare da un minimo di 7,5 milioni di euro o l’1,5% del fatturato, fino a un massimo di 35 milioni di euro o il 7% del fatturato globale. Per le PMI e le start-up, invece, sono previste sanzioni amministrative proporzionate, per non frenare l’innovazione e lo sviluppo di nuove soluzioni basate sull’intelligenza artificiale.
Infine, il regolamento stabilisce la creazione di “sandbox” regolamentari, spazi di sperimentazione dove aziende e innovatori possono testare nuove tecnologie in un ambiente controllato prima dell’immissione sul mercato. Questa misura mira a garantire un equilibrio tra il necessario progresso tecnologico e il rispetto dei diritti fondamentali, offrendo agli sviluppatori l’opportunità di conformarsi alle nuove normative senza perdere di vista l’innovazione.