Il 12 luglio 2024 segna una pietra miliare nell’ambito della regolamentazione dell’intelligenza artificiale (AI) nell’Unione Europea, con la pubblicazione ufficiale dell’AI Act nella Gazzetta Ufficiale dell’UE. Questo regolamento, lungamente atteso e dibattuto, rappresenta un tentativo ambizioso di stabilire regole chiare per l’uso, lo sviluppo e la gestione dei sistemi di AI nell’UE, con l’obiettivo primario di garantire sicurezza, trasparenza e rispetto dei diritti fondamentali dei cittadini europei.
Secondo il testo pubblicato, l’AI Act entrerà in vigore il 1° agosto 2024, 20 giorni dopo la sua pubblicazione. Sebbene molte delle disposizioni più dettagliate richiederanno un periodo di attuazione fino a due anni, alcune restrizioni specifiche saranno applicate inizialmente con tempistiche più brevi. A partire da sei mesi dalla data di entrata in vigore, saranno introdotti divieti su pratiche considerate ad alto rischio, come l’uso di sistemi di classificazione del credito sociale e il riconoscimento facciale per la compilazione di database, oltre all’utilizzo di sistemi di riconoscimento delle emozioni in tempo reale negli ambienti educativi e lavorativi.
Entro nove mesi, l’Unione Europea avvierà la fase di implementazione dei codici di condotta per gli sviluppatori di AI. Questi codici, sviluppati in collaborazione con consulenti esterni e aziende tecnologiche, mirano a stabilire linee guida etiche e pratiche per l’uso responsabile dell’intelligenza artificiale. Tuttavia, c’è preoccupazione riguardo alla possibile influenza delle grandi aziende tecnologiche nella definizione di queste regole, un aspetto che sarà monitorato da vicino dalle autorità competenti.
Un aspetto cruciale dell’AI Act è il focus sui requisiti di trasparenza e sicurezza per i sistemi di AI generale e generativa. Ad esempio, i fornitori di modelli di AI dovranno garantire la trasparenza nel funzionamento dei loro sistemi, specialmente per quanto riguarda la produzione di deepfake e altri media manipolati. È prevista l’etichettatura chiara di questi contenuti per informare gli utenti sull’origine e sulla natura artificiale di tali creazioni. Le aziende che addestrano modelli di AI dovranno rispettare rigorosi standard di copyright, a meno che il loro uso sia esclusivamente a fini di ricerca scientifica e sviluppo. Questa disposizione mira a bilanciare l’innovazione con la protezione dei diritti di proprietà intellettuale dei creatori originali.
Il Regolamento stabilisce regole armonizzate per l’accesso al mercato, la messa in servizio e l’uso di sistemi di AI nell’UE. Include anche misure specifiche per monitorare e vigilare il mercato, assicurando la conformità continua e l’adeguatezza dei sistemi di AI alle normative europee. Ciò include l’istituzione di una banca dati UE per i sistemi ad alto rischio e l’introduzione di sanzioni proporzionali per le violazioni delle disposizioni del regolamento.
Le sanzioni per le violazioni dell’AI Act saranno commisurate alla gravità dell’infrazione e alla dimensione economica dell’azienda coinvolta. Le PMI e le start-up beneficeranno di sanzioni proporzionali, mentre le grandi aziende potrebbero essere soggette a sanzioni più elevate in base al loro fatturato globale annuo. Al contempo, il regolamento prevede misure a sostegno dell’innovazione, con particolare attenzione alle PMI e alle start-up che potranno accedere a spazi di sperimentazione normativa (sandbox) per sviluppare e testare sistemi di AI in condizioni controllate prima di lanciarli sul mercato.