I legislatori dell’Unione Europea hanno concordato i termini di un ampio disegno di legge che mira a regolamentare l’intelligenza artificiale (AI) in un dibattito che si è concluso venerdì. L’accordo stabilisce le regole che devono essere seguite dalle aziende che mirano a sviluppare e commercializzare i futuri modelli di machine learning nel blocco commerciale.
Si tratta del primo atto di regolamentazione tecnologica al mondo. Chiamata AI Act, la legge dovrebbe servire da riferimento per altri paesi che mirano a sfruttare i benefici della tecnologia, concentrandosi sulla protezione contro i suoi potenziali rischi, come la sostituzione della manodopera con macchine e minacce virtuali. “L’Ue diventa il primo continente a stabilire regole chiare per l’uso dell’intelligenza artificiale“, ha detto Thierry Breton, commissario dell’Unione europea per il mercato interno, sul suo profilo ufficiale su Twitter.
“L’AI Act è molto più di un regolamento: è un trampolino di lancio per startup e ricercatori dell’UE per guidare la corsa globale all’IA“. Le discussioni sono iniziate mercoledì scorso e, dopo ampi dibattiti tra i paesi membri e i leader politici, è stato finalmente raggiunto un accordo sull’orientamento dell’intelligenza artificiale al servizio degli interessi degli esseri umani. Il Parlamento europeo ha trascorso diversi anni a discutere i pareri prima che il progetto fosse presentato alla Commissione europea.
La normativa prevede che lo sviluppo dell’intelligenza artificiale venga suddiviso in quattro categorie, a seconda del grado di rischio sociale che potenzialmente rappresenta: minimo, limitato, elevato e proibito.Gli usi vietati includerebbero qualsiasi applicazione che vada oltre i desideri dell’utente, prenda di mira gruppi sociali protetti o sia orientata al tracciamento biometrico dei cittadini in tempo reale, come il riconoscimento facciale. Gli usi ad alto rischio includono applicazioni utilizzate in questioni giudiziarie, istruzione, infrastrutture critiche e altri scenari.
Gli strumenti di intelligenza artificiale generativa come ChatGPT e Google Bard, che hanno contribuito a incrementare la popolarità della tecnologia, sono classificati come applicazioni a “rischio limitato” dall’Unione Europea. Tuttavia, i chatbot e i software in grado di generare immagini manipolate, come i “deepfakes”, dovranno chiarire che il materiale visto è generato dall’intelligenza artificiale, per evitare disinformazione, secondo le bozze di legge. Le aziende che violano queste regole sarebbero suscettibili di sanzioni fino al 7% del valore delle loro vendite globali.
Le aziende europee hanno espresso preoccupazione per una possibile restrizione eccessiva all’uso dell’intelligenza artificiale ai sensi dell’AI Act. Lo scorso giugno, alcune delle più grandi aziende del blocco, come Airbus e Siemens, hanno affermato che le regole sembravano troppo rigide e potevano scoraggiare l’innovazione e il sostegno alle industrie locali. Secondo un comunicato stampa, l’Unione Europea continuerà a lavorare nelle prossime settimane per finalizzare i dettagli del nuovo regolamento.
Una volta completato, il testo di compromesso sarà inviato ai rappresentanti degli Stati membri per l’approvazione. L’approvazione dell’AI Act è un passo importante verso la regolamentazione globale della tecnologia. La legge potrebbe avere un impatto significativo su come l’intelligenza artificiale viene sviluppata, utilizzata e commercializzata in tutto il mondo. In particolare, l’AI Act, che è ancora in fase di sviluppo e le cui sue implicazioni complete non saranno chiare fino a quando non sarà pienamente implementato, potrebbe:
- Proteggere gli individui dai potenziali rischi dell’intelligenza artificiale, come la discriminazione e la disinformazione.
- Promuovere l’uso responsabile dell’intelligenza artificiale, in modo che sia utilizzata per il bene dell’umanità.
- Garantire che l’Europa sia un leader globale nello sviluppo e nell’uso dell’intelligenza artificiale.
- Tuttavia, è importante notare che l’AI Act è ancora in fase di sviluppo e che le sue implicazioni complete non saranno chiare fino a quando non sarà pienamente implementato.