Meta, la società capofila di Facebook e Instagram, ha annunciato una nuova politica che richiederà agli inserzionisti di annunci politici o su temi di attualità di dichiarare quando i loro annunci sono stati “creati o modificati digitalmente” attraverso l’uso dell’intelligenza artificiale (IA).
L’obiettivo principale è contrastare la crescente diffusione dei deepfake, contenuti multimediali manipolati digitalmente per ingannare il pubblico. Questa iniziativa avrà un impatto sugli annunci relativi alle elezioni, alla politica e alle questioni sociali, richiedendo dichiarazioni aggiuntive all’atto della presentazione dei nuovi annunci. I deepfake sono diventati sempre più sofisticati e difficili da riconoscere, grazie all’evoluzione dell’IA e dell’apprendimento automatico.
Queste tecnologie possono essere utilizzate per creare immagini, video o audio falsi o alterati, che hanno il potenziale di influenzare l’opinione pubblica, danneggiare la reputazione di individui od organizzazioni, e persino innescare crisi internazionali. Meta ha dichiarato di voler promuovere una maggiore trasparenza e responsabilità nel settore della pubblicità online, specialmente in vista delle prossime elezioni in diversi paesi.
La società intende fornire agli utenti la possibilità di verificare se gli annunci che visualizzano sono stati creati o modificati dall’IA, consentendo loro di valutarne la credibilità e l’affidabilità. È importante notare che le normali modifiche digitali, come il miglioramento delle immagini, il ritaglio e altri aggiustamenti di base, non rientreranno nella nuova politica di divulgazione. Gli inserzionisti saranno tenuti a fornire dichiarazioni quando i loro annunci “contengono un’immagine fotorealistica o un video, o audio che suona realistico” in determinate categorie.
Tutte le informazioni relative agli annunci digitalmente alterati saranno raccolte nella “Meta’s Ad Library“, un database consultabile che raccoglie gli annunci a pagamento sulle piattaforme dell’azienda. Inoltre, Meta ha stabilito restrizioni sull’uso dei suoi strumenti AI generativi nelle campagne legate alla politica, alle elezioni e alle questioni sociali. Questi strumenti, tra cui il “Meta AI Studio“, consentono di creare contenuti multimediali personalizzati e di alta qualità utilizzando l’IA.
Tuttavia, Meta ha specificato che questi strumenti non possono essere utilizzati per creare annunci ingannevoli o che violino le normative sulla privacy o sui diritti d’autore. Questa nuova politica segue l’annuncio di Meta di limitare il tipo di annunci che possono essere creati utilizzando i suoi strumenti AI generativi. Questa decisione arriva in un momento in cui i legislatori stanno esaminando attentamente l’interazione tra intelligenza artificiale e pubblicità politica.
Alcuni paesi, tra cui la Francia e il Regno Unito, hanno già introdotto o stanno valutando normative specifiche per regolare i deepfake e i media sintetici. Meta ha dichiarato la sua intenzione di collaborare con le autorità competenti, esperti del settore e organizzazioni della società civile per sviluppare standard comuni e buone pratiche per l’uso responsabile dell’IA nella pubblicità online. La società cerca anche di sensibilizzare gli utenti sui rischi e le opportunità dei media sintetici, fornendo loro strumenti e risorse per verificare l’autenticità dei contenuti che visualizzano. Con questa nuova politica, Meta spera di contribuire a creare un ambiente online più sicuro e affidabile per utenti, inserzionisti e creatori di contenuti, promuovendo una maggiore fiducia e partecipazione nel dibattito pubblico. La trasparenza nell’advertising online è diventata cruciale per affrontare le sfide legate all’IA e ai deepfake, proteggendo così la democrazia e la società.