OpenAI si impegna per la sicurezza dei minori

OpenAI e altri leader del settore si sono impegnati a implementare misure di sicurezza per proteggere i bambini dall'abuso sessuale attraverso l'uso responsabile delle tecnologie di intelligenza artificiale generativa, seguendo i principi di "Safety by Design"

OpenAI si impegna per la sicurezza dei minori

OpenAI, insieme ad altri leader del settore come Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI e Stability AI, ha recentemente annunciato un importante impegno per garantire la sicurezza dei bambini nell’ambito dello sviluppo e della gestione delle tecnologie di intelligenza artificiale generativa.

Questo progetto, promosso da Thorn, un’organizzazione non profit focalizzata sulla protezione dell’infanzia dagli abusi sessuali, e da All Tech Is Human, impegnata nella risoluzione delle complesse questioni tra tecnologia e società, mira a mitigare i rischi potenziali che l’IA generativa può comportare per i più giovani. L’iniziativa si basa sui principi di “Safety by Design“, che pongono la sicurezza dei bambini al centro di ogni fase dello sviluppo dell’intelligenza artificiale.

OpenAI e i suoi partner si sono impegnati a garantire che le tecnologie di IA generativa siano progettate e gestite in modo tale da ridurre al minimo la possibilità di generare contenuti dannosi per i minori. Ciò include la collaborazione attiva con il National Center for Missing and Exploited Children (NCMEC), la Tech Coalition e altri soggetti governativi e industriali per affrontare le questioni legate alla protezione dell’infanzia e per migliorare i meccanismi di segnalazione.

Tra i principi specifici adottati nell’ambito di Safety by Design vi è l’importanza di sviluppare, costruire e addestrare modelli di IA generativa che affrontino proattivamente i rischi per la sicurezza dei bambini. Inoltre, si prevede l’utilizzo di fonti responsabili per i set di dati di addestramento, con particolare attenzione alla rilevazione e alla rimozione di materiali di prevaricazione sessuale su minori (CSAM) e materiali di prevaricazione di minori (CSEM). È anche prevista l’implementazione di soluzioni per affrontare l’uso non benevolo delle tecnologie di IA generativa.

Nella fase di distribuzione, OpenAI e gli altri partecipanti si impegnano a rilasciare e distribuire i modelli di IA generativa solo dopo che sono stati addestrati e valutati per la sicurezza infantile. Questo include anche l’adozione di misure per contrastare contenuti e comportamenti abusivi, oltre a promuovere la proprietà dello sviluppo in sicurezza per progettazione.

Nella fase di manutenzione, l’attenzione rimarrà focalizzata sulla sicurezza del modello e della piattaforma, con un costante monitoraggio dei rischi per la sicurezza dei bambini e l’impegno a rimuovere qualsiasi nuovo materiale CSAM generato dall’IA. Questo impegno rappresenta un passo significativo nel prevenire gli eccessi delle tecnologie di IA per creare o diffondere materiale di prepotenza sessuale su minori e altre forme di danno contro i bambini. OpenAI e gli altri partecipanti si sono anche impegnati a fornire aggiornamenti annuali sui progressi compiuti nell’ambito di questa iniziativa, dimostrando così un impegno continuo verso la protezione dei più vulnerabili nella nostra società.

Continua a leggere su Fidelity News