Meta, la società madre di Instagram e Facebook, ha annunciato importanti aggiornamenti mirati a garantire una maggiore sicurezza e protezione per i minori che utilizzano le sue piattaforme. Queste nuove funzionalità, presentate nelle scorse ore, si concentrano su diverse aree chiave per creare un ambiente online più appropriato per gli utenti più giovani.
Una delle principali modifiche riguarda i controlli di contenuto. Attualmente, Instagram e Facebook offrono tre livelli di controllo: “Moderato”, “Rigoroso” e “Molto rigoroso”. Con i nuovi cambiamenti, gli account dei minori saranno automaticamente impostati sul livello “Molto rigoroso“. Ciò significa che i giovani utenti vedranno meno contenuti potenzialmente dannosi od offensivi, come immagini violente, contenuti sessualmente espliciti o promozione di odio e violenza.
Inoltre, Instagram e Facebook si stanno impegnando a nascondere i contenuti relativi a temi delicati come l’autolesionismo, disturbi alimentari e altri problemi di salute mentale. Se un minore cerca contenuti correlati a queste tematiche, verrà reindirizzato a risorse di esperti che possono fornire supporto e informazioni. La piattaforma collaborerà anche con organizzazioni come la National Alliance on Mental Illness per fornire ulteriori risorse e supporto. La sicurezza online è stata ulteriormente potenziata reindirizzando i minori che cercano contenuti sensibili, come il bullismo, a risorse di esperti.
Questa iniziativa mira a educare e offrire supporto a chiunque cerchi argomenti che possono avere impatti negativi sulla salute mentale. Meta sta anche estendendo la restrizione sui contenuti suggeriti a Feed e Storie, limitando la visualizzazione di materiale potenzialmente dannoso o inappropriato per i minori. Tuttavia, sarà ancora possibile modificare manualmente queste impostazioni per adattarle alle preferenze individuali.
Questi cambiamenti arrivano in un momento in cui Meta è sotto la lente d’ingrandimento per le critiche che le piattaforme sociali danneggiano (come ha rivelato anche la talpa Frances Haugen) la salute mentale dei giovani. Attualmente, più di 40 stati stanno citando in giudizio Meta, sottolineando la necessità di misure più rigorose per proteggere gli utenti giovani. La società ha anche evidenziato il coinvolgimento regolare con esperti in sviluppo adolescenziale, psicologia e salute mentale per garantire l’adeguatezza delle misure adottate.
L’obiettivo è di creare un ambiente online sicuro e adatto all’età dei giovani utenti. Alcune delle nuove regole saranno applicate automaticamente ai nuovi adolescenti iscritti a Instagram e Facebook, mentre verranno estese a quelli già attivi su queste piattaforme. L’azienda continuerà a collaborare con esperti e a condividere risorse da organizzazioni specializzate per sostenere chiunque cerchi aiuto in merito a tematiche delicate come l’autolesionismo o i disturbi alimentari. Questi aggiornamenti rappresentano un passo significativo di Meta per affrontare le preoccupazioni sulla sicurezza e la salute mentale dei giovani utenti, cercando di creare un ambiente più protetto e consapevole.