Redazione RHC : 13 Aprile 2024 15:57
Meta, proprietaria del social network Instagram, ha recentemente annunciato una serie di nuove funzionalità volte a proteggere gli adolescenti da contenuti inappropriati. Tra questi c’è una funzione che sfoca automaticamente le foto contenenti parti del corpo nude, oltre ad avvertimenti per gli utenti che inviano tali immagini.
Le nuove misure di sicurezza saranno abilitate di default per gli utenti Instagram sotto i 18 anni. Agli utenti più grandi di età, a loro volta, verrà chiesto di abilitare autonomamente queste funzioni.
Meta sta inoltre sviluppando una tecnologia per identificare gli account coinvolti nell’estorsione di foto intime. Tali account avranno una capacità limitata di interagire con altri utenti, in particolare con gli adolescenti.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program!
Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Per ulteriori informazioni, scrivici ad [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Secondo i rappresentanti di Meta, le misure mirano a proteggere gli adolescenti dal cyberflashing (battute sistematiche offensive che possono portare a tragedie) e dalla sextortion (ricatto tramite materiale intimo). L’azienda spera che le nuove funzionalità contribuiscano a proteggere i giovani utenti del social network da tali rischi.
Meta ha adottato alcune misure in passato per proteggere i minori, come rendere privati i loro account per impostazione predefinita. Tuttavia, l’azienda è stata ancora criticata per il fatto che tali misure non fossero sufficienti.
Adesso, probabilmente, anche il critico più esigente sarà soddisfatto, perché l’esperienza degli adolescenti che interagiscono sui social network è diventata molto più sicura.