Meta ha annunciato l’arrivo su Instagram di una nuova funzione di supervisione parentale: d’ora in avanti, i genitori potranno ricevere notifiche automatiche quando il proprio figlio adolescente effettua ricerche ripetute su temi legati al suicidio o all’autolesionismo. La misura, presentata come strumento di protezione dei minori, sarà attiva nelle prossime settimane in Stati Uniti, Regno Unito, Australia e Canada, mentre per l’Italia l’implementazione è prevista entro la fine dell’anno, subordinata all’adeguamento alle normative europee sulla privacy.
Il meccanismo si attiva esclusivamente sugli account collegati agli strumenti di controllo parentale. Quando un ragazzo tenta più volte in breve tempo di cercare termini sensibili, scatta una segnalazione che viene recapitata ai genitori tramite email, SMS, WhatsApp o notifica diretta sull’applicazione. Aprendo l’avviso, i genitori trovano un messaggio esplicativo e materiali informativi elaborati in collaborazione con specialisti del settore, pensati per supportare un dialogo costruttivo con i figli.
“Nelle prossime settimane, Instagram inizierà a notificare ai genitori che utilizzano la supervisione se il loro adolescente prova ripetutamente a cercare termini legati al suicidio o all’autolesionismo in un breve periodo di tempo”, si legge nel comunicato ufficiale di Meta. L’azienda ha precisato di aver fissato una soglia minima di ricerche per limitare i falsi allarmi, pur ammettendo che alcune notifiche potrebbero scattare in assenza di un rischio reale.
Si tratta di un cambio di approccio significativo rispetto alle pratiche finora adottate dalle principali piattaforme social, che si erano limitate a bloccare le ricerche problematiche e a mostrare numeri di supporto psicologico, senza coinvolgere direttamente i familiari. Sameer Hinduja, co-direttore del Cyberbullying Research Center, ha definito la funzione “un passo importante”, mentre Vicki Shotbolt dell’organizzazione Parent Zone ha sottolineato come possa offrire maggiore serenità alle famiglie. Meta ha inoltre comunicato di essere al lavoro su avvisi analoghi per le conversazioni con i chatbot basati su intelligenza artificiale, strumenti sempre più utilizzati dagli adolescenti per confidarsi o cercare informazioni su temi personali.
Non mancano però le voci critiche. La Molly Rose Foundation, nata in memoria di Molly Russell, quattordicenne britannica che si tolse la vita nel 2017 dopo aver visualizzato contenuti lesivi sui social, teme che notifiche improvvise possano generare reazioni ansiose nei genitori e conversazioni gestite in modo inadeguato. Anche le organizzazioni Papyrus Prevention of Young Suicide e 5Rights hanno espresso perplessità, sostenendo che la priorità dovrebbe essere impedire ai contenuti dannosi di raggiungere i ragazzi, piuttosto che informare le famiglie dopo il fatto. Alcune ricerche citate da queste realtà indicano che materiali legati a depressione e autolesionismo continuerebbero in certi casi a essere suggeriti agli utenti più vulnerabili. Meta ha respinto queste critiche.
Il lancio avviene in un contesto di crescente attenzione istituzionale ai rischi dei social media per i minori. Lo scorso dicembre l’Australia è diventata il primo Paese al mondo a vietare l’accesso ai social agli under 16. In Europa, con l’entrata in vigore del Digital Services Act, le autorità stanno aumentando la pressione sulle piattaforme affinché adottino sistemi di verifica dell’età più rigidi ed efficaci. Per restare sempre aggiornato scarica GRATIS la nostra App!
