O Instagram passará a notificar pais e responsáveis quando adolescentes realizarem buscas relacionadas a suicídio ou automutilação na plataforma. A medida foi anunciada pela Meta, dona da rede social, como parte de um conjunto de iniciativas voltadas ao reforço da segurança de menores de idade no ambiente digital. Leia em TVT News.
De acordo com a empresa, o novo recurso será integrado às chamadas “contas de adolescente”, aplicadas a usuários entre 13 e 17 anos. Os alertas serão enviados exclusivamente aos responsáveis que tiverem ativado previamente a ferramenta de supervisão parental. O jovem também será informado de que a notificação foi encaminhada.
Em comunicado oficial divulgado à imprensa, a Meta afirmou que a iniciativa busca fortalecer o acompanhamento familiar em situações de possível vulnerabilidade. “Esses alertas foram criados para garantir que os pais estejam cientes caso seus filhos adolescentes estejam tentando repetidamente buscar esse tipo de conteúdo e para fornecer os recursos necessários para apoiá-los”, declarou a empresa.
Segundo as informações divulgadas, o mecanismo será acionado quando houver buscas reiteradas por termos associados a suicídio ou autolesão. A empresa não detalhou publicamente quais palavras-chave específicas integrarão o sistema de monitoramento, mas indicou que a ferramenta foi desenvolvida para identificar padrões de comportamento que possam indicar risco.
Além da notificação aos responsáveis, o Instagram continuará exibindo ao adolescente mensagens com recursos de apoio, incluindo direcionamento a serviços de ajuda e prevenção ao suicídio. A companhia afirma que o objetivo é combinar restrição de conteúdo sensível com orientação e encaminhamento adequado.
Nos últimos anos, a Meta vem anunciando medidas para restringir a exposição de adolescentes a conteúdos considerados prejudiciais. As contas de menores já contam com configurações mais rígidas de privacidade por padrão, limitações na recomendação de publicações sensíveis e controle ampliado por parte dos responsáveis.
A nova funcionalidade surge em meio a pressões internacionais sobre empresas de tecnologia para que adotem políticas mais robustas de proteção à saúde mental de jovens. Autoridades regulatórias, organizações da sociedade civil e especialistas em segurança digital têm cobrado maior transparência e responsabilidade das plataformas no enfrentamento de conteúdos ligados a autolesão, transtornos alimentares e outras questões sensíveis.
A discussão ganhou força especialmente após investigações e estudos apontarem impactos negativos do uso intensivo de redes sociais na saúde emocional de adolescentes. Em resposta, a Meta afirma estar investindo em ferramentas que promovam maior equilíbrio entre privacidade, autonomia juvenil e supervisão familiar.
Ainda não há detalhes sobre o cronograma completo de implementação global da medida, mas a empresa indicou que o recurso será disponibilizado de forma gradual. A expectativa é que a ferramenta se integre ao conjunto de políticas já existentes de moderação e segurança voltadas ao público adolescente.
Especialistas em prevenção ao suicídio destacam que iniciativas digitais podem contribuir para ampliar o acesso à informação e ao apoio, desde que acompanhadas de diálogo aberto e escuta qualificada no ambiente familiar. A nova política do Instagram aposta justamente nesse eixo: informar responsáveis para que possam intervir de maneira acolhedora e preventiva diante de sinais de alerta.
O tema reforça o debate sobre o papel das plataformas digitais na promoção de ambientes mais seguros e na construção de redes de proteção capazes de atuar antes que situações de risco se agravem.

