Instagram testa desfoque de nudes para proteger usuários

Instagram lança filtro que desfoca nudes em mensagens para proteger jovens de abusos.

segurança

O Instagram está iniciando um teste de uma nova funcionalidade para aumentar a segurança de seus usuários, especialmente dos mais jovens. A iniciativa mira no combate à extorsão sexual e ao abuso de imagens íntimas. A ferramenta em questão utiliza-se de tecnologia avançada de aprendizado de máquina para examinar imagens enviadas pelo Direct. Caso o sistema identifique conteúdo de nudez, ele automaticamente aplicará um desfoque.

Esta medida será ativada automaticamente para quem tem menos de 18 anos. Os adultos, por sua vez, receberão recomendações para habilitar a proteção. A preocupação com a segurança online dos adolescentes ganha ainda mais relevância à luz de críticas recentes. Alega-se que a plataforma pode ser viciante e contribuir para problemas de saúde mental entre os mais jovens.

A iniciativa vem após a Meta, empresa responsável pelo Instagram, anunciar ações para ocultar conteúdos sensíveis, abrangendo temas como suicídio, automutilação e distúrbios alimentares. Um passo adiante nesse compromisso é o desenvolvimento de uma tecnologia que visa identificar contas que possam estar envolvidas em sextorção, que consiste na extorsão sexual por meio de ameaças de divulgação de imagens íntimas.

Além disso, a Meta está testando alertas pop-up para usuários que interajam com contas suspeitas de envolvimento nesse tipo de atividade. Outro avanço significativo anunciado é a intenção da empresa de implantar a criptografia em mensagens do Instagram, seguindo o exemplo do Messenger e WhatsApp. Importante destacar, que as imagens são analisadas nos dispositivos dos próprios usuários. Portanto, mesmo em conversas criptografadas de ponta a ponta, a nova funcionalidade de proteção à nudez será eficiente sem que a Meta tenha acesso às imagens, a menos que sejam denunciadas.