El objetivo es proteger a los menores de comentarios inapropiados y solicitudes de contenido sexual en mensajes directos.
La empresa matriz de Instagram, Meta, implementó nuevas funciones de seguridad destinadas a proteger a los adolescentes que utilizan sus plataformas, incluyendo información sobre las cuentas que les envían mensajes y una opción para bloquear y reportar cuentas con un solo clic.
La compañía también anunció que eliminó miles de cuentas que dejaban comentarios sexualizados o solicitaban imágenes sexuales desde cuentas administradas por adultos dirigidas a menores de 13 años.
Según Meta, estas nuevas opciones «complementan los avisos de seguridad» que se muestran para recordar a los usuarios que tengan cuidado con los mensajes privados, con sugerencias como que «bloqueen y denuncien cualquier contenido que les resulte incómodo».
Meta señaló que los usuarios adolescentes bloquearon más de 1 millón de cuentas y reportaron otro millón tras recibir un aviso de seguridad que les recuerda «tener precaución en los mensajes privados y bloquear o reportar cualquier situación que les genere incomodidad».
También hay un nuevo «aviso de ubicación» que informa a los usuarios si alguien con quien están chateando podría estar en otro país, algo que los estafadores suelen tratar de ocultar. Y la herramienta de protección contra desnudez de Meta, que borra automáticamente imágenes sospechadas de ser explícitas, ahora está activada por defecto para las cuentas de adolescentes.
Además, Meta extendió algunas de estas protecciones a cuentas gestionadas por adultos que presentan principalmente a niños, como aquellas administradas por padres o representantes de talento. Estas cuentas ahora tendrán configuraciones más estrictas por defecto para limitar mensajes de extraños y filtrar comentarios ofensivos. Meta también dificultará que los adultos señalados encuentren o interactúen con estos perfiles.