Instagram notificará a padres si sus hijos buscan contenido sobre suicidio o autolesión (mod)
Por
Evelyn Alas
Publicado el 26 de febrero de 2026
resumen general
Instagram comenzará a notificar a los padres cuando sus hijos adolescentes intenten buscar repetidamente términos relacionados con el suicidio o la autolesión en la plataforma. La medida, anunciada por Meta, se implementará inicialmente en Estados Unidos, Reino Unido, Australia y Canadá para quienes utilicen las herramientas de supervisión parental, y se extenderá a otras regiones a finales de año.
La alerta se activará cuando un menor busque frases que sugieran intención de autolesionarse o términos como “suicidio” o “autolesión” en un corto período de tiempo. Los avisos llegarán por notificación dentro de la aplicación y, según la información disponible, por correo electrónico, SMS o WhatsApp. Al abrir la alerta, los padres verán un mensaje explicativo y acceso a recursos especializados para abordar la conversación con su hijo.
¿Por qué es relevante esta medida?
El anuncio ocurre en un contexto de creciente preocupación mundial por la salud mental adolescente y el impacto de las redes sociales. La Organización Mundial de la Salud (OMS) estima que el suicidio es una de las principales causas de muerte entre jóvenes de 15 a 29 años a nivel global. Además, organismos como los Centros para el Control y la Prevención de Enfermedades de EE. UU. (CDC) han documentado un aumento sostenido en los niveles de tristeza persistente y conductas autolesivas en adolescentes en los últimos años.
Diversas investigaciones académicas también han señalado que la exposición reiterada a contenido sobre autolesiones puede aumentar el riesgo en jóvenes vulnerables, especialmente cuando ya existen factores como depresión, ansiedad o acoso escolar.
¿Qué cambia en Instagram?
Meta afirma que mantiene políticas estrictas contra contenido que glorifique el suicidio o la autolesión. Sin embargo, permite publicaciones donde usuarios comparten sus experiencias personales de recuperación o dificultades, aunque ese contenido no se muestra a menores.
La novedad es que ahora no solo se moderará el contenido visible, sino que se generarán alertas cuando un adolescente realice búsquedas repetidas sobre estos temas. Además, la empresa adelantó que implementará notificaciones similares cuando detecte que un menor intenta entablar conversaciones relacionadas con suicidio o autolesión con herramientas de inteligencia artificial dentro de la plataforma.
TAGS: Anamorós | Mercedes Umaña | Santa Ana
CATEGORIA: Vida | Cuerpo y mente
