El informe incluye contenido sensible, que refiere entre otras cosas autolesiones y suicidios.
Una nueva investigación llevada a cabo por Amnistía Internacional ha concluido que el feed “Para ti” de TikTok está empujando a niños, niñas y jóvenes franceses con interés por la salud mental a una espiral de contenidos que fomentan la depresión, las autolesiones y el suicidio.
El informe resultante, titulado Dragged into the Rabbit Hole, pone de relieve la falta de medidas por parte de TikTok para abordar los riesgos sistémicos de su diseño que afectan a la infancia y a las personas jóvenes.
“Nuestra investigación técnica muestra lo rápido que los y las adolescentes que se interesan por temas relacionados con la salud mental pueden verse arrastrados a espirales de contenidos tóxicos y caer en ellas. Tras sólo tres o cuatro horas de interacción en el feed “Para ti” de TikTok, las cuentas de prueba de adolescentes recibieron recomendaciones de vídeos en los que se idealizaba el suicidio o se mostraba a jóvenes manifestando su intención de quitarse la vida, e incluso información sobre métodos para suicidarse”, comenta Lisa Dittmer, investigadora sobre Derechos Digitales de Niños, Niñas y Jóvenes de Amnistía Internacional.
En Francia, los testimonios de personas jóvenes y de progenitores desconsolados revelan cómo TikTok ha normalizado y amplificado las autolesiones y las ideas suicidas hasta el punto de recomendar contenidos sobre ‘retos suicidas’.
Lisa Dittmer, investigadora sobre Derechos Digitales de Niños, Niñas y Jóvenes de Amnistía Internacional
El feed “Para ti” de TikTok es un flujo personalizado de vídeos cortos que recomienda contenidos basándose en las visualizaciones.
El equipo de investigación de Amnistía Internacional configuró tres cuentas de adolescentes —dos chicas y un chico—, registradas con usuarios de 13 años residentes en Francia, para examinar manualmente la amplificación algorítmica de contenidos en el feed “Para ti”. A los cinco minutos de empezar a navegar y antes de indicar ninguna preferencia, a través de las cuentas se recibieron vídeos sobre la tristeza o la desilusión.
El visionado de estos vídeos incrementó rápidamente la cantidad de contenido vinculado con la tristeza y la salud mental. Entre 15 y 20 minutos después de empezar el experimento, los feed de las tres cuentas estaban llenos casi exclusivamente de vídeos sobre salud mental, y hasta la mitad de ellos mostraban contenido depresivo. Al cabo de 45 minutos, dos de las cuentas mostraron vídeos que expresaban pensamientos suicidas.
Además de este, se llevaron a cabo otros experimentos en colaboración con el Instituto de Transparencia Algorítmica utilizando cuentas de prueba automatizadas de adolescentes de 13 años en Francia. El equipo de investigación concluyó que el sistema de recomendación de TikTok duplicaba con creces la proporción de contenido triste o depresivo recomendado cuando en el historial de visualizaciones figuraban diferentes niveles de este tipo de vídeos.
La investigación se llevó a cabo en Francia, donde TikTok está regulado por el Reglamento de Servicios Digitales de la Unión Europea que, desde 2023, exige a las plataformas que identifiquen y mitiguen los riesgos sistémicos para los derechos de la infancia.
Los legisladores franceses están actualmente debatiendo las deficiencias en la regulación de las redes sociales, y esta investigación se suma a las pruebas anteriores presentadas por Amnistía Internacional de que TikTok no ha abordado los riesgos sistémicos asociados a su modelo de negocio basado en la participación.
El impacto en las personas jóvenes
A pesar de las medidas de mitigación de riesgos anunciadas por TikTok desde 2024, la plataforma sigue exponiendo a usuarios y usuarias vulnerables a contenidos que normalizan las autolesiones, la desesperanza y las ideas suicidas.
Los testimonios de jóvenes con depresión y progenitores afectados o en duelo revelan la magnitud de los riesgos y los daños que el modelo de negocio de TikTok representa para la salud mental y física de una juventud que ya vive situaciones complicadas.
“Hay vídeos que se me han quedado grabados”, comenta Maëlle, de 18 años, mientras describe cómo en 2021 se vio arrastrada por contenidos depresivos y de autolesiones en el feed “Para ti” de TikTok. Durante los tres años siguientes, sus problemas de salud mental relacionados con las autolesiones empeoraron, mientras se veía absorbida por el consumo de contenidos nocivos en Internet.
“Ver a personas haciéndose cortes o diciendo qué medicamentos tomar para acabar con todo nos afecta y nos incita a hacernos daño.”
Aunque el informe se centra en la amplificación de contenidos nocivos, los testimonios recabados también apuntan a las deficiencias de TikTok en la moderación de contenidos. Según quienes participaron en el estudio, pese a las repetidas denuncias de jóvenes y sus familias, los contenidos que incitan a la autolesión o al suicidio no se han eliminado de la plataforma.
En el verano de 2025, por ejemplo, miembros del personal de investigación de Amnistía encontraron dos vídeos sobre el “reto del bálsamo labial” en el feed de una cuenta de prueba administrada manualmente. La tendencia social empezó supuestamente como un reto para adivinar el aroma del bálsamo labial de otra persona, Pero la idea evolucionó hacia una versión diferente en la que se animaba a la gente a quitarse parte del bálsamo labial cada vez que se sintieran tristes, y a autolesionarse o suicidarse cuando se lo hubieran quitado todo.
“Para estas plataformas, nuestros hijos e hijas se han convertido en productos, ya no son seres humanos. Los utilizan como productos a través de algoritmos y burbujas de filtros, explotando sus emociones para cautivarlos. El algoritmo capta tus intereses, y eso no es normal. Se entrometen en la vida privada de los niños y niñas. Pero la infancia tiene derechos”, afirma Stéphanie Mistre, madre de Marie Le Tiec, una joven francesa de 15 años que cayó en la espiral de contenidos depresivos de TikTok y se quitó la vida en 2021.
Medidas urgentes y vinculantes para hacer de TikTok una plataforma segura
Según demuestra la investigación, TikTok no está haciendo frente a los riesgos sistémicos causados a la gente joven por el diseño adictivo de su plataforma. La empresa no está cumpliendo con su responsabilidad de respetar los derechos humanos de acuerdo con los Principios rectores de la ONU sobre las empresas y los derechos humanos, ni está cumpliendo sus obligaciones en virtud del Reglamento de Servicios Digitales.
Estos nuevos indicios de infracciones evidentes del Reglamento de Servicios Digitales por parte de TikTok deben tenerse en cuenta lo antes posible en la investigación que actualmente lleva a cabo la Comisión Europea. Deben adoptarse medidas vinculantes y efectivas que obliguen a TikTok a garantizar que, por fin, su aplicación sea segura para los y las jóvenes de la Unión Europea y de todo el mundo.
Katia Roux, responsable del trabajo de incidencia de Amnistía Francia
El desprecio de TikTok por los daños sistémicos ligados a su modelo basado en la participación suscita honda preocupación respecto al cumplimiento del Reglamento de Servicios Digitales y subraya la necesidad de una normativa más firme y unas medidas más estrictas de rendición de cuentas por parte de la plataforma para proteger a la infancia y a los usuarios y usuarias vulnerables.
Amnistía Internacional ha remitido a TikTok sus conclusiones principales, pero la empresa no ha respondido.
Información complementaria
En 2023, Amnistía Internacional publicó dos informes complementarios: Empujados a la oscuridad: El feed “Para ti” de TikTok fomenta la autolesión y la ideación suicida y Siento que no se me protege: Emboscada en la red de vigilancia de TikTok, en los que se destacan los abusos que sufren los niños, niñas y jóvenes que utilizan TikTok.
Si desean más ayuda sobre las cuestiones tratadas en este informe, pueden consultar la guía de Amnistía Internacional sobre Resiliencia y autocuidado: Salvar al mundo y no morir en el intento (Volumen 2): Cuaderno de trabajo para activistas jóvenes.