Hoy: 25 de noviembre de 2024
Los menores que exploran contenidos relacionados con la salud mental en la sección ‘Para ti’ de TikTok se topan con recomendaciones de contenidos potencialmente dañinos, incluyendo videos que idealizan y promueven la depresión, autolesiones y el suicidio, según una investigación técnica llevada a cabo por Amnistía Internacional en colaboración con el Algorithm Transparency Institute (ATI), National Conference on Citizenship y AI Forensics.
Dos informes elaborados por este organismo internacional resaltan los riesgos que enfrentan los menores al utilizar la plataforma de videos, así como el funcionamiento de los algoritmos de recomendación y las prácticas invasivas de recopilación de datos.
En resumen, los resultados de estas investigaciones exponen las prácticas de diseño adictivo y manipulador de TikTok, cuyo objetivo es retener a los usuarios para que interactúen con la aplicación el mayor tiempo posible, como señaló la investigadora de Amnistía Internacional, Lisa Dittmer.
El primer informe, titulado Empujados a la oscuridad: El feed Para ti de TikTok detalla los riesgos a los que se enfrentan los usuarios debido al objetivo de TikTok de captar su atención, lo que puede intensificar problemas de salud mental como la depresión, la ansiedad o las autolesiones.
Para llegar a esta conclusión, Amnistía Internacional realizó una investigación técnica utilizando más de 30 cuentas automatizadas creadas para representar a jóvenes de 13 años de Estados Unidos y Kenia. Tras utilizar la plataforma durante cinco o seis horas, se descubrió que aproximadamente la mitad de los vídeos estaban relacionados con la salud mental y eran potencialmente dañinos.
El estudio también demostró que esta cifra era aproximadamente diez veces mayor que la presentada a cuentas que aparentemente no se mostraban interesadas en temas relacionados con la salud mental.
Los investigadores se centraron en cómo Para ti recomendaba contenido a aquellos usuarios que mostraban interés en este tema. Después de ver vídeos sobre salud mental entre tres y 20 minutos, más de la mitad de los contenidos de este feed estaban relacionados con la salud mental, y muchos de ellos “idealizaban, normalizan o alentaban el suicidio”.
Amnistía Internacional advierte que TikTok puede exponer a los niños, niñas y jóvenes a graves riesgos para la salud si continúa con su modelo de negocio actual, que está más centrado en mantener a los usuarios en la plataforma que en respetar el derecho a la salud de los usuarios.
En cuanto al segundo de estos informes, titulado Siento que no se me protege: Emboscada en la red de vigilancia de TikTok, se detalla cómo la plataforma recopila datos de los usuarios y cómo atrae a nuevos usuarios.
Según Amnistía Internacional, el modelo de negocio de la aplicación “es intrínsecamente abusivo y privilegia la interacción” para mantener a los usuarios en la plataforma y recopilar más datos sobre ellos.
Una vez que la plataforma obtiene esta información, la utiliza para crear perfiles de usuario y “generar inferencias entre ellos”, permitiéndole segmentar a los usuarios en grupos y dirigir contenido y publicidad “altamente personalizada” con el fin de fomentar el uso continuo de la aplicación.
Además, este análisis critica que, aunque TikTok ha tomado medidas para proteger a los menores que utilizan la plataforma, algunos niños y jóvenes en ciertas partes del mundo están expuestos a prácticas de recopilación de datos invasivas.
Entre las conclusiones resaltadas por Amnistía Internacional tras llevar a cabo ambos estudios, se destaca la necesidad de que la plataforma deje de “hiperpersonalizar por defecto” el feed Para ti y permita a los usuarios elegir qué contenido desean ver en esta pestaña.
Por otro lado, el organismo considera que la mejor manera de proteger a los menores del abuso de sus datos personales en línea es que los gobiernos prohíban por ley toda publicidad segmentada basada en la recopilación indiscriminada de datos personales.
No obstante, en respuesta a esta problemática, la aplicación, propiedad de ByteDance, remitió a Amnistía Internacional sus normas de la comunidad, donde se establece qué tipo de contenidos están prohibidos. Estas normas prohíben expresamente “mostrar, promover o proporcionar instrucciones de suicidio y autolesiones o cualquier desafío, reto o juego relacionado”, así como mostrar o promover bromas sobre este tema.
Además, las conclusiones señalan que, aunque la plataforma está trabajando en un proceso de investigación que incluirá una evaluación periódica del impacto de este contenido, no cumple con su responsabilidad empresarial de respetar los derechos humanos al no contar actualmente con este tipo de diligencias.