Siete familias francesas, incluidas dos que han perdido hijos por suicidio, han demandado a TikTok Francia, acusando a la plataforma de videos de exponer a menores a contenido peligroso que incita al suicidio y la autolesión. La demanda alega que el algoritmo de TikTok promueve material dañino, atrapando a usuarios vulnerables en ciclos de desesperación para mantenerlos enganchados a la aplicación con fines de lucro.
El caso, presentado en noviembre de 2024, se centra en el supuesto impacto negativo del contenido que la plataforma recomienda a jóvenes usuarios, como tutoriales sobre métodos de suicidio y material que normaliza comportamientos autodestructivos. Según los abogados de las familias, TikTok no ha implementado salvaguardas suficientes para proteger a los menores, a pesar de que su versión china, Douyin, aplica controles estrictos, como un “modo juvenil” obligatorio que limita el tiempo de uso y restringe el contenido.
La empresa, propiedad de ByteDance, ha declarado que sus directrices prohíben la promoción de suicidios o autolesiones y que cuenta con un equipo global de 40.000 moderadores para eliminar contenido dañino. Sin embargo, expertos y críticos argumentan que las medidas de moderación son insuficientes y que los algoritmos de la plataforma contribuyen activamente a la propagación de contenido nocivo.
Información oficial
Un informe encargado por el gobierno francés en 2023 identificó los riesgos de ciertas funciones algorítmicas en redes sociales y recomendó medidas como prohibir su acceso a menores de 15 años. Aunque estas recomendaciones aún no se han implementado, el caso ha reavivado el debate sobre la regulación de plataformas digitales y la responsabilidad de las empresas tecnológicas en la protección de los usuarios más jóvenes.
El proceso judicial podría prolongarse durante meses, mientras TikTok enfrenta crecientes críticas y escrutinios a nivel internacional por el impacto de sus algoritmos en la salud mental de adolescentes.
Redacción de: Karen Rodríguez A.