A pesar de años de investigaciones y advertencias sobre los riesgos de las redes sociales para menores, un nuevo informe sostiene que las medidas de seguridad de Instagram continúan siendo insuficientes y poco efectivas. El documento fue elaborado por el ex empleado y denunciante Arturo Bejar junto con cuatro organizaciones sin fines de lucro, entre ellas Cybersecurity for Democracy de la Universidad de Nueva York y la Universidad Northeastern.
Según la evaluación, 47 de las 53 funciones de seguridad que Meta ofrece a adolescentes en Instagram resultan ineficaces, han sido retiradas o presentan limitaciones notables. Solo ocho herramientas funcionan de acuerdo con lo prometido. El análisis se centró en el diseño de la aplicación, más que en la moderación de contenido.
Críticas a la efectividad de las herramientas y contenido recomendado
El informe concluye que los sistemas de protección no logran impedir interacciones inapropiadas entre adultos y menores, ya que las funciones de la plataforma aún permiten que cuentas desconocidas contacten a adolescentes o que sus perfiles sean recomendados a adultos. Además, muchas de las funciones para filtrar lenguaje ofensivo o proteger contra insinuaciones sexuales no funcionan de manera consistente.
El análisis también señala que las cuentas de prueba para adolescentes recibieron recomendaciones de contenido sexual, violento y de autolesión, incluyendo material que podría agravar problemas de salud mental o conductas de riesgo. Asimismo, se encontró la presencia de usuarios menores de 13 años en la plataforma, algunos de apenas seis años, expuestos a dinámicas que fomentan comportamientos sexualizados.
Meta, matriz de Instagram, rechazó los hallazgos y calificó el informe de “engañoso y especulativo”, afirmando que las cuentas para adolescentes incluyen protecciones automáticas y controles parentales que reducen la exposición a contenido sensible y limitan el contacto no deseado. La compañía indicó que seguirá ajustando sus herramientas de seguridad.
Los autores del informe recomiendan auditorías periódicas de las funciones de mensajería y bloqueo, mejores mecanismos para reportar conductas inapropiadas y mayor transparencia sobre la experiencia de los adolescentes en la plataforma. También piden que las recomendaciones de contenido se ajusten a estándares apropiados para la edad.
El debate se suma a las demandas legales en curso contra Meta en Estados Unidos, que alegan que la empresa no protege adecuadamente a los menores de daños en sus plataformas.
Redacción de: Karen Rodríguez A.





