fbpx
21.4 C
Canadá
jueves, noviembre 28, 2024
HomeInternacionalEstudio revela imágenes de abuso infantil en bases de datos de inteligencia...

Estudio revela imágenes de abuso infantil en bases de datos de inteligencia artificial, desencadenando preocupaciones globales

Date:

Noticias recientes

El descubrimiento de miles de imágenes de abuso sexual infantil ocultas dentro de bases de datos de inteligencia artificial ha generado una alarma significativa en el ámbito tecnológico y de protección infantil.

Un informe revela que estas imágenes están influenciando la generación de contenido dañino por parte de sistemas de inteligencia artificial, produciendo imágenes realistas y perturbadoras de niños ficticios y manipulando fotografías de adolescentes reales en desnudos, lo que ha provocado preocupación en escuelas y autoridades a nivel mundial.

El Observatorio de Internet de Stanford detectó más de 3.200 imágenes de abuso sexual infantil en el índice de imágenes y subtítulos de LAION, una base de datos utilizada para capacitar importantes generadores de imágenes de inteligencia artificial. A pesar de representar una fracción de los 5.800 millones de imágenes en el índice, estas imágenes ilegales tienen un impacto preocupante en la capacidad de las herramientas de IA para generar resultados dañinos, perpetuando el abuso sufrido por las víctimas.

Ante este descubrimiento, LAION eliminó temporalmente sus conjuntos de datos y expresó su política de tolerancia cero hacia el contenido ilegal. Sin embargo, los desafíos persisten, ya que este problema no es fácil de resolver y está arraigado en la rápida difusión de proyectos de IA, que, en muchos casos, se hicieron públicos sin una revisión exhaustiva.

Este problema ha afectado a empresas como Stability AI, asociada con LAION, cuyos modelos han sido utilizados para generar imágenes explícitas. Aunque han implementado filtros para evitar la creación de contenido dañino, versiones anteriores del modelo continúan integradas en otras aplicaciones, generando preocupaciones sobre su uso inadecuado.

El informe de Stanford también hace un llamado a la acción a otras empresas de tecnología, instándolas a tomar medidas más drásticas, como eliminar los conjuntos de datos contaminados y adoptar medidas de seguridad más estrictas para evitar la generación de imágenes abusivas.

En medio de este panorama, se plantea la necesidad de una mayor supervisión y regulación en el desarrollo de la inteligencia artificial, así como la implementación de mecanismos para rastrear y eliminar materiales de abuso en los modelos de IA, una práctica que actualmente no se realiza, pero que podría ser crucial para mitigar los daños causados por el uso indebido de esta tecnología.

Redacción de: Karen Rodríguez

spot_img
spot_img
spot_img
spot_img

Suscribete

- Never miss a story with notifications

- Gain full access to our premium content

- Browse free from up to 5 devices at once

Pin It on Pinterest