Las herramientas de inteligencia artificial disponibles en línea están siendo utilizadas cada vez con más frecuencia para “mejorar” imágenes relacionadas con hechos noticiosos de último momento, una práctica que está contribuyendo a la propagación de desinformación, especialmente en contextos de alta tensión y carga emocional.
De acuerdo con especialistas en inteligencia de código abierto, este fenómeno se evidenció con fuerza tras recientes tiroteos ocurridos en Minneapolis, Minnesota. En esos casos, usuarios de redes sociales recurrieron a herramientas de ampliación y mejora de imágenes basadas en IA con el objetivo de obtener más detalles visuales sobre lo ocurrido.
Imágenes alteradas y falsas identificaciones
El principal riesgo de estas herramientas es que pueden generar información visual inexistente. Al intentar “completar” detalles borrosos o ausentes, los sistemas de inteligencia artificial crean elementos que no estaban presentes en la imagen original, pero que pueden parecer realistas para quienes las observan.
Uno de los ejemplos más difundidos fue la manipulación de una imagen de un agente del Servicio de Inmigración y Control de Aduanas de Estados Unidos (ICE), presuntamente vinculado a un tiroteo fatal. Usuarios intentaron remover digitalmente una mascarilla mediante herramientas de IA, lo que dio como resultado un rostro fabricado que no correspondía a ninguna persona real.
Según reportes de medios estadounidenses, esa imagen alterada contribuyó a la identificación errónea de un supuesto tirador, lo que derivó en ataques en línea contra un editor del Minnesota Star Tribune. Posteriormente, documentos judiciales confirmaron que el presunto responsable era otra persona sin relación con el medio.
El periódico denunció públicamente una campaña coordinada de desinformación digital y subrayó que el agente involucrado no tenía vínculo alguno con la redacción, además de exhortar a la ciudadanía a confiar en el trabajo periodístico profesional antes que en contenido generado o modificado por inteligencia artificial.
Situaciones similares se repitieron tras otro tiroteo en el mismo estado. Luego de que el Departamento de Seguridad Nacional de Estados Unidos difundiera una imagen del arma incautada, usuarios intentaron compararla con videos de baja calidad usando herramientas de mejora por IA. El resultado fueron imágenes nítidas que no coincidían con el arma real.
Especialistas advierten que este tipo de prácticas va en aumento debido a la creciente accesibilidad de herramientas de inteligencia artificial, y que sus consecuencias pueden trascender el entorno digital y afectar a personas reales.
Redacción de: Karen Rodríguez A.





