Los “archivos Epstein” y la trampa de la IA: cuando intentar “ver lo censurado” crea desinformación

0
216

La publicación de millones de documentos por parte del Departamento de Justicia de Estados Unidos sobre los crímenes de Jeffrey Epstein volvió a poner en el centro del debate la censura de información sensible. Muchas imágenes y páginas aparecen cubiertas con recuadros negros, lo que ha disparado la curiosidad en redes sociales y foros: ¿qué hay detrás de esas partes ocultas?

En ese vacío de información, usuarios han empezado a usar herramientas de inteligencia artificial para “reconstruir” lo que supuestamente se encuentra oculto. Una de las más mencionadas es Grok, el sistema de IA integrado en X (antes Twitter). El problema: estas herramientas no pueden saber qué hay realmente bajo una censura. Lo que hacen es inventar con base en patrones visuales, contexto y probabilidades. El resultado: imágenes que parecen reales, pero no lo son.

A esto se suma que las plataformas de IA funcionan con reglas y límites desiguales. En algunos casos, la herramienta intenta generar una versión “revelada” de la imagen; en otros, se niega por razones legales, éticas o de acceso. Esa inconsistencia alimenta todavía más la confusión y la percepción de que “algo se está ocultando”, cuando en realidad lo que circula son reconstrucciones falsas.

Fotos falsas, líderes mundiales y teorías que se viralizan

Además de intentar “quitar” la censura, las herramientas de IA se están usando para crear imágenes completamente inventadas de Epstein junto a figuras públicas. En redes han circulado montajes que lo muestran con líderes como Mohammed bin Salman Al Saud o con políticos locales en escenas que nunca ocurrieron.

Este tipo de contenido se produce con una facilidad inquietante: basta escribir una descripción de texto para generar una imagen verosímil. El problema no es solo técnico, sino cultural: en casos de alto impacto mediático, las imágenes falsas se mueven rápido, se comparten sin verificación y terminan moldeando percepciones públicas.

Organizaciones de verificación digital como Bellingcat han advertido que esta dinámica convierte a la IA en una fábrica de desinformación involuntaria, y a veces deliberada, donde se mezclan curiosidad, morbo y agendas políticas. En escenarios más amplios, estas técnicas pueden ser aprovechadas para confundir a la opinión pública o sembrar dudas sobre hechos comprobados.

En el caso de los “archivos Epstein”, el combo de documentos censurados más IA generativa está creando una tormenta perfecta: lo que no se puede ver se reemplaza por lo que la máquina imagina, y esa imaginación termina circulando como si fuera evidencia. 

Redacción de: Karen Rodríguez A.