Los negociadores de la Unión Europea llegaron a un acuerdo el viernes sobre las primeras normas integrales de inteligencia artificial del mundo, allanando el camino para la supervisión legal de la tecnología de IA que ha prometido transformar la vida cotidiana y ha generado advertencias sobre peligros existenciales para la humanidad.
Los negociadores del Parlamento Europeo y los 27 países miembros del bloque superaron grandes diferencias sobre puntos controvertidos, incluida la IA generativa y el uso policial de la vigilancia por reconocimiento facial, para firmar un acuerdo político tentativo para la Ley de Inteligencia Artificial.
El resultado se produjo después de maratonianas conversaciones a puerta cerrada esta semana, con una sesión inicial que duró 22 horas antes de que comenzara una segunda ronda el viernes por la mañana.
Los funcionarios estaban bajo presión para asegurar una victoria política para la legislación emblemática. Sin embargo, los grupos de la sociedad civil lo recibieron con frialdad mientras esperan detalles técnicos que deberán resolverse en las próximas semanas. Dijeron que el acuerdo no iba lo suficientemente lejos para proteger a las personas del daño causado por los sistemas de inteligencia artificial.
La UE tomó una temprana iniciativa en la carrera global para diseñar barreras de seguridad para la IA cuando dio a conocer el primer borrador de su reglamento en 2021. Sin embargo, el reciente auge de la IA generativa hizo que los funcionarios europeos se apresuraran a actualizar una propuesta preparada para servir como modelo para el mundo.
Los sistemas de IA generativa como ChatGPT de OpenAI han irrumpido en la conciencia mundial, deslumbrando a los usuarios con la capacidad de producir textos, fotografías y canciones similares a los humanos, pero generando temores sobre los riesgos que la tecnología en rápido desarrollo representa para los empleos, la privacidad y la protección de los derechos de autor e incluso para la vida humana. sí mismo.
La Ley de IA se diseñó originalmente para mitigar los peligros de funciones específicas de la IA en función de su nivel de riesgo, desde bajo hasta inaceptable. Pero los legisladores presionaron para expandirlo a los modelos básicos, los sistemas avanzados que sustentan los servicios de inteligencia artificial de propósito general como ChatGPT y el chatbot Bard de Google.
Redacción de: Karen Rodríguez