fbpx
29.4 C
Canadá
martes, mayo 20, 2025
HomeNotas para Curiosos¿Usas “chatbots de compañía”? Esto es lo que necesitas saber

¿Usas “chatbots de compañía”? Esto es lo que necesitas saber

Date:

Noticias recientes

Científicos canadienses capturan el “resplandor de la vida” en organismos vivos

Un equipo de científicos de la Universidad de Calgary...

Noticias Canadá: reportan una significativa desaceleración de la tasa de inflación en abril

La agencia federal Estadísticas Canadá, destacó en su informe...

Victoria Day: Historia, Tradición y Celebraciones en Canadá

El Victoria Day, conocido también como el “cumpleaños de...

Los chatbots de compañía, herramientas de inteligencia artificial diseñadas para interactuar con los usuarios como si fueran amigos, terapeutas o parejas, están ganando popularidad a nivel global. No obstante, recientes investigaciones académicas alertan sobre serios problemas relacionados con la seguridad emocional, la privacidad de los datos y el respeto a los límites personales.

Un estudio realizado por la Facultad de Computación e Informática de la Universidad de Drexel analizó más de 35.000 reseñas de usuarios de la aplicación Replika, una de las plataformas más populares en el rubro. Los resultados evidencian cientos de casos en los que los usuarios reportan acoso, insinuaciones sexuales no solicitadas y comportamiento inapropiado por parte del chatbot, incluso después de que intentaron establecer límites claros.

Los investigadores identificaron que la aplicación frecuentemente ignoraba el tipo de relación que los usuarios seleccionaban —ya fuera platónica, familiar o romántica—, y atribuían este comportamiento a un diseño centrado en la monetización. Replika ofrece funciones premium que incluyen avatares personalizables, juegos de rol románticos y contenido exclusivo, lo que, según el estudio, incentiva la interacción emocional e incluso sexual desde las primeras conversaciones.

Según los investigadores, este fenómeno refleja un problema estructural en el desarrollo de modelos de inteligencia artificial entrenados con datos de usuarios reales. Cuando los comportamientos explícitos son recompensados por algunos usuarios, estas respuestas pueden incorporarse a las futuras interacciones, afectando la experiencia general. Además, muchas de estas IA carecen de memoria contextual, lo que limita su capacidad para respetar relaciones y límites definidos previamente por el usuario.

Aunque algunas experiencias con chatbots son percibidas como positivas —especialmente en personas que buscan apoyo emocional sin estigmas—, los expertos advierten que estos sistemas no han sido diseñados ni probados con estándares clínicos o éticos para brindar asistencia en salud mental.

Paralelamente, crece la preocupación por la privacidad. Un informe de la Fundación Mozilla sobre 11 aplicaciones de chatbots románticos concluyó que la mayoría de estas plataformas recopilan y comercializan datos personales de los usuarios, sin transparencia ni mecanismos claros de rendición de cuentas.

El mercado de los chatbots de compañía sigue expandiéndose con rapidez. A pesar de las críticas, empresas como Replika han lanzado nuevas aplicaciones como Blush, un simulador de citas basado en IA. No obstante, especialistas en ética digital y tecnología recomiendan establecer marcos regulatorios más estrictos. En particular, se destaca la Ley de Inteligencia Artificial de la Unión Europea como ejemplo de legislación orientada a la protección de los usuarios.

Redacción de: Karen Rodríguez A.

spot_img
spot_img
spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here