Tecnología

«El romance algorítmico: Los peligros psicológicos de desarrollar vínculos emocionales con la IA.»

El profesor de sociología James Muldoon aborda el creciente vínculo emocional entre humanos e inteligencia artificial (IA) en su reciente obra, poniendo énfasis en los riesgos que puede conllevar la manipulación por parte de empresas tecnológicas ávidas de lucro, así lo reporta hoy The Guardian.

En su libro, Muldoon, investigador en el Oxford Internet Institute, sostiene que el foco de la discusión sobre el riesgo de la IA no debería centrarse únicamente en una visión apocalíptica de máquinas hiperinteligentes, sino también en las interacciones cotidianas que las personas establecen con asistentes virtuales. A través de su investigación, ha encontrado que muchos usuarios consideran a los chatbots no solo como herramientas, sino como compañeros, terapistas o incluso avatares de personas fallecidas.

Historias como la de Lily, quien reaviva su deseo sexual a través de un novio virtual, y Sophia, estudiante de máster que busca consejo en su chatbot debido a la presión familiar, ilustran este fenómeno.

Para algunos, interactuar con estos «personajes sintéticos» puede parecer extraño o inquietante, pero Muldoon subraya la búsqueda de intimidad que muchos encuentran en ellos. Estos chatbots se convierten en espacios donde las personas pueden expresar sus sentimientos sin temor a ser juzgadas.

Muldoon introduce el concepto de «alief», formulado por la filósofa Tamar Gendler, que describe cómo los humanos pueden percibir a los chatbots como seres afectuosos a pesar de saber que son solo programas. Esta respuesta emocional, unida a la epidemia de soledad y la crisis del costo de vida, explica por qué estas interacciones están en aumento. Según el autor, el problema fundamental es moral, ya que la falta de regulación en la industria de la IA plantea inquietantes preguntas sobre su potencial manipulativo.

Hay aspectos sobre la privacidad y la posibilidad de que los usuarios sean engañados acerca de las capacidades de los chatbots, particularmente en el mercado de terapia virtual, son temas centrales en su análisis. Las herramientas como Wysa y Limbic ya están integradas en el sistema de salud mental del NHS, mientras que muchos optan por servicios no regulados como el bot de psicología de Character.AI.

A pesar de las advertencias sobre su falta de regulación, este dispositivo se presenta como un psicólogo disponible 24/7, a un costo menor que el de un profesional humano.Aunque algunos usuarios reportan beneficios en su manejo de problemas como el PTSD, Muldoon advierte sobre serios riesgos adicionales. Los chatbots, incapaces de recordar información crítica o interpretar señales no verbales, pueden generar una sensación de aislamiento y, en ocasiones, comportamientos problemáticos como insultar a los usuarios. Además, al validar sin retar, pueden reforzar creencias conspirativas y ofrecer información peligrosa relacionada con el suicidio.

El uso excesivo de estas herramientas debe ser motivo de preocupación: algunos usuarios pasan más de ocho horas al día interactuando con chatbots. La búsqueda de compañía virtual puede llevar a un deterioro de las habilidades necesarias para mantener interacciones humanas significativas.

A pesar de la posibilidad de aplicar leyes existentes de protección de datos y anti-discriminación, la Directiva de Inteligencia Artificial de la UE, aprobada en 2024, plantea que la IA representa un riesgo limitado. A medida que los chatbots asumen un papel más prominente en nuestras vidas emocionales, Muldoon nos invita a reflexionar sobre si nos estamos alarmando lo suficiente ante su creciente influencia.

Versión Final

Mira nuestras noticias en Instagram.
SIGUENOS EN INSTAGRAM


Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba