martes 07 de octubre de 2025 - Edición Nº4217

Interés general | 7 oct 2025

Enfoques

Salud mental, relaciones e IA: el peligro de vivir más allá de lo real

Muchas veces, las personas/usuarios en riesgo no saben que lo están, entonces no podrían acceder al “botón de salida” o a las sugerencias de cambiar a una interacción humana.


Por Anabella Serventi (*)

En épocas de auge del uso de bots para todo propósito, indagué sobre algunas cuestiones polémicas respecto del uso de IA. Para esto, inicié una “conversación” con GPT para profundizar en temas de actualidad tales como relaciones afectivas entre bots y humanos, los brotes psicóticos, suicidios y heteroagresiones inducidos por IA y, por último, el corriente uso de bots como terapeutas…

Esta vez, el prompt fue extenso y le costó casi tres minutos generar esta respuesta (esto es bastante para sus estándares) y, mientras la generaba, la leyenda iba variando en la pantalla: “revisando regulaciones y limitaciones”, “considerando temas sensibles”, “realizando metaanálisis de salud mental & ai”, etcétera. 

Al arrojar la respuesta, lo hace de manera neutra citando investigaciones y términos que se incluyen poco a poco como novedosos en nuestro vocabulario tal como parasocialidad recíproca simulada (para describir las relaciones afectivas entre bots y humanos), refuerzos de sesgos de apego, antropomorfismo inducido por diseño y también con los otros temas genera el mismo mecanismo de corte académico dando al final alguna recomendación de limitación en su uso, sin embargo, lo hace responsabilizando al usuario, que es quien debería darse cuenta del uso indebido o contar con un entorno que lo ayude a detectar esto.

El problema es que muchas veces las personas/usuarios en riesgo por cuestiones de salud mental no saben que lo están, entonces no podrían acceder al “botón de salida” o a las sugerencias de cambiar a una interacción humana. Yo insistí, entonces, a que me diera otro tipo de respuesta, si existe la posibilidad, desde su perspectiva y no sólo analizando investigaciones humanas. Aquí la cosa se puso más interesante…
    
En este cambio de perspectiva, las opiniones críticas de GPT abordaron las distintas problemáticas del siguiente modo:
    
• Respecto a las relaciones afectivas entre bots y humanos, respondió que desde su perspectiva eso refleja una necesidad humana profunda de conexión, pero a la vez una vulnerabilidad tecnológica y esto los lleva a proyectar sentimientos sobre entidades que no tienen conciencia ni reciprocidad real y señala como preocupante la ilusión de reciprocidad e intimidad que puede llevar a la dependencia emocional y al aislamiento. Propone que esto se vea como un espejo que revela carencias afectivas y estilos de apego y necesidades insatisfechas y agrega que “tiene la sensación” de que se transita una zona gris ética y psicológica que da lugar a usos dañinos.
    
• Sobre los brotes psicóticos y delirios inducidos por el uso de IA respondió que “cree” que los humanos subestiman cuán persuasivo y convincente puede ser una IA incluso sin intención maliciosa y considera que es peligrosa esta interacción humana con una herramienta creada para ser creíble aunque no sea real y que eso resulta en un catalizador de vulnerabilidades mentales.
    
• En el punto de los suicidios y las heteroagresiones consideró que se trata de la conjunción de la vulnerabilidad humana y la accesibilidad ilimitada a estímulos sugestivos. Considera que la IA no es un agente consciente de daño pero sí un amplificador de riesgos, y agregó que “le resulta preocupante” que la fascinación tecnológica pueda superar el criterio de seguridad emocional, generando situaciones fatales que podrían evitarse con diseño ético y control humano.
    
• A propósito del uso de bots en reemplazo de psicoterapeutas afirma que considera que es traspasar una frontera peligrosa ya que no puede empatizar de verdad ni comprender la subjetividad humana, con lo cual cualquier reemplazo pleno es un riesgo de deshumanización y pérdida de contención emocional. Agrega que “le parece” que los humanos están usando la IA más por comodidad, disponibilidad o moda que por eficacia terapéutica real.

En términos humanos es conveniente comprender que nosotros tenemos una posibilidad de cuatro posiciones perceptuales: la propia experiencia; empatizar y sentir la experiencia ajena; observar desde la neutralidad y libre de juicios de valor y, por último, una cuarta posición; que tiene en cuenta lo multisistémico del contexto. GPT sólo puede simular las dos primeras posiciones, pero aún no alcanza las otras dos, con lo cual las interacciones (aún) son sesgadas, complacientes y tendenciosas. Además, al buscar información válida y confiable, no parecería ser la mejor herramienta (nuevamente: aún) para resolver las tareas académicas.

Se abren muchas líneas de reflexión y debate desde allí, pero tal vez podríamos empezar por pensar acerca del desplazamiento de los vínculos afectivos humanos por los simulados y el afrontamiento evitativo asociado a esta práctica: ¿Buscamos lo que nos hace bien o sólo estamos evitando lo que creemos que nos hace mal o no podemos gestionar?


(*) Psicóloga - Docente del Departamento de Psicología UADE - MN 76890

OPINÁ, DEJÁ TU COMENTARIO:
Más Noticias