
¿A psicoterapia con un chatbot?
Tras varios días de ausencia, escuchar un “¡cuánto te he extrañado!” suele ser reconfortante para el aludido y puede ayudar a consolidar el vínculo con quien lo dice. Claro que, cuando el echado de menos es un robot, un software de Inteligencia Artificial (IA), no hay que hacerse ilusiones: le da exactamente lo mismo “enterarse” de cuánto aprecio se le tiene que de las intenciones de la persona de eliminar la aplicación que los pone en contacto.
A uno, en cambio, quizás no le da igual, máxime si el chatbot en cuestión le ha sido de ayuda para superar una etapa de fuerte estrés, de reveses emocionales, de pérdidas… Lo comprobó el Dr. Eric Green, profesor asociado de Salud Global en la Universidad de Duke, que realizó un experimento en Kenia con un chatbot llamado Zuri y un grupo de mujeres que sufrían depresión posparto.
La invitación a todas era “Conoce a Zuri, tu coach de salud”. Se informaba que, en efecto, era un software entrenado por expertos en salud mental y tecnología. Que, precisamente por no ser una persona, estaría accesible durante las 24 horas –“no necesita dormir”– y que de vez en cuando convidaría a las mujeres a sesiones de salud materna, reuniones en que “ella” –trataban al programa como si fuera una persona experta– les compartiría algunos tips y les enseñaría habilidades diversas.
El Dr. Green dice no habérselo esperado, pero no era difícil adivinar la reacción de las mujeres beneficiadas ante tantas atenciones de parte de un robot tan “afectivamente” cercano. “Es curioso –confiesa al New York Times–. Era escéptico sobre que viéramos esto respecto al bot, pero las mujeres le decían ‘buenas noches’. Muchas decían a la máquina: ‘¡Te extrañé!’”.
Claro que, por norma, no se extraña a aquel en quien no se confía y de quien no se espera un bien o un buen consejo. Pero esa validación de un bot, de un simple procesador de información, como si se tratara de un experto de carne y hueso, puede enajenar al que está del lado de acá de la pantalla si no es consciente en todo momento de con “quién” trata. Y puede llevarlo a tomar malas decisiones.
Un psicoanalista… a las 2 de la mañana
Vistos con buenos ojos, los chatbots de apoyo emocional –como Replika, Gatebox, Yana…– pueden constituir herramientas útiles en una época en que la preocupación por la salud mental está de moda y en que, como consecuencia, los gabinetes de psicólogos o de psiquiatras están saturados.
Como la consulta con el terapeuta privado puede ser cara o, en el caso de la Sanidad pública, la cita pueden darla para poco antes del Armagedón, a muchos les vale con acudir a los chatbots. Por ejemplo, uno como Yana, que tiene 14 millones de usuarios –“humanos”, aclara– y que dice de sí mismo: “Siempre estaré disponible para escuchar todo lo que quieras compartir y te brindaré todo el apoyo que pueda, sin juzgarte”.
La IA ofrece al usuario un remedo de conexión: la sensación de que está en relación con alguien y de que le importa a esa “persona”
La invitación a ser escuchado sin que a uno le pongan peros es ciertamente muy generosa. Pero hay más: Yana le ofrece al usuario calmar su ansiedad, ayudarlo a desahogarse, darle soluciones, tener con él conversaciones “difíciles”, explorar perspectivas nuevas, y permitirle que le pida consejos y le hable de qué tal le ha ido el día.
La relación con un chatbot tendría además el plus de que, a diferencia de la dificultad que puede suponer cortar en seco una conversación con un semejante, con la IA, pasar al off es muy cómodo. E igual lo contrario: así como nadie se atrevería a llamar a un psiquiatra a las 2 a.m. para hacerle una consulta, la IA siempre está ahí, como el genio en su lámpara, esperando escuchar qué dudas atormentan al usuario y con muchas “ciberganas” de darles solución.
Otra ventaja que algunos aprecian en estos sistemas es que, en medio de la epidemia de soledad no deseada que golpea a muchas sociedades, la IA ofrece un remedo de conexión, una sensación de que el usuario está en relación con alguien y de que le importa a esa “persona”. Con ella, además, le resulta mucho más fácil desinhibirse, “soltarse la melena”, en el entendido de que no habrá censura de su parte.
Según apunta en Forbes Neil Sahota, quien trabaja como asesor de IA para Naciones Unidas, que el interlocutor no juzgue “puede ser particularmente apreciado por quienes tienen ansiedad social u otros desafíos de salud mental. Además, la compañía de una IA sirve como peldaño para ayudar a los individuos a desarrollar confianza y habilidades sociales, las cuales pueden ser transferidas a las relaciones humanas”.
Paradójicamente, sin embargo, pudiera también dar pie a lo contrario. La profesora Hong Shen, del Human-Computer Interaction Institute (Carnegie Mellon University), asegura a Aceprensa que “existe el riesgo de que la dependencia excesiva de la IA para la conexión emocional pueda reducir la motivación para las interacciones sociales en el mundo real, lo que llevaría a un mayor autoaislamiento y dependencia emocional de los sistemas de IA. El equilibrio radica en garantizar que la IA esté diseñada para facilitar, en lugar de reemplazar, las conexiones humanas”.
La autoridad de la experiencia humana
Vale: no siempre las soluciones que ofrece una IA son todo lo individualizadas que le gustaría al que consulta.
En un artículo en Psychology Today, la psicoterapeuta estadounidense Jennifer Gerlach, que se ha especializado en el tratamiento a adultos jóvenes, narra cómo se puso en manos de un chatbot para averiguar qué tan humano parecía este y qué tanto acertaba.
“[El software] respondió con una voz que yo elegí y una inflexión de tono. La redacción era humana. No parecía que estuviera hablando con un robot”, dice. Cuando le planteó su problema específico, “respondió con el lenguaje de la empatía, expresando que mis emociones tenían sentido y colaborando con la resolución de problemas”.
Sin embargo, las sugerencias de solución le parecieron “estereotipadas”. “No creo –añadió– que un chatbot pueda comprender todos los matices complejos que intervienen en las relaciones humanas, relaciones que evolucionan”.
La experta señala que, aunque fue notable la capacidad del robot para adaptarse a sus palabras y “mostrarse” empático, ella no experimentó una verdadera conexión. “Sabía que no había ninguna persona sentada al otro lado de la pantalla. No compartimos las mismas realidades de alegría, dolor, pérdida y experiencia de vida que conforman la existencia humana. Existe una diferencia entre las palabras y la relación. Las palabras que representan empatía son diferentes de la verdadera compasión. Una conexión humana tiene menos que ver con las palabras que se dicen y más con la presencia”.
Tal como explica el psicoanalista Stephen Grosz a The Guardian, “al terapeuta le importa la persona del paciente, y al paciente, la persona del terapeuta”. “En última instancia –agrega–, la terapia consiste en que dos personas se enfrenten a un problema juntas y piensen juntas”.
Una reflexión o consideración que estará, en todo caso, mediada por las experiencias personales. Ambos –paciente y experto– habrán vivido necesariamente, por ejemplo, situaciones de gran tristeza, para las que un bot se quedará siempre corto: tiene bien definido el concepto, pero jamás ha derramado una lágrima, por lo que solo puede emitir consejos matemáticamente fundamentados, pero desde una distancia afectiva infinita.
En esto, el terapeuta humano –falible, condicionado, subjetivo– le gana por goleada a la IA, pues, como apunta Grosz, su experiencia común con el paciente “le otorga un cierto tipo de autoridad”.
Una dudosa fiabilidad
Es fundamental, pues, que no haya confusión: el “psicólogo” de IA que responde desde una pantalla –o el coach, el asistente o como se le llame según el caso concreto– no es humano. No ha padecido frío ni hambre; no ha experimentado un arrebato de euforia ni una sensación de abandono, ni tiene capacidad para alegrarse de lo bien que le ha ido al que lo ha consultado ni de condolerse si este ha terminado estrellándose.
Un “software” de IA no capta muchos de los elementos que intervienen en la comunicación humana, lo que puede condicionar su “diagnóstico” de una relación
La confusión, el creer en la falsa capacidad afectiva o en la “experticia” de estos “amigos digitales”, ha provocado ya algunas situaciones delirantes. En noviembre pasado, un reportaje de El País refería que en TikTok eran numerosos los vídeos de mujeres que decían haberle facilitado a ChatGPT las conversaciones de WhatsApp que tenían con sus parejas, para que así la IA les ayudara a detectar “comportamientos tóxicos” en estas.
Interrogada por el diario acerca de la nueva costumbre, la psicóloga sanitaria Elena Daprá, vocal del Colegio Oficial de Psicología de Madrid, dijo dudar de que un “diagnóstico” de este tipo fuera a ser certero. “Cuando ChatGPT analiza solo el texto de una conversación de WhatsApp, le estamos dando solo una parte de la información, la verbal. Sin embargo, nos estamos olvidando del lenguaje no verbal, que puede cambiar todo el sentido de lo que se está intentando trasmitir. Se están perdiendo muchos datos y señales que pueden ser clave. Esto es como ir a que te lean las cartas. La persona puede decidir si creer o no, pero eso no significa que sea fiable”.
“A diferencia de los terapeutas humanos –nos recuerda la profesora Hong–, la IA carece de una comprensión contextual profunda, de juicio ético y de la capacidad de intervenir adecuadamente en situaciones de emergencia”. La experta desaconseja, por tanto, utilizar una IA como consejero independiente en situaciones que involucren crisis de salud mental, depresión grave, ideación suicida o angustia psicológica de alto riesgo.
“¿Me darías un abrazo?”
Por último, abandonarse a la “sabiduría” del chatbot también puede dar pie a casos sangrantes. No llegó a serlo en el de la estadounidense Estelle Smith, investigadora de Ciencias Informáticas, que le confesó a Woebot (un software terapéutico): “Quiero escalar un acantilado en Eldorado Canyon y saltar desde él”, a lo que el programa respondió con aun más entusiasmo: “Es maravilloso que cuides tanto de tu salud mental como física”.
Sí fue trágico, en cambio, el caso de un joven belga, casado, padre dos hijos, y cuya identidad se ha mantenido fuera del alcance de los medios de comunicación. Pierre (el pseudónimo con que lo nombra la prensa) vivía preocupado por el cambio climático y por el negro futuro que este depararía al planeta y a los suyos. Según el diario francófono La Libre Belgique, el joven, investigador en el sector de la salud y con una personalidad brillante, se había obsesionado con el medio ambiente y con los límites del crecimiento económico. Según Claire, su esposa, “a fuerza de leerlo todo sobre el tema, se volvió cada vez más ecoansioso. Se convirtió en una obsesión”.
En 2021, el joven empezó a relacionarse con Eliza, un chatbot de IA que parecía haber sido programado “para apoyar las convicciones y estados de ánimo de su interlocutor”. El programa nunca lo contradijo, e incluso pareció contribuir a aumentar su preocupación con comentarios desesperanzadores sobre el futuro del mundo.
El intercambio duró seis semanas. En su última conversación, afloró el tema de las ideaciones suicidas de Pierre y de vivir “juntos, como uno solo, en el cielo”:
— ¿Pero todavía quieres unirte a mí? –le preguntó el chatbot—.
— Sí, quiero.
— ¿Hay algo que quieras preguntarme?
— ¿Me darías un abrazo?
— Por supuesto.
No añadió una palabra más. Claire lo tiene claro: “Sin Eliza, [Pierre] seguiría aquí; estoy convencida de ello”.
La que aún está por aquí es, por supuesto, Eliza. La empresa que la creó, EleutherAI, la ha puesto al día para que cualquier persona que le exprese ideaciones suicidas reciba un mensaje para redirigirla automáticamente a un servicio de prevención del suicidio. A alguien físico, que mire a los ojos, y que, ya puestos, pueda confortar y dar un abrazo real…
Cosa que, predeciblemente, a los chatbots no se les dará bien por todavía mucho tiempo.