La Psicoterapia y la Inteligencia Artificial

​La aplicación de la Inteligencia Artificial (IA) a la psicoterapia y su conveniencia es un tema de gran actualidad, pero aún no se han tenido resultados concluyentes sobre su efectividad.

La irrupción de la IA en la salud mental

La proliferación en el mercado de una ola de robots que aplican la IA a la psicoterapia a través de aplicaciones como: “TerapIA, Terapeuta IA, Brain, Panda (Earkik), FeelBetterBot, Abby, La IA Psicóloga, etc., es algo novedoso. Se han ofrecido algunos resultados prometedores en depresión, ansiedad o riesgos de desarrollar TCA.

Si bien la IA ha demostrado en psicoterapia cierta efectividad en la resolución de problemas humanos, es necesario tomar en cuenta que es clave diferenciar entre los resultados de estas investigaciones y la exageración influenciada por el marketing de quien ofrece estas herramientas.

No hay duda que todo trabajo con Inteligencia Artificial debe estar monitorizado con psicoterapeutas que tengan una amplia formación y experiencia. Quienes quieren ofrecer la IA como una alternativa a la psicoterapia para el conjunto de los trastornos mentales, podemos decir que son personas osadas y solo tienen una motivación económica. 

 Un ejercicio adecuado de la psicoterapia debe ser llevado a cabo por profesionales competentes con una amplia formación, y estos a su vez pueden apoyarse en algunas herramientas que ofrece la IA, pero no sustituirla. 

La atracción del público y sus riesgos

Existe una gran atracción en el publico por el uso de la IA, en el campo de la salud mental, alimentada por un ideal científico que promete soluciones rápidas y económicas con cierta dosis aparente de empatía para resolver problemas o conflictos humanos profundos. Las investigaciones han demostrado que, en problemas profundos o en patología mental grave, la IA no es un instrumento que pueda actuar adecuadamente.

 Sin embargo, no se puede perder de vista que detrás de cada respuesta del robot hay un algoritmo entrenado que carece de la historia de vida del sujeto, de su biografía personal, relacional y social, de sus posibles traumas complejos, además que tampoco en la metodología de la IA se visualiza una implicación emocional autentica.

Un caso real y trágico: Eliza

La Inteligencia Artificial pueda sostener una conversación convincente con el humano que demanda psicoterapia, pero esto no significa que comprenda la desesperación humana, ni mucho menos que sepa contenerla.

Un Chatbot puede decirle a un humano “me pareces muy divertido”, pero no hay en esa frase ni historia, ni mirada, ni cuerpo, porque no hay posibilidad que el otro lo sienta como verdadero, porque falta la dimensión relacional auténtica.

John Carlin, periodista de La Vanguardia hace referencia en su artículo titulado “¿la IA nos lleva al suicidio?”, a un caso donde una persona desesperada, después de 6 semanas de pasión digital con la IA llamada “Eliza”, ésta le recomendó que se suicidara. Este señor de 30 años se suicidó dejando atrás a su esposa e hijos.

El periodista aclara que le solicitó a CHATGPT que escribiera una columna con su estilo, y lo hizo en 3 segundos, es decir, 6000 veces más rápido que lo que el periodista tarda en escribir el texto de su artículo.

Este periodista refiere en el artículo que él  necesita creer que su versión es mejor que la del Chatbot de 3 segundos, y sugiere a las personas que desean investigar esto que, si finalmente los 3 segundos de la IA tienen mayor consenso que lo que él escribió, metafóricamente dice, que se pega un tiro.

Aporte único de la psicoterapia sistémica

La Psicoterapia Sistémica, basada en las ciencias de la complejidad ha sido una revolución en el aporte de los modelos de psicoterapia, y tiene más de 70 años de vida. Este paradigma entiende al síntoma, no como un problema individual, sino como la disfunción de un sistema o conjunto de sistemas más amplios: familiar, social, cultural, histórico, etc. El síntoma del paciente identificado está indicando a través de éste, que hay cosas que no funcionan y hacen sufrir a las personas.

Ningún Chatbot puede observar y leer patrones interaccionales o sistémicos, que reflejen la disfunción de dicho sistema o de los sistemas, y tampoco puede hacer una hipótesis circular, o trabajar con la resonancia emocional de cada uno y del grupo familiar en su conjunto. Ningún Chatbot puede sostener con responsabilidad ética el dolor ajeno, el trauma o la idea de suicidio y tampoco acompañarlo, hasta que se transformen estos síntomas en una narrativa diferente y más constructiva.

El reto para los centros de formación

Ante el pretendido avance de la IA en el campo de la psicoterapia, los centros de formación en psicoterapia tienen un doble reto: por un lado, integrar el conocimiento sobre estas nuevas tecnologías para poder dialogar con ellas desde lo clínico y lo ético y, por otro lado, reforzar la formación humana, la capacidad de escucha profunda, la empatía como competencia compleja y no como simulacro. El futuro de la psicoterapia será posiblemente la convivencia entre profesionales bien formados y una tecnología que tendrá que aprender de ellos.

Hay algo que no puede automatizarse y es la experiencia de un profesional formado con sensibilidad y ética encontrándose con otro humano en el acto de sanar.

Eduardo Brik

Eduardo Brik

Director de ITAD