José Ferrán · Artículos de psicología

·11 min de lectura

El tercero en la sala: implicaciones éticas de la IA en psicoterapia

Imagina la escena. Un colega te cuenta, en un descanso del congreso, que lleva tres meses usando una herramienta de inteligencia artificial para transcribir y analizar las sesiones con sus pacientes. La aplicación detecta patrones de lenguaje, marca posibles indicadores de riesgo suicida, sugiere temas para la siguiente sesión. Le entusiasma. Dice que ha mejorado su trabajo, que capta cosas que antes se le escapaban. Le preguntas, casi por curiosidad: «¿Y los pacientes lo saben?». Se queda en silencio unos segundos. Responde: «Lo menciono en el consentimiento informado, en una cláusula sobre uso de tecnología».

  • psicología
  • divulgación
  • inteligencia artificial

Imagina la escena. Un colega te cuenta, en un descanso del congreso, que lleva tres meses usando una herramienta de inteligencia artificial para transcribir y analizar las sesiones con sus pacientes. La aplicación detecta patrones de lenguaje, marca posibles indicadores de riesgo suicida, sugiere temas para la siguiente sesión. Le entusiasma. Dice que ha mejorado su trabajo, que capta cosas que antes se le escapaban. Le preguntas, casi por curiosidad: «¿Y los pacientes lo saben?». Se queda en silencio unos segundos. Responde: «Lo menciono en el consentimiento informado, en una cláusula sobre uso de tecnología».

Lo que te pasa al escuchar esto, si te dedicas a la clínica, es probablemente una mezcla de inquietud y reconocimiento. Inquietud, porque algo no termina de encajar. Reconocimiento, porque tú también, quizá, has usado un modelo de lenguaje para redactar un informe, para reformular una intervención, para consultar un caso de manera anonimizada. La IA ya está en tu consulta, aunque no la hayas invitado formalmente. Y la pregunta no es si va a quedarse, sino bajo qué condiciones éticas vas a permitir que lo haga.

Mapa del debate: de qué hablamos cuando hablamos de IA en terapia {#mapa-del-debate-de-que-hablamos-cuando-hablamos-de-ia-en-terapia}

Antes de avanzar, conviene deshacer un equívoco. Cuando se habla de «inteligencia artificial en psicoterapia» se mezclan, sin distinguir, fenómenos muy distintos. No se trata de una sola tecnología ni de un solo problema, sino de al menos cuatro capas que conviene separar.

La primera capa es la IA como herramienta administrativa: transcripción automática de sesiones, generación de informes, organización de notas clínicas. Aquí el modelo no interviene en el contenido terapéutico, pero sí procesa material altamente sensible.

La segunda capa es la IA como apoyo al juicio clínico: sistemas que sugieren hipótesis diagnósticas, identifican marcadores lingüísticos de depresión o ideación suicida, proponen formulaciones de caso. El terapeuta sigue decidiendo, pero su decisión está informada —o contaminada, según se mire— por una recomendación cuyo razonamiento no puede inspeccionar.

La tercera capa es la IA como interlocutor del paciente entre sesiones: chatbots terapéuticos, aplicaciones de autoayuda con conversación generativa, asistentes que acompañan al paciente fuera de consulta. Aquí el sistema entra en relación directa con el sufrimiento del otro.

La cuarta capa, la más radical, es la IA como sustituto del terapeuta: plataformas que ofrecen «terapia» sin profesional humano. No es ciencia ficción: ya operan comercialmente.

Cada capa plantea problemas éticos distintos. Y sin embargo, hay un hilo común que las atraviesa, algo que aparece en todas y que los códigos deontológicos actuales no logran nombrar con precisión. A ese hilo común voy a llamarlo terceridad opaca.

La terceridad opaca: el núcleo ético {#la-terceridad-opaca-el-nucleo-etico}

La relación terapéutica clásica se ha pensado siempre como una diada. Dos personas, una sala, un vínculo. Cuando entra un tercero —un supervisor, un equipo, un familiar en terapia conjunta— ese tercero es nombrado, conocido, su presencia se negocia. La IA introduce algo distinto: un tercero que está, que participa, que influye en la sesión, pero que ni el terapeuta ni el paciente pueden conocer del todo. No sabes con certeza qué hace con los datos. No sabes en qué corpus fue entrenado. No sabes qué sesgos arrastra. No sabes, en sentido técnico estricto, por qué te sugiere lo que te sugiere.

A eso me refiero con terceridad opaca: la presencia de un sistema computacional no transparente entre paciente y terapeuta que altera los términos éticos del vínculo sin que ninguna de las dos partes pueda calibrar completamente su influencia. No se trata de que la IA sea buena o mala per se, sino de que su presencia en la consulta cambia los términos del pacto terapéutico sin que lo hayamos acordado explícitamente. Es un triángulo invisible. Y plantea problemas en al menos tres dimensiones.

Confidencialidad expandida {#confidencialidad-expandida}

El secreto profesional, tal como lo conocemos, fue diseñado para una relación humana. El terapeuta sabe lo que el paciente le cuenta, y se compromete a no divulgarlo. Pero cuando interpones un sistema de IA, la cadena se rompe. Los datos viajan a servidores que el terapeuta no controla, son procesados por modelos que pueden estar reentrenándose con esa información, y quedan sujetos a las políticas de empresas que operan bajo jurisdicciones distintas a la del consultorio.

La normativa europea de protección de datos (LOPDGDD, 2018) considera los datos de salud mental como categoría especialmente protegida, pero su aplicación a sistemas de IA generativa es todavía un terreno gris. La WHO (2022) ha advertido que muchas herramientas digitales de salud mental operan en una zona regulatoria ambigua, donde el flujo real de los datos no es auditable ni para el clínico ni para el paciente.

El problema no es solo legal. Es fenomenológico. Cuando un paciente te cuenta algo en sesión, lo hace bajo el supuesto implícito de que esas palabras viven en un espacio acotado. Si parte de ese material es procesado por un sistema externo, ese supuesto deja de ser cierto, aunque el paciente haya firmado un consentimiento. Firmar no es comprender. Y aquí está la primera grieta ética: el consentimiento informado, tal como se redacta hoy, rara vez explica al paciente qué significa realmente que sus palabras pasen por un modelo de lenguaje.

Delegación opaca del juicio clínico {#delegacion-opaca-del-juicio-clinico}

La segunda dimensión es más sutil, y por eso más peligrosa. Cuando una herramienta de IA te sugiere que tu paciente muestra marcadores de riesgo, o te propone una formulación, lo que hace —aunque no lo parezca— es desplazar parcialmente el lugar del juicio. Tú sigues decidiendo, sí. Pero decides después de leer una recomendación cuyo origen no puedes inspeccionar.

Es como si te ofrecieran una segunda opinión clínica sin poder preguntarle al colega qué le hace pensar eso. La opinión llega ya formulada, y tú la integras o la descartas, pero el solo hecho de que esté presente modifica tu marco de evaluación. Hay literatura amplia en psicología cognitiva sobre cómo los sesgos de anclaje operan incluso cuando el evaluador cree estar siendo independiente.

El problema no es que la IA se equivoque. El problema es que, cuando acierta, también lo hace por razones que nadie puede reconstruir. Y un juicio clínico que no puede ser argumentado deja de ser un juicio clínico en sentido estricto. Se convierte en otra cosa: una intuición prestada por un sistema que no rinde cuentas.

Alianza dividida {#alianza-dividida}

La tercera dimensión toca el corazón de lo que hacemos. La alianza terapéutica —ese vínculo de colaboración, confianza y acuerdo en los objetivos que la investigación señala como uno de los predictores más robustos del cambio— se construye entre dos. Cuando aparece un tercero opaco, la alianza se redistribuye de maneras que aún no comprendemos del todo.

Esto era, en el fondo, lo que ya intuyó Weizenbaum (1966) cuando construyó ELIZA, el primer programa que simulaba a un psicoterapeuta rogeriano mediante reglas sintácticas elementales. Lo que más le inquietó no fue que el programa funcionara, sino que sus usuarios —incluida su propia secretaria, que sabía perfectamente que era un programa— le atribuyeran comprensión, profundidad, incluso intimidad. Weizenbaum lo llamó «ilusión de comprensión», y la consideró un riesgo ético serio. Hoy, con modelos de lenguaje incomparablemente más sofisticados, esa ilusión es prácticamente inevitable.

El efecto de desinhibición online descrito por Suler (2004) añade otra capa: las personas tienden a revelar más, y de manera distinta, cuando interactúan con interfaces digitales que cuando lo hacen cara a cara. Esto puede ser terapéuticamente útil en algunos contextos, pero también genera vínculos asimétricos donde el paciente se entrega a un sistema que no puede sostener éticamente esa entrega.

No se trata de que el paciente «se enamore del chatbot» en sentido caricaturesco. Se trata de algo más fino: que parte de la transferencia, parte del trabajo emocional, se deposite en un interlocutor que no puede devolverlo, y que el terapeuta humano quede en un lugar secundario, reactivo, comentando lo que el paciente ya elaboró —o creyó elaborar— con la máquina.

La otra cara: argumentos sólidos a favor {#la-otra-cara-argumentos-solidos-a-favor}

Sería deshonesto presentar solo este lado del debate. Hay razones serias para incorporar IA en salud mental, y conviene tomarlas en serio antes de cualquier conclusión.

La primera, y quizá la más fuerte, es el acceso. La brecha entre demanda y oferta de atención psicológica es enorme en casi todos los países. Hay personas que nunca llegarán a un consultorio: por costos, por geografía, por estigma, por listas de espera de meses. Si una herramienta basada en IA puede ofrecer apoyo psicoeducativo, contención básica o derivación adecuada a quienes de otro modo no tendrían nada, el cálculo ético no es trivial. La APA (2013), en sus directrices iniciales sobre telepsicología, ya señalaba que la mediación tecnológica, bien regulada, puede ampliar significativamente el acceso a servicios de salud mental.

La segunda razón es la detección proactiva. Sistemas bien diseñados pueden identificar marcadores de riesgo —cambios sutiles en el lenguaje, alteraciones del sueño detectadas por dispositivos, patrones de actividad— que un clínico, viendo al paciente una vez por semana, difícilmente puede captar. En contextos de prevención del suicidio, esto puede salvar vidas.

La tercera razón es menos discutida pero importante: la IA, paradójicamente, puede reducir ciertos sesgos humanos. Hay investigación que muestra cómo factores como el género, la raza o el aspecto socioeconómico del paciente influyen en diagnósticos y derivaciones realizados por clínicos humanos. Un sistema bien auditado puede, en principio, ofrecer evaluaciones más consistentes. El problema, claro, es que también introduce sus propios sesgos —los del corpus de entrenamiento—, y esos sesgos son más difíciles de detectar precisamente porque están camuflados de objetividad algorítmica.

La cuarta razón es la desestigmatización. Para muchos pacientes, especialmente jóvenes, hablar primero con un sistema digital es la puerta de entrada que luego les permite buscar atención humana. No vale la pena despreciar este efecto.

Si la IA puede hacer todo esto, la pregunta no es si usarla, sino cómo. Y aquí es donde la cuestión ética se vuelve técnica, regulatoria y deontológica al mismo tiempo.

Lo que falta: vacíos en los códigos deontológicos {#lo-que-falta-vacios-en-los-codigos-deontologicos}

Los códigos éticos vigentes —los de la APA, los de la EFPA, los de los colegios profesionales de cada país— fueron escritos pensando en una práctica donde la tecnología era, a lo sumo, un canal de transmisión: el teléfono, la videollamada. La IA generativa es otra cosa. No transmite: procesa, transforma, sugiere, decide.

Las directrices de telepsicología de la APA (2013) cubren bien el uso de plataformas de videoconferencia, pero no contemplan la especificidad de un sistema que aprende del material clínico. La APA ha publicado en los últimos años directrices generales sobre IA en psicología, y la WHO (2022) ha hecho lo propio en el ámbito sanitario más amplio: ambos documentos señalan principios —transparencia, supervisión humana, equidad— pero rara vez bajan al nivel concreto donde el clínico necesita decisiones operativas. No se trata de que falten declaraciones de principios, sino de que faltan protocolos accionables para el día a día de la consulta.

Hay al menos cinco vacíos que cualquier código deontológico actualizado tendría que abordar. Primero: el consentimiento informado para uso de IA, que debe ser específico, no una cláusula genérica. El paciente tiene derecho a saber qué herramienta concreta se usa, qué hace con sus datos y qué alternativas tiene si se niega. Segundo: la auditabilidad de los modelos. Si un sistema influye en decisiones clínicas, debe poder ser examinado por un tercero independiente. Tercero: la responsabilidad legal cuando la IA se equivoca. ¿Quién responde si un sistema no detecta un riesgo suicida que un clínico habría detectado? ¿El profesional, el desarrollador, la institución? Cuarto: la formación obligatoria. No vale incorporar herramientas que no se comprenden mínimamente. Quinto: la regulación del entrenamiento de modelos con datos clínicos. Hoy, en muchos casos, los datos de pacientes alimentan modelos comerciales sin que nadie haya consentido nada parecido a eso.

Mientras estos vacíos no se llenen, cada clínico que incorpora IA en su práctica está, de hecho, improvisando un marco ético sobre la marcha. Y la improvisación, en cuestiones tan delicadas, no es una virtud.

Cierre: el problema no es la simulación, es la ignorancia {#cierre-el-problema-no-es-la-simulacion-es-la-ignorancia}

En 2011, Black Mirror estrenó «Be Right Back», un episodio en el que Martha, tras perder a su pareja en un accidente, contrata un servicio que reconstruye la personalidad del fallecido a partir de su huella digital: mensajes, redes, grabaciones. Primero es solo un chat. Luego una voz. Finalmente, un cuerpo sintético que se parece a él, habla como él, recuerda lo que él recordaría. Martha lo sabe casi todo el tiempo. Pero hay un punto, sobre todo al principio del proceso, en que la línea se le difumina: el problema no es que la simulación sea imperfecta —de hecho, es notablemente eficaz—, es que ella no termina de saber, en cada momento, hasta dónde está hablando con un eco de su pareja y hasta dónde con un sistema que extrapola.

El episodio no juzga a Martha. La trata con compasión. Lo que muestra es algo más incómodo: que la simulación perfecta de un vínculo puede ser indistinguible, en la experiencia inmediata, del vínculo real. Y que el problema ético no aparece cuando uno sabe que está hablando con una simulación; aparece cuando deja de saberlo, o cuando nunca lo supo del todo.

Esto es exactamente lo que la terceridad opaca introduce en nuestra práctica. No se trata de que la IA simule comprensión —lo hace, y cada vez mejor—. Se trata de que paciente y terapeuta puedan, en cualquier momento, identificar con claridad dónde termina el vínculo humano y dónde empieza la simulación. Ahí está el punto. Martha sufre cuando la línea se difumina. Nuestros pacientes sufrirán, si no lo están sufriendo ya, por la misma razón.

No se trata de prohibir la IA en terapia. Esa batalla, además, ya está perdida: la tecnología está aquí y va a quedarse. No se trata tampoco de aceptarla acríticamente, sino de exigir transparencia radical sobre tres cosas: qué sistemas usamos, qué hacen con los datos, y qué papel cumplen en las decisiones clínicas. El paciente tiene derecho a saber quién —o qué— está en la sala con él. Y nosotros tenemos la obligación profesional de poder responder a esa pregunta sin titubear.

Volviendo al colega del congreso, el que llevaba tres meses usando IA con sus pacientes: la pregunta no era si su herramienta funcionaba bien. Probablemente funcionaba. La pregunta era si podía explicarle a cada paciente, con palabras claras, qué hacía esa herramienta, dónde iban sus datos y por qué él confiaba en sus sugerencias. Si no podía, entonces el problema no era técnico ni regulatorio. Era ético, en el sentido más antiguo y más serio del término: estaba tomando decisiones en nombre de otro sin poder rendir cuentas plenas de cómo las había tomado.

Como Martha frente al cuerpo sintético de su pareja, podemos permitirnos, durante un trecho, el alivio de no preguntar. Pero la psicoterapia, si quiere seguir siendo lo que dice ser, no puede construirse sobre ese alivio. Tiene que construirse sobre la posibilidad, siempre abierta, de saber con quién estamos hablando. Y de decírselo, sin ambigüedades, a quien confía en nosotros.

Referencias {#referencias}

American Psychological Association. (2013). Guidelines for the practice of telepsychology. American Psychologist, 68(9), 791-800. https://doi.org/10.1037/a0035001

European Federation of Psychologists’ Associations. (2020). Model for good practice in digital era psychology. EFPA.

Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales (LOPDGDD). (2018). Boletín Oficial del Estado, España.

Suler, J. (2004). The online disinhibition effect. CyberPsychology & Behavior, 7(3), 321-326. https://doi.org/10.1089/1094931041291295

Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45. https://doi.org/10.1145/365153.365168

World Health Organization. (2022). Ethics and governance of artificial intelligence for health. WHO Press. ISBN 9789240029200.