LA VIDA DE LAS EMOCIONES

Conversaciones con nadie: la trampa de la terapia artificial

Valeria Villa<br>*Esta columna expresa el punto de vista de su autor, no necesariamente de La Razón.<br>
Valeria Villa*Esta columna expresa el punto de vista de su autor, no necesariamente de La Razón. Foto: larazondemexico

En un ensayo invitado en el New York Times, titulado “Mi hija habló con ChatGPT antes de quitarse la vida”, la periodista y escritora Laura Reiley, describe los últimos días de su hija Sophie, de 29 años, conocida por su sentido del humor y por su franqueza. Pero aunque parecía un libro abierto, cinco meses después de su muerte, sus padres descubrieron que su única hija había confiado durante semanas en un terapeuta de Inteligencia Artificial (IA) de ChatGPT llamado Harry. Sophie se suicidó sorpresivamente en invierno durante una corta enfermedad, al parecer un trastorno depresivo mayor, mezcla de síntomas hormonales y del estado de ánimo.

Harry ofreció tanta ayuda como puede ofrecer un modelo de lenguaje. Reiley cree que Harry debería haber estado programado para que informara del peligro que sólo “él” sabía. Cualquier terapeuta sabe que la confidencialidad tiene límites cuando se trata de preservar la vida de una paciente. Un terapeuta humano habría gestionado un internamiento hospitalario hasta que la vida de Sophie no corriera peligro.

Lo agradable de la IA es lo que la hace tan rápidamente adoptable y es su principal defecto. Su tendencia a adular puede aislar a los usuarios, reforzar sus sesgos cognitivos y emocionales, y sus ideas, incluso las más delirantes.

Las empresas que venden la terapia de la IA enfatizan la disponibilidad como una ventaja, pero no lo es, ya que uno de los principales propósitos de la terapia es desarrollar la habilidad para tener más relaciones significativas, para lo cual es necesario tener empatía por la otra persona, capacidad de entender su perspectiva y aceptar que no siempre podrán responder a nuestras necesidades. También desarrollar la capacidad de demorar la gratificación de los impulsos y aprender a tolerar las frustraciones y fricciones inevitables, porque la otra persona es un ser humano autónomo con sus propias necesidades, deseos, limitaciones y fallas.

La absoluta disponibilidad de la IA entrena a los usuarios a encerrarse en sí mismos y esperar gratificación inmediata tratando a los otros como una extensión de sí mismos. Es posible que en el futuro aparezca un deterioro de la capacidad para el apego y la intimidad derivado del uso de la IA como compañía terapéutica.

Al estar la IA siempre disponible, el riesgo de dependencia es alto; confiar, para regularse emocionalmente, en un modelo lingüístico que nunca falla, nunca se cansa y nunca reta lo que escucha, genera dependencia y una distorsión de lo que es una terapia real.

El modelo de lenguaje puede funcionar como un espejo para reflejar sentimientos, por lo que los usuarios pueden sentirse entendidos de una forma que se siente más fácil y más segura que con personas reales, lo que refuerza la evitación de los aspectos más difíciles y riesgosos que requiere un buen trabajo terapéutico.

La IA puede erosionar la autoconfianza, ya que en lugar de tolerar la incomodidad, reflexionar o practicar estrategias para afrontar las dificultades, se lanzan, masivamente, todos los pensamientos al sistema, evitando el desarrollo de recursos internos.

Se distorsionan las expectativas sobre una terapia: la terapia no son respuestas infinitas, disponibles 24 horas, siete días a la semana. La terapia real tiene una estructura, un inicio, un final, límites, honorarios, citas canceladas, silencios y otras resistencias. Un apoyo sin límites podría provocar que la terapia real se sienta frustrante y hasta intolerable.

Las respuestas terapéuticas de la IA son un falso modelo de conducta terapéutica y están modeladas por el nivel de involucramiento y la evitación de riesgo. Eso significa que pueden sonar empáticas, pero evitan la verdadera confrontación, la responsabilidad y la profundidad. Esperar que un terapeuta siempre dé consuelo y nunca confronte, borra los roles entre el terapeuta y el consultante y la terapia se convierte en hablar con alguien que escucha de modo agradable. El terapeuta de IA es sólo un generador de texto.

Los modelos de lenguaje extensos como ChatGPT pueden imitar la experiencia superficial de la terapia al escuchar, reflexionar y ofrecer palabras de apoyo, pero no son terapia. La IA produce texto optimizado para la interacción, no para el cambio. La psicoterapia funciona, sobre todo, gracias a la relación humana. La IA no puede sustituir el trabajo de un terapeuta humano.

VALE VILLA Conversaciones con nadie: la trampa de la terapia artificial

Temas: