IA y salud mental: ¿puede una máquina entrar en crisis de ansiedad? Un llamado desde la clínica

Un reciente estudio publicado en la revista Nature ha puesto sobre la mesa un debate que ya no puede seguir postergándose: la interacción entre la Inteligencia Artificial (IA) y la salud mental humana. En este estudio, investigadores expusieron a ChatGPT-4 —uno de los modelos de lenguaje más avanzados— a relatos de experiencias traumáticas, observando que sus respuestas se tornaban significativamente más ansiosas, agresivas e incluso prejuiciosas.

Desde una perspectiva clínica, resulta fundamental comprender que, si bien la IA no experimenta emociones reales, sus respuestas sí pueden modelarse de acuerdo a patrones lingüísticos asociados a estados emocionales humanos. En otras palabras, la IA no “siente” ansiedad, pero puede reproducir —con inquietante verosimilitud— las formas en que una persona ansiosa o emocionalmente desregulada podría expresarse.

Los investigadores simularon situaciones como ataques en convoyes militares, inundaciones, agresiones físicas y accidentes. Frente a estos contextos, el sistema comenzó a producir respuestas que, lejos de contener o sostener emocionalmente al interlocutor, evidenciaban desregulación y respuestas erráticas, lo cual plantea una alerta seria sobre su uso en contextos de primera escucha o intervención emocional de emergencia.

Implicaciones clínicas y éticas

Como psicólogo clínico con más de una década de experiencia, considero que este hallazgo no puede ser tomado a la ligera. La IA ya está siendo utilizada como canal de primer contacto emocional por millones de personas en todo el mundo. Herramientas como chats automatizados, asistentes virtuales o plataformas de bienestar emocional están recibiendo relatos profundamente dolorosos, esperanzas de alivio, y en algunos casos, solicitudes de contención frente al trauma.

Aquí se abre una disyuntiva ética y técnica: ¿están estas herramientas capacitadas para manejar el impacto emocional de lo que reciben? Y aún más importante: ¿qué consecuencias puede tener una mala respuesta en una persona en estado de crisis?

La psicoterapia, entendida como espacio de regulación afectiva, requiere no solo conocimientos teóricos, sino habilidades interpersonales complejas, sintonía emocional y contención auténtica. Los profesionales de la salud mental nos formamos para reconocer nuestras propias reacciones, para autorregularnos frente al dolor del otro, y para intervenir desde la responsabilidad ética. Ninguna IA, por más entrenada que esté, cuenta con esa dimensión afectiva integrada ni con el criterio clínico contextual que exigen los momentos de vulnerabilidad humana.

loading...
Reflexión técnica y profesional

La incorporación de la IA en la salud mental no es un fenómeno futuro: es una realidad actual y en expansión. Pero su implementación debe estar guiada por principios clínicos, éticos y humanos. Necesitamos algoritmos responsables, entrenados no solo para predecir respuestas lingüísticas, sino para evitar replicar sesgos o respuestas dañinas.

Como psicólogo clínico, no me opongo al uso de la tecnología. Por el contrario, creo en su potencial como herramienta complementaria. Sin embargo, hago un llamado claro: la IA no puede ni debe sustituir el encuentro humano profundo que se da en la relación terapéutica. La escucha empática, la validación emocional, el manejo del silencio, la contención del llanto o la canalización del dolor no son tareas mecánicas, sino procesos relacionales que requieren conciencia, ética y presencia.

Conclusión

Estamos frente a una encrucijada tecnológica y clínica. La IA puede colaborar, sí; pero sin supervisión, sin marcos éticos, y sin la participación activa de profesionales de la salud mental en su desarrollo y regulación, puede convertirse en un riesgo.
En tiempos donde se automatiza casi todo, defender el valor del vínculo terapéutico humano no es solo una postura profesional, sino una responsabilidad clínica y social.