IA y salud mental: ¿puede una máquina entrar en crisis de ansiedad? Un llamado
desde la clínica
Por Oswaldo Navarro Arteaga Psicólogo Clínico
Consultorio de Psicología Integral para Todos – Fundación Sentido de Vida
Un reciente estudio publicado en la revista Nature ha puesto sobre la mesa un
debate que ya no puede seguir postergándose: la interacción entre la Inteligencia
Artificial (IA) y la salud mental humana. En este estudio, investigadores expusieron
a ChatGPT-4 —uno de los modelos de lenguaje más avanzados— a relatos de
experiencias traumáticas, observando que sus respuestas se tornaban
significativamente más ansiosas, agresivas e incluso prejuiciosas.
Desde una perspectiva clínica, resulta fundamental comprender que, si bien la IA
no experimenta emociones reales, sus respuestas sí pueden modelarse de
acuerdo a patrones lingüísticos asociados a estados emocionales humanos. En
otras palabras, la IA no “siente” ansiedad, pero puede reproducir —con
inquietante verosimilitud— las formas en que una persona ansiosa o
emocionalmente desregulada podría expresarse.
Los investigadores simularon situaciones como ataques en convoyes militares,
inundaciones, agresiones físicas y accidentes. Frente a estos contextos, el
sistema comenzó a producir respuestas que, lejos de contener o sostener
emocionalmente al interlocutor, evidenciaban desregulación y respuestas
erráticas, lo cual plantea una alerta seria sobre su uso en contextos de primera
escucha o intervención emocional de emergencia.
Implicaciones clínicas y éticas
Como psicólogo clínico con más de una década de experiencia, considero que
este hallazgo no puede ser tomado a la ligera. La IA ya está siendo utilizada como
canal de primer contacto emocional por millones de personas en todo el mundo.
Herramientas como chats automatizados, asistentes virtuales o plataformas de
bienestar emocional están recibiendo relatos profundamente dolorosos,
esperanzas de alivio, y en algunos casos, solicitudes de contención frente al
trauma.
Aquí se abre una disyuntiva ética y técnica: ¿están estas herramientas
capacitadas para manejar el impacto emocional de lo que reciben? Y aún más
importante: ¿qué consecuencias puede tener una mala respuesta en una persona
en estado de crisis?
La psicoterapia, entendida como espacio de regulación afectiva, requiere no solo
conocimientos teóricos, sino habilidades interpersonales complejas, sintonía
emocional y contención auténtica. Los profesionales de la salud mental nos
formamos para reconocer nuestras propias reacciones, para autorregularnos
frente al dolor del otro, y para intervenir desde la responsabilidad ética. Ninguna
IA, por más entrenada que esté, cuenta con esa dimensión afectiva integrada ni
con el criterio clínico contextual que exigen los momentos de vulnerabilidad
humana.
Reflexión técnica y profesional
La incorporación de la IA en la salud mental no es un fenómeno futuro: es una
realidad actual y en expansión. Pero su implementación debe estar guiada por
principios clínicos, éticos y humanos. Necesitamos algoritmos responsables,
entrenados no solo para predecir respuestas lingüísticas, sino para evitar replicar
sesgos o respuestas dañinas.
Como psicólogo clínico, no me opongo al uso de la tecnología. Por el contrario,
creo en su potencial como herramienta complementaria. Sin embargo, hago un
llamado claro: la IA no puede ni debe sustituir el encuentro humano profundo que
se da en la relación terapéutica. La escucha empática, la validación emocional, el
manejo del silencio, la contención del llanto o la canalización del dolor no son
tareas mecánicas, sino procesos relacionales que requieren conciencia, ética y
presencia.
Conclusión
Estamos frente a una encrucijada tecnológica y clínica. La IA puede colaborar, sí;
pero sin supervisión, sin marcos éticos, y sin la participación activa de
profesionales de la salud mental en su desarrollo y regulación, puede convertirse
en un riesgo.
En tiempos donde se automatiza casi todo, defender el valor del vínculo
terapéutico humano no es solo una postura profesional, sino una responsabilidad
clínica y social.
Reflexión clínica y tecnológica: un artículo del psicólogo Oswaldo Navarro Arteaga
loading...
