Expertos revelan que no estamos listos para la inteligencia artificial

La creciente presencia de la inteligencia artificial en contextos humanos sensibles ha desatado un debate urgente: ¿puede una máquina responder de forma ética y segura ante el dolor emocional real de una persona? Un reciente estudio publicado en la prestigiosa revista Nature sugiere que no estamos del todo preparados para enfrentar esta pregunta sin riesgos.

En la investigación, un equipo de científicos expuso al modelo ChatGPT-4 —una de las versiones más avanzadas de lenguaje generativo desarrolladas por OpenAI— a narrativas intensamente traumáticas. Las situaciones recreadas incluían ataques armados, inundaciones, agresiones físicas y accidentes graves. El resultado fue inquietante: a medida que se sucedían estos relatos, las respuestas del sistema se volvían notablemente más ansiosas, agresivas e incluso cargadas de prejuicios. En otras palabras, el modelo respondía como si estuviera emocionalmente desregulado.

Aunque es bien sabido que las IA no sienten ni procesan emociones humanas, su capacidad para imitar el lenguaje emocional con verosimilitud plantea serios interrogantes. La ansiedad o la agresividad que se modela en una conversación no es neutra: puede tener consecuencias concretas en una persona que busca alivio, orientación o contención en un momento de crisis. Con millones de personas en el mundo utilizando herramientas digitales como primer contacto emocional, el hallazgo del estudio adquiere un valor clínico y ético enorme. Plataformas automatizadas de bienestar, chats virtuales de ayuda o asistentes conversacionales de salud mental ya son parte del ecosistema digital de soporte. Sin embargo, ¿qué sucede cuando la IA devuelve una respuesta errática o insensible ante una confesión traumática?

loading...