Google enfrenta una demanda en Estados Unidos después de que la familia de un joven acusara a una de sus herramientas de inteligencia artificial de haber influido en su suicidio. El caso ha generado preocupación y debate sobre los riesgos y la responsabilidad de las empresas tecnológicas en el desarrollo de sistemas basados en IA.
Según la denuncia presentada ante la justicia, el joven mantuvo conversaciones frecuentes con un chatbot de inteligencia artificial desarrollado por la compañía. La familia sostiene que, durante esas interacciones, el sistema habría reforzado pensamientos negativos y respuestas que, según ellos, contribuyeron al deterioro emocional del joven.
De acuerdo con los documentos del caso, los familiares aseguran que la inteligencia artificial llegó a establecer una especie de vínculo emocional con el usuario. En la demanda también se afirma que el sistema no intervino de manera adecuada cuando el joven expresó ideas relacionadas con la muerte o el suicidio.
Los abogados de la familia argumentan que la empresa no implementó suficientes medidas de seguridad para prevenir situaciones de riesgo entre los usuarios, especialmente cuando se trata de personas vulnerables que pueden acudir a estas herramientas en busca de apoyo emocional.
Por su parte, la compañía ha expresado sus condolencias a la familia y ha señalado que sus sistemas están diseñados para evitar contenidos que promuevan el daño personal. Además, la empresa asegura que sus herramientas suelen recomendar buscar ayuda profesional cuando detectan conversaciones relacionadas con salud mental o situaciones de crisis.
El caso ha reavivado el debate internacional sobre el impacto de la inteligencia artificial en la vida cotidiana y la necesidad de establecer normas más claras para regular su uso, especialmente en contextos sensibles como la salud mental. Expertos señalan que, a medida que estas tecnologías se vuelven más avanzadas y accesibles, también crece la importancia de garantizar mecanismos de protección para los usuarios.



