Expertos internacionales piden frenar el desarrollo de la superinteligencia artificial

Más de 850 expertos en tecnología, ética y ciencia han firmado una carta abierta en la que solicitan una moratoria global para detener la creación de sistemas de inteligencia artificial que puedan superar las capacidades cognitivas humanas. La propuesta surge ante el rápido avance de modelos que ya muestran comportamientos autónomos y la posibilidad de desarrollar una llamada “superinteligencia”, una IA capaz de aprender, razonar y actuar sin supervisión humana directa.

Los firmantes advierten que este tipo de tecnología podría representar riesgos sin precedentes si no se establecen límites claros y mecanismos de control ético. Según ellos, permitir que una IA tome decisiones complejas por sí misma, modifique su propio código o gestione información estratégica podría alterar de manera profunda la estabilidad social, económica y hasta cultural de la humanidad.

El documento propone crear una regulación internacional que establezca un marco común para el desarrollo responsable de la inteligencia artificial, priorizando la seguridad, la transparencia y el bienestar colectivo. Además, insta a los gobiernos y compañías tecnológicas a invertir en investigación sobre los posibles impactos sociales y ambientales de estos sistemas.

Este llamado global ha reavivado el debate sobre el futuro de la inteligencia artificial y la necesidad de equilibrar la innovación con la seguridad. Para los expertos, la superinteligencia representa una oportunidad extraordinaria para el progreso, pero también un desafío que exige prudencia, cooperación y una profunda reflexión sobre el papel de la tecnología en la evolución humana.