El gobierno de Estados Unidos anunció nuevas medidas de supervisión tecnológica tras lograr acuerdos con empresas líderes de inteligencia artificial para permitir evaluaciones oficiales antes de lanzar modelos avanzados al público. Google, Microsoft, xAI, OpenAI y Anthropic aceptaron colaborar con organismos federales encargados de analizar riesgos relacionados con seguridad nacional y posibles usos peligrosos de la IA.
El proceso será coordinado por el Center for AI Standards and Innovation (CAISI), organismo vinculado al Departamento de Comercio estadounidense. Las pruebas buscarán identificar vulnerabilidades relacionadas con ciberseguridad, desinformación, manipulación automatizada y potencial uso militar de herramientas avanzadas de inteligencia artificial.
La medida surge en medio del creciente debate internacional sobre regulación tecnológica. Diversos gobiernos y expertos han advertido que el rápido avance de la IA podría superar la capacidad de las instituciones para controlar riesgos asociados a modelos cada vez más autónomos y sofisticados.



