El gobierno de Estados Unidos firmó acuerdos con Google DeepMind, Microsoft y xAI para evaluar riesgos vinculados a ciberseguridad, bioseguridad y armas químicas en nuevos desarrollos de inteligencia artificial.
El Departamento de Comercio norteamericano anunció esta semana que revisará versiones preliminares de nuevos modelos de IA antes de su lanzamiento público. El proceso estará a cargo del Center for AI Standards and Innovation (CAISI), un organismo orientado a analizar capacidades y riesgos asociados a sistemas avanzados de inteligencia artificial.
Según informó la agencia, las evaluaciones buscarán detectar posibles amenazas vinculadas a ciberseguridad, bioseguridad y armas químicas. Desde CAISI señalaron que el objetivo es ampliar el trabajo conjunto entre el gobierno federal y las compañías tecnológicas, en un contexto de fuerte crecimiento de herramientas de IA.
El organismo indicó además que ya realizó más de 40 evaluaciones sobre modelos comerciales, incluidos desarrollos que todavía no fueron presentados oficialmente. Según la información difundida, las empresas comparten versiones preliminares de sus sistemas con algunas restricciones de seguridad reducidas o eliminadas para permitir análisis más profundos sobre sus capacidades y posibles riesgos.
Los nuevos acuerdos se conocen mientras crece el debate internacional sobre el impacto de los modelos de IA más avanzados. En paralelo, medios estadounidenses informaron que la administración de Donald Trump analiza implementar un mecanismo oficial de supervisión gubernamental para este tipo de tecnologías antes de su liberación pública.

