📌 OpenAI llega a un acuerdo con el Pentágono, mientras que Anthropic se enfrenta a la restricción gubernamental.
– Sam Altman confirma que los desarrollos de OpenAI se utilizarán en una red secreta del Ministerio de Defensa después de que los organismos gubernamentales pusieran fin a la cooperación con su rival Anthropic por cuestiones de seguridad.
Al final de la semana de trabajo, el jefe de OpenAI Sam Altman en su mensaje en la plataforma X anunció que los productos de OpenAI comenzarán a funcionar en el circuito cerrado del Pentágono. Altman destacó que la agencia ha demostrado un profundo respeto por la seguridad y la voluntad de trabajar dentro del marco corporativo establecido.
Hoy hemos llegado a un acuerdo con los militares para desplegar nuestros modelos en su red segura.
En todas nuestras interacciones, el DoD ha demostrado claramente un serio compromiso con la seguridad y la voluntad de trabajar juntos para lograr el mejor resultado posible.
Estas noticias llegan tras una semana muy ajetreada en el campo de la inteligencia artificial. El jefe de defensa estadounidense, Pete Hegseth, ha designado a Anthropic como amenaza para la seguridad nacional, lo que suele aplicarse a adversarios externos. Como consecuencia de esta decisión, los proveedores de defensa deben asegurarse de no utilizar las soluciones de Anthropic. Al mismo tiempo, el presidente Donald Trump ordenó a todas las agencias federales que dejaran de usar inmediatamente la tecnología de Anthropic, dando seis meses para migrar los sistemas existentes.
Anthropic fue el primero de los laboratorios de IA cuyos modelos se integraron en el entorno seguro del Pentágono en virtud de un contrato de 200 millones de dólares firmado en julio. Sin embargo, los acuerdos fracasaron después de que la empresa exigiera garantías de que su software no se utilizaría para desarrollar armas autónomas o vigilancia doméstica a gran escala. Al parecer, el Ministerio de Defensa insistió en que la tecnología se pusiera a disposición de todas las necesidades militares legítimas.
Altman aclaró que OpenAI se adhiere a restricciones similares, y que están explícitamente detalladas en el nuevo acuerdo. La empresa prohíbe la vigilancia masiva nacional y exige la responsabilidad humana en las decisiones relativas al uso de la fuerza, incluidos los sistemas automatizados de armamento.
Esto plantea la cuestión de si la divergencia clave entre las dos empresas radica en sus principios subyacentes o en su enfoque de la interacción con el gobierno.
El acuerdo provocó una oleada de críticas en Internet. Algunos usuarios acusaron a OpenAI de traicionar sus convicciones previas contra el uso de la IA en proyectos militares. El político demócrata estadounidense Christopher Hale declaró en X que cancelaba su suscripción a ChatGPT en favor de un producto de la competencia, acusando a OpenAI de “capitular ante el despotismo”.
Otros observadores cuestionaron la coherencia de la empresa, recordando sus declaraciones públicas en el pasado contra la participación en el desarrollo de armamento o vigilancia.
El acuerdo subraya la creciente convergencia entre los laboratorios privados de inteligencia artificial y la seguridad nacional de Estados Unidos. A medida que la rivalidad con China acelera la adopción de la inteligencia artificial por parte del Ejército, se espera que se intensifique el debate público y político sobre los límites permisibles de esta tecnología.
En el centro está la disyuntiva entre las ventajas estratégicas y los límites éticos, y quién definirá en última instancia esos límites.