📌 A OpenAI chega a acordo com o Pentágono, enquanto a Anthropic enfrenta restrições governamentais.
– Sam Altman confirma que os desenvolvimentos da OpenAI serão utilizados numa rede secreta do Ministério da Defesa, depois de as agências governamentais terem interrompido a cooperação com a rival Anthropic por questões de segurança.
No final da semana de trabalho, o diretor da OpenAI, Sam Altman, na sua mensagem na plataforma X, anunciou que os produtos da OpenAI vão começar a funcionar no circuito fechado do Pentágono. Altman sublinhou que a agência demonstrou um profundo respeito pela segurança e uma vontade de trabalhar dentro do quadro empresarial estabelecido.
Hoje chegámos a um acordo com os militares para instalar os nossos modelos na sua rede segura.
Em todas as nossas interações, o DoD demonstrou claramente um compromisso sério com a segurança e uma vontade de trabalhar em conjunto para alcançar o melhor resultado possível.
Esta notícia surge após uma semana atarefada no domínio da inteligência artificial. O chefe da defesa dos EUA, Pete Hegseth, designou a Anthropic como uma ameaça à segurança nacional, normalmente aplicada a adversários externos. Como consequência desta decisão, os fornecedores do sector da defesa têm de garantir que não utilizam as soluções da Anthropic. Ao mesmo tempo, o Presidente Donald Trump ordenou a todas as agências federais que deixassem imediatamente de utilizar a tecnologia da Anthropic, dando um prazo de seis meses para a migração dos sistemas existentes.
O Anthropic foi o primeiro dos laboratórios de IA cujos modelos foram integrados no ambiente seguro do Pentágono ao abrigo de um contrato de 200 milhões de dólares assinado em julho. No entanto, os acordos fracassaram depois de a empresa ter exigido garantias de que o seu software não seria utilizado para desenvolver armas autónomas ou vigilância doméstica em grande escala. O Ministério da Defesa terá insistido para que a tecnologia fosse disponibilizada para todas as necessidades militares legítimas.
Altman esclareceu que a OpenAI adere a restrições semelhantes e que estas estão explicitamente definidas no novo acordo. A empresa proíbe a vigilância doméstica em massa e exige a responsabilização humana pelas decisões relativas ao uso da força, incluindo sistemas de armas automatizados.
Este desenvolvimento levanta a questão de saber se a principal divergência entre as duas empresas reside nos seus princípios subjacentes ou na sua abordagem à interação com o governo.
O acordo provocou uma onda de críticas na Internet. Alguns utilizadores acusaram a OpenAI de trair as suas anteriores convicções contra a utilização da IA em projectos militares. O político democrata norte-americano Christopher Hale afirmou no X que estava a cancelar a sua subscrição do ChatGPT a favor de um produto da concorrência, acusando a OpenAI de “capitular perante o despotismo”.
Outros observadores questionaram a coerência da empresa, recordando as suas declarações públicas no passado contra o envolvimento no desenvolvimento de armas ou de vigilância.
O acordo sublinha a crescente convergência entre os laboratórios privados de IA e a segurança nacional dos EUA. À medida que a rivalidade com a China acelera a adoção da inteligência artificial pelo Exército, espera-se que o debate público e político sobre os limites admissíveis desta tecnologia se intensifique.
o cerne da questão está o compromisso entre vantagens estratégicas e limites éticos, e quem acabará por definir esses limites.