As agências de inteligência dos EUA estão a implementar ativamente ferramentas avançadas de inteligência artificial da Anthropic, apesar de uma designação formal do Pentágono que classifica a empresa como um "risco da cadeia de fornecimento", segundo um novo relatório destacado pela Axios.
No centro da controvérsia está o modelo Mythos Preview da Anthropic, que, segundo fontes, está atualmente em uso na Agência de Segurança Nacional (NSA). O desenvolvimento expõe uma divisão crescente dentro do governo dos EUA sobre como equilibrar a rápida adoção de IA com as restrições de segurança internas.

O Pentágono colocou a Anthropic na lista negra no início de fevereiro de 2026, após uma disputa sobre salvaguardas de IA e uso militar, alertando formalmente que os seus sistemas representavam uma vulnerabilidade potencial da cadeia de fornecimento. No entanto, os funcionários de inteligência parecem estar a priorizar as capacidades do Mythos, particularmente na cibersegurança, em detrimento dessas preocupações.
Segundo fontes, a Agência de Segurança Nacional (NSA) adotou o Mythos, assim como outras unidades dentro do Departamento. Até ao momento, os detalhes específicos do uso do Mythos pela NSA não são conhecidos publicamente, mas noutros locais o modelo está a ser amplamente utilizado para analisar ambientes internos em busca de falhas de segurança. O modelo é considerado um dos sistemas de IA mais avançados disponíveis, com fortes capacidades "agênticas" que lhe permitem analisar e explorar sistemas complexos de forma autónoma.
Os relatos de uso pela NSA e pelo DoD surgem dias depois de fontes terem revelado que a Casa Branca estava a negociar acesso ao modelo Mythos da Anthropic, mesmo enquanto os esforços para colocar a empresa na lista negra continuavam. Mais recentemente, o CEO Dario Amodei também confirmou que a empresa tem estado em contacto com funcionários do governo e está aberta à colaboração.
Algumas agências argumentam que limitar o acesso a uma IA tão poderosa poderia colocar os EUA em desvantagem estratégica, particularmente contra rivais geopolíticos. No entanto, especialistas alertam que as mesmas capacidades que tornam o Mythos valioso para a defesa também podem introduzir novos riscos. A sua capacidade de descobrir vulnerabilidades em grande escala pode ser transformada em arma se mal utilizada, levantando preocupações sobre a escalada na guerra cibernética.
Apenas cerca de 40 organizações aprovadas têm permissão para usar o Mythos. Dos 40 grupos, apenas 12 são conhecidos publicamente, e a NSA está supostamente escondida na maioria não listada. No Reino Unido, agências semelhantes à NSA também indicaram que têm acesso ao modelo através do seu Instituto Nacional de Segurança em IA.
A Anthropic descreve o Mythos como notavelmente poderoso em cibersegurança, capaz de detetar bugs profundamente incorporados e explorá-los de forma independente. Esta combinação de deteção avançada e análise autónoma já despertou interesse e preocupação entre os decisores políticos.
Na sexta-feira, Amodei reuniu-se com a chefe de gabinete da Casa Branca, Susie Wiles, e o Secretário do Tesouro, Scott Bessent, para discutir como o modelo pode ser integrado com segurança na infraestrutura governamental. Apesar do atrito público da Casa Branca com a Anthropic, esta reunião destaca que o poder do modelo é simplesmente demasiado valioso para as necessidades de segurança federal ignorarem.
Ambas as partes caracterizaram as conversas como produtivas. A Casa Branca até partilhou: "Discutimos oportunidades de colaboração, bem como abordagens e protocolos partilhados para enfrentar os desafios associados ao dimensionamento desta tecnologia."
A Anthropic respondeu ao Pentágono em março, apresentando uma ação judicial para anular a designação de risco da cadeia de fornecimento que ameaçava os seus contratos governamentais. Esta foi a primeira vez que a etiqueta de "não suficientemente seguro" foi atribuída a um fornecedor nacional, efetivamente impedindo que as suas ferramentas fossem utilizadas pelo governo.
A equipa jurídica da Anthropic classificou a designação de "risco" como uma tática de vingança depois de Amodei ter negado o pedido do DoD para integrar a IA em sistemas de armas totalmente autónomos e vigilância doméstica em massa.
Como anteriormente relatado pela Cryptopolitan, um juiz do tribunal distrital da Califórnia ficou do lado da Anthropic e bloqueou temporariamente a etiqueta de "risco da cadeia de fornecimento". Ainda assim, um tribunal federal de recurso desde então anulou essa suspensão, mantendo a designação em vigor por enquanto.
Nos primeiros dias dos esforços da lista negra, o Presidente Donald Trump afirmou que os esquerdistas radicais que dirigem a empresa estavam a tentar ditar termos ao Departamento de Defesa. Ele argumentou: "Não precisamos disso, não queremos isso e não faremos negócios com eles novamente!"
Neste momento, alguns no DoD ainda acreditam que a recusa da Anthropic em cooperar plenamente prova que eles desligariam a sua tecnologia durante uma guerra, tornando-os um risco de fuga em combate. No entanto, outros funcionários da administração estão ansiosos por enterrar o machado apenas para colocar as mãos na tecnologia superior da empresa.
Ainda está a deixar o banco ficar com a melhor parte? Veja o nosso vídeo gratuito sobre ser o seu próprio banco.

