A administração Trump cumpriu a ameaça de designar a empresa de inteligência artificial Anthropic como risco na cadeia de suprimentos, um movimento sem precedentes que pode forçar outros contratados governamentais a descontinuar o uso do chatbot de IA Claude. Esta decisão incomum, aplicada a uma empresa doméstica, sinaliza uma postura rigorosa do governo federal sobre o controle de tecnologias críticas, especialmente para defesa e segurança nacional, exigindo que parceiros tecnológicos reavaliem suas colaborações e a conformidade com as diretrizes governamentais.
A decisão oficial do Pentágono e seus fundamentos
O Pentágono, por meio de um comunicado emitido na quinta-feira, informou formalmente a liderança da Anthropic que a empresa e seus produtos são considerados risco na cadeia de suprimentos "com efeito imediato". Esta decisão, que efetivamente encerra a possibilidade de negociações adicionais, ocorre menos de uma semana após o presidente Donald Trump e o secretário de Defesa, Pete Hegseth, acusarem a empresa de comprometer a segurança nacional. As ameaças de punição foram declaradas na sexta-feira anterior, às vésperas da guerra no Irã, depois que o CEO da Anthropic, Dario Amodei, recusou-se a ceder em relação às preocupações de que os produtos da empresa pudessem ser usados para vigilância em massa de cidadãos americanos ou para o desenvolvimento e uso de armas autônomas.
A justificativa do Pentágono reside em um "princípio fundamental: os militares serem capazes de usar a tecnologia para todos os fins lícitos." A instituição enfatizou que não permitirá que um fornecedor "se insira na cadeia de comando, restringindo o uso lícito de uma capacidade crítica e colocando em risco nossos combatentes". Essa declaração sublinha a primazia da autonomia militar no emprego de tecnologias estratégicas e a rejeição a qualquer condição imposta por fornecedores que possam comprometer a segurança ou a eficácia das operações militares.
Repercussões imediatas e críticas à medida
A designação de risco já começou a gerar efeitos práticos entre os contratados militares. A Lockheed Martin, uma das maiores empresas de defesa, declarou que "seguirá a direção do Presidente e do Departamento de Guerra", buscando outros fornecedores de modelos de linguagem grandes (LLMs). A empresa previu "impactos mínimos", afirmando não depender de um único fornecedor de LLM para suas operações. Contudo, ainda não está claro se a designação visa bloquear o uso da Anthropic por todos os contratados do governo federal ou apenas por aqueles vinculados diretamente às forças armadas, gerando incerteza sobre a amplitude real da medida.
A decisão do Pentágono de aplicar uma regra concebida para mitigar ameaças na cadeia de suprimentos representadas por adversários estrangeiros a uma empresa doméstica gerou críticas de ambos os lados do espectro político. Os códigos federais definem risco na cadeia de suprimentos como a probabilidade de um "adversário sabotar, introduzir maliciosamente funções indesejadas ou de outra forma subverter" um sistema para fins de interrupção, degradação ou espionagem. A aplicação desta definição à Anthropic levanta questões substanciais sobre o precedente estabelecido e a interpretação legal da legislação.
A senadora Kirsten Gillibrand (D-NY), membro dos Comitês de Serviços Armados e de Inteligência do Senado, qualificou a ação como um "perigoso uso indevido de uma ferramenta destinada a combater tecnologia controlada por adversários", alertando que é uma medida "míope, autodestrutiva e um presente para nossos adversários." Neil Chilson, ex-chefe de tecnologia da Comissão Federal de Comércio (FTC), descreveu-a como um "enorme exagero" que pode prejudicar tanto o setor de IA dos EUA quanto a capacidade militar de acessar a melhor tecnologia. Um grupo de ex-autoridades de defesa e segurança nacional, incluindo o ex-diretor da CIA Michael Hayden, expressou "séria preocupação", argumentando que a medida é um "profundo desvio" de seu propósito original — proteger contra adversários estrangeiros, não penalizar inovadores domésticos por manter salvaguardas éticas contra usos controversos da IA, caracterizando-o como um "erro de categoria" com consequências de longo alcance.
O paradoxo do mercado: apoio público e a rivalidade da IA
Paradoxalmente, enquanto perdia parcerias significativas com o setor de defesa, a Anthropic registrou um aumento massivo nos downloads de consumidores na última semana, com mais de um milhão de novas inscrições diárias para o Claude. Essa ascensão é atribuída a um apoio público generalizado à sua "posição moral" em relação às salvaguardas contra usos controversos da IA. Esse fenômeno impulsionou o Claude a superar o ChatGPT da OpenAI e o Gemini do Google, tornando-o o principal aplicativo de IA em mais de 20 países na App Store da Apple.
A disputa com o Pentágono também aprofundou a intensa rivalidade da Anthropic com a OpenAI. Em um movimento estratégico, a OpenAI anunciou na sexta-feira um acordo com o Pentágono para efetivamente substituir a Anthropic por seu ChatGPT em ambientes militares classificados. Curiosamente, embora a OpenAI tenha inicialmente buscado proteções semelhantes contra vigilância doméstica e armas autônomas, ela posteriormente precisou alterar seus acordos. Essa flexibilização levou o CEO da OpenAI, Sam Altman, a comentar que não deveria ter apressado um acordo que "parecia oportuno", evidenciando os desafios éticos e comerciais inerentes à conciliação das demandas governamentais com os princípios de desenvolvimento na rápida evolução da inteligência artificial.
Para aprofundar-se em análises de defesa, geopolítica e segurança que moldam o cenário global, siga a OP Magazine em nossas redes sociais e mantenha-se informado com conteúdo exclusivo e perspicaz sobre os temas mais relevantes da atualidade.










