Trocando em Miúdos
O imbroglio entre a Anthropic e o Ministério da Guerra dos Estados Unidos
A empresa de inteligência artificial (IA) Anthropic, sediada em São Francisco, Califórnia, foi uma start-up criada em 2021 por pesquisadores que trabalhavam na empresa OpenAI, em particular os irmãos Dario e Daniela Amodei. É uma corporação privada de benefício público, ou seja, uma empresa com fins lucrativos que tenta balancear o lucro com a missão de beneficiar a sociedade ou o meio ambiente. Segundo a missão da corporação, devem ser considerados os interesses de empregados, consumidores e comunidades, além dos lucros dos acionistas e investidores.
A Anthropic ficou conhecida por seu foco em segurança e ética no desenvolvimento de modelos de inteligência artificial. Cresceu muito rápido com o desenvolvimento da família Claude de modelos de linguagem de grande porte e é avaliada em aproximadamente 380 bilhões de dólares em 2026.
Em janeiro de 2025, a empresa assinou um contrato de dois anos com o Ministério da Guerra dos EUA para colaborar no desenvolvimento de projetos de tecnologia de ponta em IA sob a égide da segurança nacional. A Anthropic acreditava que o chatbot Claude serviria bem a este propósito porque a corporação tinha elaborado políticas importantes a respeito da governança de IA, e de testes de segurança e uso.
+ Nova Estratégia de Segurança dos EUA e a Doutrina “Donroe” para as Américas
Anthropic desafia o Pentágono sobre limites do uso militar da IA
Graças à parceria com a Palantir, uma das maiores corporações de IA e com grande penetração no Pentágono, a Anthropic tornou-se a única companhia do setor a oferecer serviços às agências de inteligência e defesa dos EUA para ‘casos de uso classificados’ como de segurança nacional. O Pentágono pediu repetidamente acesso irrestrito aos modelos Claude para todos os “casos de uso legal”, mas a Anthropic não aceitou que seus modelos fossem usados em armamentos autônomos que funcionam sem assistência de humanos e na vigilância massiva da população dos Estados Unidos, conforme realizada pelo Immigration and Customs Enforcement (ICE) contra imigrantes indocumentados.
Como resultado da recusa, o governo Trump reagiu abrindo mão de adotar o modelo Claude e classificou a Anthropic como risco para a cadeia de suprimentos do governo. Oficiais do Pentágono haviam negociado com OpenAI, Google, xAI e Anthropic o desenvolvimento de seus respectivos modelos de inteligência artificial, com a condição de que estivessem disponíveis livremente para usos que não violassem a segurança nacional do país. Todas concordaram em desbloquear suas ferramentas (ChatGPT, Gemini e Grok) para usuários do governo, com exceção da Anthropic. Porém, Claude continuou sendo o único modelo disponível para usos classificados como tais até recentemente.
A Anthropic é uma das poucas produtoras de tecnologias de ponta de modelos de linguagem de grande porte disponíveis para acesso restrito pelo governo dos Estados Unidos, porque o modelo está disponível através da Nuvem Super Secreta da Amazon e da Plataforma de Inteligência Artificial da Palantir. Este acesso permitiu que o chatbot Claude aparecesse nas telas dos oficiais que monitoravam a captura do presidente Nicolás Maduro, fato que radicalizou o conflito entre o Pentágono e a Anthropic.
A exigência da Anthropic sobre observar regras e controle de segurança para o uso do seu modelo tornou-se ponto de controvérsia com o Pentágono e agências de inteligência do governo. A empresa defendeu firmemente os seus princípios para o uso seguro da IA e só autorizaria o uso do Claude depois de análise caso a caso, posição que foi rejeitada pelo governo sob a alegação de que o processo de autorização poderia ser lento e não garantiria a aprovação pela empresa.
Em uma declaração sobre a divergência a Anthropic afirmou:
“Nós não achamos que os nossos modelos de IA de ponta são bastante confiáveis para serem usados em armamentos completamente autônomos. Permitir que os modelos atuais sejam usados dessa maneira pode colocar em perigo os combatentes e civis americanos. Em segundo lugar, nós acreditamos que a vigilância massiva de americanos dentro do país constitui uma violação dos direitos fundamentais.”
Governo Trump reage contra restrições impostas pela Anthropic
O posicionamento foi atacadoa por Trump, que postou no X:
“Dirijo TODAS as Agências Federais do Governo dos Estados Unidos a IMEDIATAMENTE cessar todos os usos da tecnologia da Anthropic. Não precisamos, não queremos e não faremos negócios com eles de novo.” (ênfase e maiúsculas no original em inglês)
Peter Hegseth, secretário de Defesa (ministro da Guerra) dos EUA, por sua vez, também se manifestou no X:
“Em conjunto com a ordem do Presidente para o Governo Federal de cessar todos os usos da tecnologia da Anthropic, eu ordeno ao Ministério da Guerra designar a Anthropic como risco para a cadeia de suprimentos.” E continuou: “Em vigor imediatamente, nenhum empreiteiro, fornecedor ou parceiro que tenha negócios com os militares dos Estados Unidos pode ter nenhuma atividade comercial com a Anthropic.”
Classificar a Anthropic como risco para a cadeia de suprimentos é uma decisão inédita, pois se trata de uma empresa nacional dos Estados Unidos e não uma empresa chinesa como a Huawei ou russa como a Rosneft, ambas de países erradamente tratados pelo governo Trump como inimigos dos EUA. Esta medida não só cancelou os contratos com a Anthropic, mas obrigou todas as empresas que têm contratos com o Pentágono a não mais utilizarem o Claude nos seus projetos.
Outro post de Trump no X revela claramente como o presidente encara o conflito com a Anthropic politicamente:
“Os malucos esquerdistas da Anthropic cometeram um ERRO DESASTROSO tentando COAGIR o Ministério da Guerra e forçá-lo a obedecer aos seus Termos de Serviço em vez de obedecer à Constituição. O seu egoísmo está colocando VIDAS AMERICANAS em risco, nossas Tropas em Perigo, e a nossa segurança nacional em RISCO. NÓS decidimos o destino do nosso País — NÃO alguém fora do controle, companhia de IA de Esquerda Radical administrada por pessoas que não têm nenhuma ideia sobre o que é o MUNDO real.” (ênfase e maiúsculas no original em inglês)
Justiça dos EUA entra na disputa entre Anthropic e Pentágono
Entre fevereiro e abril de 2026, o conflito legal entre a Anthropic e o governo federal dos Estados Unidos ganhou novos desdobramentos, demonstrando divergências éticas importantes sobre os limites do uso da inteligência artificial dentro e fora do país.
A Anthropic é um ponto fora da curva entre as companhias de IA do Vale do Silício porque já tem sacrificado seus interesses econômicos para defender os seus ideais corporativos. Por exemplo, a Anthropic entrou em choque com o governo Trump ao fazer lobby contra uma lei que impediria os estados de aprovar normas de regulamentação da IA e ao defender regras estaduais para o setor.
Por outro lado, a Palantir está no campo oposto, já que não tenta controlar como o governo dos Estados Unidos utiliza a sua tecnologia. Essa megaempresa tem sido condenada tanto nos EUA quanto na Europa por não combater o uso do seu software para mineração de dados pelo ICE.
Após ter sido designada como risco para a cadeia de suprimentos, a Anthropic processou o Pentágono em um tribunal federal do norte da Califórnia alegando que o rótulo era um ato de retaliação que violava a Primeira Emenda da Constituição dos EUA, a que garante a liberdade de expressão. No mesmo mês de março, a juíza federal Rita Lin analisou o caso e concordou com a empresa ao decidir em caráter preliminar que o governo violou as proteções constitucionais para a liberdade de expressão quando a julgou como ameaça à segurança nacional e proibiu outras agências de usar os modelos de IA da Anthropic. A juíza determinou que o governo Trump revertesse a classificação da Anthropic e não impedisse agências federais de utilizar suas tecnologias.
Em abril de 2026, o Ministério da Justiça apelou contra a decisão da primeira instância. Um outro tribunal federal de apelação ao mesmo tempo rejeitou o pedido da Anthropic de reparação sobre a classificação de risco para a cadeia de suprimentos pelo Ministério da Defesa. O tribunal entendeu que, embora a empresa tenha tido perdas financeiras como resultado das ações do Pentágono, não houve entendimento firme o suficiente para ir contra o governo em uma questão de segurança nacional. Logo, a designação de risco para a cadeia de suprimentos permanece e a Anthropic continuará, por enquanto, excluída de novos contratos. Esses dois casos prosseguirão simultaneamente e criarão incerteza legal para as companhias que têm negócios com a Anthropic e o Ministério da Guerra, como a Palantir.
Segundo um analista de inteligência do site Semafor, as raízes do conflito, que começou em janeiro de 2026, se relacionam com a mudança da natureza do conjunto de soluções (“software stack”, em inglês) usado pelo Pentágono.
Como os modelos de IA se tornam cada vez mais poderosos e genéricos, os mesmos modelos que produzem chatbots para consumidores poderiam um dia tomar decisões de vida ou morte no campo de batalha, gerando novas questões éticas e técnicas. Embora, do ponto de vista tecnológico, esta opinião faça sentido, como dizemos no Brasil, “o buraco é mais embaixo”.
Avanço do tecnofascismo nas Big Techs
Se por um lado a maioria das empresas denominadas Big Techs tem apoiado Trump abertamente, por outro o imbróglio com a Anthropic sugere que até mesmo neste setor oligárquico há diferenças não desprezíveis sobre proteção de dados e uso de tecnologias de ponta pelo governo. Por exemplo, o CEO da Palantir, Alex Karp, acaba de lançar o Manifesto da Palantir, baseado no seu livro República Tecnológica, com 22 pontos, onde afirma, entre outras coisas, que:
- Os Estados Unidos devem restabelecer o serviço militar obrigatório.
- As Big Techs têm obrigação moral de apoiar os esforços de defesa da nação, isto é, as guerras eternas patrocinadas pelo império estadunidense.
- As empresas do Vale do Silício gastam muito tempo e se preocupam demais em desenvolver aplicativos, o que as distrai de enfocar questões sociais mais urgentes.
- A elite da engenharia tem que contribuir mais para a defesa da nação.
- O poder militar (hard power) é essencial para a segurança nacional, enquanto a diplomacia e a influência cultural (soft power) são secundárias.
- A neutralização da Alemanha e do Japão pós-Segunda Guerra Mundial foi um equívoco e a Alemanha paga o preço hoje.
Não é à toa que vários analistas do mercado de altas tecnologias e de geopolítica estão chamando o manifesto de Manifesto Tecnofascista, uma vez que as ideias elencadas se alinham bastante bem com o neofascismo trumpista, que por sua vez é a ideologia dos setores mais reacionários do capital financeiro durante a gradual, agora mais rápida, decadência do império estadunidense.
+ Nações Digitais: o projeto das Big Techs para substituir os Estados nacionais
Embora não se saiba tudo o que ocorre por debaixo do pano nos corredores da oligarquia financeira que domina a política externa dos EUA, a posição da Anthropic contrasta mais do que superficialmente com a da Palantir. Para a Palantir, vale tudo quando se trata de defender os interesses da oligarquia das Big Techs, enquanto a Anthropic defende limites para abusos cometidos através dos modelos de linguagem de grande porte, como o bombardeamento de alvos civis no Irã, e demonstra na prática preocupações com os direitos constitucionais dos cidadãos estadunidenses.
Dimitrov talvez tenha visto coisa parecida nos anos 1930 quando definiu o fascismo como “a ditadura terrorista aberta dos elementos mais reacionários, mais chovinistas e mais imperialistas do capital financeiro”, o que implica que poderia haver setores menos reacionários, menos chovinistas e menos imperialistas do capital financeiro. Talvez, a Anthropic seja um exemplo deles, ou quem sabe melhor do que isso, uma empresa com líderes contra o tecnofascismo.
Eduardo Siqueiraé professor na Universidade de Massachusetts, Boston, EUA e pesquisador do Observatório Internacional da FMG.
*Este é um artigo de opinião. A visão do autor não necessariamente expressa a linha editorial da Grabois.