# Anthropic retoma negociações com Pentágono sobre uso militar do Claude em meio a impasse sobre salvaguardas de IA

A startup de inteligência artificial Anthropic voltou a negociar com o Departamento de Defesa dos Estados Unidos nesta quinta-feira, numa tentativa de resolver o impasse que ameaça um contrato de centenas de milhões de dólares e pode definir o futuro da colaboração entre o Vale do Silício e as forças armadas americanas. As conversas ocorrem apenas uma semana após o colapso das negociações anteriores, quando o governo americano chegou a ameaçar designar a empresa como um "risco à cadeia de suprimentos", medida que proibiria agências federais de utilizarem suas ferramentas.

O retorno ao diálogo foi impulsado por uma pressão intensa de grandes investidores da Anthropic, incluindo Amazon e Nvidia, que manifestaram preocupação através de uma carta enviada ao governo. As empresas temen que uma possível punição à startup prejudique todo o ecossistema de tecnologia dos Estados Unidos e beneficie concorrentes internacionais, principalmente chineses. O CEO da Anthropic, Dario Amodei, passou a conversar diretamente com Emil Michael, alto funcionário do Pentágono responsável por pesquisas e engenharia, numa tentativa de encontrar um meio-termo que satisfaça tanto as necessidades de defesa do país quanto os princípios éticos da empresa.

PUBLICIDADE

A divergência central entre as partes envolve as salvaguardas de segurança que a Anthropic impõe ao uso de sua tecnologia. A empresa resiste veementemente à utilização de seus modelos de linguagem para vigilância em massa ou para a operação de armas autônomas letais, posições que foram construídas ao longo de anos de desenvolvimento responsável de IA. Enquanto isso, o Departamento de Defesa busca autorização irrestrita para aplicar as ferramentas em uma ampla gama de operações militares, argumentando que limitações excessivas comprometem a capacidade de defesa nacional.

A OpenAI, principal concorrente da Anthropic, já possui acordos firmados para o uso de seus modelos em redes confidenciais, sistemas protegidos por sigilo de segurança nacional. No entanto, a Anthropic busca garantias contratuais mais robustas, especificamente a inclusão de cláusulas que impeçam a análise indiscriminada de grandes volumes de dados coletados de forma massiva. Essa posição começou a se delinear em dezembro do ano passado, quando a empresa concordou em permitir o uso do Claude apenas para aplicações específicas de defesa antimíssil e defesa cibernética, mas rejeitou expandir para outras áreas que considera problemáticas.

O Departamento de Defesa awarding à Anthropic um contrato de até 200 milhões de dólares em julho do ano passado, com o objetivo de "prototipar capacidades de IA de ponta que avançem a segurança nacional dos Estados Unidos". Na época, foi um marco significativo para a startup, que havia lançado meses antes o Claude Gov, uma versão dedicada exclusivamente para fluxos de trabalho governamentais e de segurança nacional. O contrato representava não apenas uma vitória comercial, mas também uma validação de que a empresa conseguia atender aos rigorosos requisitos de segurança do setor de defesa.

A empresa enfrenta agora um dilema estratégico que pode definir sua trajetória no mercado. Com expectativas de faturamento de 20 bilhões de dólares por ano, o governo representa um cliente estratégico cujo acesso não pode ser ignorado. Se fosse efetivamente excluída desse mercado, a Anthropic perderia espaço para concorrentes que possuem menos travas de segurança em seus sistemas de IA, algo que poderia comprometer sua posição competitiva no longo prazo. Além disso, a empresa possui planos de abertura de capital previstos para 2026, e um litígio com o governo federal poderia afetar negativamente a percepção dos investidores.

Oficiais do Pentágono têm criticado a startup por meses, afirmando que a preocupação exagerada com a segurança da IA atrapalha o desenvolvimento de ferramentas essenciais para a defesa do país. A posição da Anthropic, segundo esses oficiais, representaria uma espécie de barreira burocrática que limita a capacidade operacional das forças armadas em um momento de crescente tensão geopolítica global. O argumento governamental é que, desde que a tecnologia esteja em conformidade com as leis estadounidenses, não deveria haver limitações adicionais impostas pelo fornecedor.

O desfecho dessa negociação terá implicações que transcendem o contrato específico entre as duas partes. O resultado definirá como as empresas de tecnologia do Vale do Silício e os militares americanos trabalharão juntos no futuro, estabelecendo precedentes sobre até que ponto os desenvolvedores de IA podem imponer condições éticas aos seus clientes governamentais. Um novo acordo permitiria que o exército voltasse a usar o sistema Claude e demonstraria se o governo aceita as regras de controle ético propostas pelos desenvolvedores ou se optará por fornecedores mais flexíveis.

A questãotoucha em um debate mais amplo sobre os limites da aplicação de sistemas de inteligência artificial em contextos militares e de segurança. Especialistas em ética da IA têm alertado para os riscos de sistemas autônomos capazes de tomar decisões letais sem supervisão humana, enquanto argumentam que ferramentas de vigilância em massa representam ameaças às liberdades civis. Por outro lado, defensores do uso militar argumentam que a IA oferece vantagens estratégicas significativas e que atrasar sua adoção pode colocar os Estados Unidos em desvantagem frente a adversários que não impõem tais restrições a si mesmos.

RESUMO: A Anthropic retoma negociações com o Pentágono sobre uso militar do Claude após colapso de conversas na semana passada. A empresa busca garantias contratuais contra vigilância em massa e armas autônomas, enquanto o governo quer acesso irrestrito. Investidores como Amazon e Nvidia pressionam por acordo que pode definir o futuro da colaboração entre tecnologia e defesa.