Claude Mythos: o que a inteligência artificial nos revela sobre os riscos da dissuasão nuclear
O lançamento de modelos avançados de inteligência artificial capazes de identificar vulnerabilidades em sistemas computacionais reacendeu debates sobre a segurança dos arsenais nucleares ao redor do mundo. A discussão ganhou força após o surgimento do Claude Mythos, desenvolvido pela empresa americana Anthropic, que demonstrou capacidades sem precedentes na detecção de falhas de segurança em softwares e sistemas operacionais.
O filme Jogos de Guerra, produção de 1983 que imaginava um adolescente acessando acidentalmente sistemas do Pentágono e iniciando uma simulação interpretada como prelúdio de uma guerra nuclear, causou tamanho impacto no então presidente dos Estados Unidos, Ronald Reagan, que ele questionou seus assessores sobre a possibilidade de uma invasão semelhante aos sistemas mais sensíveis do país. Uma semana depois, veio a resposta preocupante: o problema seria bem pior do que o mandatário imaginava.
Thomas Fraise, pesquisador de pós-doutorado pela Universidade de Copenhague, na Dinamarca, sostiene em artigo publicado no The Conversation que as políticas de armas nucleares são fundamentadas em uma série de apostas sobre o futuro da dissuasão nuclear. Países com arsenal atômico apostam que o medo da retaliação será sempre suficiente para impedir um ataque inicial do adversário e que haverá capacidade técnica e sorte suficientes para evitar explosões acidentais. Também apostam que possuir armas nucleares continuará sendo uma fonte de segurança, e não de insegurança, nas próximas décadas.
De acordo com a análise apresentada, existem cenários plausíveis em que manter arsenais nucleares pode gerar mais custos do que benefícios em um mundo afetado pelo aquecimento global. Manter um arsenal considerado seguro e confiável exigiria escolhas orçamentárias que competiriam com outros gastos urgentes relacionados à crise climática. Além disso, o universo de riscos existenciais que poderiam justificar o uso de armas nucleares estaria se expandindo, como a preocupação de especialistas de que a escassez de água no Paquistão e na Índia possa criar condições favoráveis para um conflito com potencial de escalada nuclear.
O Mythos foi lançado em 7 de abril de 2026 pela Anthropic e não foi disponibilizado comercialmente. Em vez disso, foi oferecido a um grupo restrito composto por cerca de uma dúzia de gigantes da tecnologia dos Estados Unidos, incluindo Google, Microsoft, Apple, Nvidia e Amazon Web Services. Conforme informações divulgadas pela própria empresa, o modelo alcançou uma taxa sem precedentes na identificação de vulnerabilidades em sistemas computacionais, conseguindo detectar falhas zero-day em navegadores, softwares e sistemas operacionais.
Uma vulnerabilidade zero-day é uma falha crítica de segurança para a qual ainda não existe proteção disponível, permitindo ataques sem tempo de reação. Segundo a Anthropic, o Mythos teria desenvolvido métodos para explorar essas vulnerabilidades em tempo recorde, provavelmente em menos de um dia, com taxa de sucesso de 72,4%. Sylvestre Ledru, diretor de engenharia responsável pelo navegador Firefox na Mozilla, afirmou publicamente que o Mythos ajudou a descobrir um número impressionante de vulnerabilidades no software, incluindo uma falha de segurança com quase 27 anos de existência no sistema operacional de código aberto OpenBSD, amplamente utilizado por serviços de cibersegurança.
O Mythos evidencia um fenômeno mais amplo: a possibilidade de que o desenvolvimento da inteligência artificial acelere o aumento de capacidades ofensivas no ciberespaço, não apenas entre Estados, mas também entre atores privados, como cibercriminosos. Ao mesmo tempo, cresce a incerteza sobre a capacidade de agentes defensivos reagirem rapidamente o suficiente para corrigir vulnerabilidades existentes. Mesmo que o Mythos não alcance integralmente o desempenho anunciado, os modelos de linguagem avançados evoluíram rapidamente desde o início da década de 2020, o que indicaria uma aceleração no desenvolvimento de ferramentas ofensivas e na disseminação dessas capacidades para um número maior de atores.
O pesquisador destaca que um arsenal nuclear envolve muito mais do que ogivas armazenadas. O funcionamento normal desses sistemas depende de uma ampla estrutura tecnológica composta por ogivas, mísseis capazes de transportá-las, sistemas de comunicação para transmitir ordens presidenciais e mecanismos de alerta antecipado responsáveis por monitorar sinais de um possível ataque inimigo. Todos esses elementos precisam se comunicar entre si para garantir o controle sobre as armas.
Herbert Lin, pesquisador da Universidade de Stanford e autor de um estudo sobre ameaças cibernéticas e armas nucleares, afirma que a metáfora do botão nuclear simplifica excessivamente a realidade. Depois que o presidente aperta o botão, uma série de ciberbotões também precisa ser acionada para iniciar e administrar operações nucleares. Cada um desses pontos representaria uma oportunidade de interferência por ataques cibernéticos, como impedir que informações críticas cheguem ao destino.
Fraise aponta diferentes cenários possíveis. O presidente poderia não receber informações suficientes para determinar que um ataque está em andamento ou ser incapaz de transmitir ordens de lançamento para forças submarinas. Outro cenário é o pesadelo discutido desde os anos 1950: uma ordem falsa de lançamento ser enviada a operadores de mísseis. Em 2010, um centro de comando estadunidense perdeu comunicação com cerca de 50 mísseis nucleares durante quase uma hora. As consequências não precisariam ser tão extremas: uma ordem poderia chegar com atraso ou não ser transmitida a todas as forças, produzindo uma retaliação mais fraca do que o planejado.
James Gosler, ex-responsável pela segurança de sistemas nucleares estadunidenses no Sandia National Laboratories, afirma que o aumento exponencial da complexidade dos componentes das armas nucleares, a partir dos anos 1980, tornou impossível assegurar que sistemas microcontrolados usados para garantir o funcionamento do mecanismo de detonação fossem totalmente livres de vulnerabilidades. Isso não significa necessariamente que tais vulnerabilidades existam, mas indica que nenhum ator pode afirmar com certeza que elas não existam.
A chegada de modelos avançados de inteligência artificial capazes de detectar vulnerabilidades e projetar ataques cibernéticos em larga escala e de maneira automatizada tornou mais incerta a capacidade dos mecanismos atuais de controle de continuarem cumprindo seu papel. Conforme a análise apresentada, a segurança baseada em armas nucleares implica apostando que as defesas contra ataques cibernéticos serão suficientes. Caso contrário, a aposta recairia sobre a sorte: a expectativa de que vulnerabilidades existentes não sejam descobertas. Assim, a adoção de políticas de segurança fundamentadas em armas nucleares equivaleria, segundo Fraise, a apostar que, no futuro, a sorte continuará sempre do mesmo lado.