No re:Invent 2025, a AWS deixou clara uma mudança de fase: o ciclo de hype dos chatbots está praticamente encerrado. Em Las Vegas, o discurso dominante foi sobre “frontier AI agents” — agentes de IA que não se limitam a conversar, mas atuam de forma autônoma por dias para executar tarefas complexas e não-determinísticas.
A era do encantamento com geradores de texto e poemas deu lugar a um momento duro de economia de infraestrutura e engenharia operacional. O efeito “uau” perdeu espaço para a conta a pagar: rodar sistemas de grande escala exige um nível de infraestrutura e orquestração muito superior.
Na prática, isso significa atacar o que a conferência chamou de crise do “plumbing”. Até então, montar agentes avançados era um pesadelo de engenharia, com equipes gastando recursos enormes para reunir ferramentas de contexto, memória e segurança. A resposta da AWS para reduzir essa complexidade foi o Amazon Bedrock AgentCore, um serviço gerenciado que funciona como um sistema operacional para agentes, cuidando de gerenciamento de estado e recuperação de contexto. Padronizar essa camada promete ganhos significativos de eficiência.
Casos concretos mostraram o impacto. A MongoDB abandonou sua infraestrutura caseira e, ao adotar o AgentCore, consolidou seu conjunto de ferramentas e levou uma aplicação baseada em agentes à produção em oito semanas — um processo que antes consumia meses de avaliação e manutenção. A PGA TOUR relatou ganhos ainda mais radicais: um sistema de geração de conteúdo que aumentou a velocidade de escrita em 1.000% ao mesmo tempo em que reduziu custos em 95%.
A AWS também apresentou agentes voltados para equipes de software: Kiro (um desenvolvedor virtual), um Security Agent e um DevOps Agent. Kiro vai além do preenchimento de código, conectando-se diretamente a fluxos de trabalho por meio de “powers” — integrações especializadas com ferramentas como Datadog, Figma e Stripe — permitindo ações com contexto, e não apenas palpites sobre sintaxe.
Mas agentes que operam durante dias consomem enormes quantidades de computação. Pagar isso em tarifas on‑demand faz o retorno evaporar. Por isso, os anúncios de hardware na conferência foram agressivos: os novos Trainium3 UltraServers, baseados em chips de 3 nm, prometem um salto de 4,4x em desempenho de computação em relação à geração anterior, o que reduz cronogramas de treino de meses para semanas para quem treina grandes modelos de base.
Onde esse poder de processamento fica também mudou. A soberania de dados continua a travar a adoção de nuvem pública para cargas sensíveis. A AWS respondeu com um modelo híbrido chamado “AI Factories” — basicamente racks com Trainium e GPUs NVIDIA instalados diretamente nos data centers dos clientes — reconhecendo que, para certos dados, a nuvem pública ainda é distante demais.
O desafio do legado é outro tema central. A inovação com agentes impressiona, mas muitos orçamentos de TI são sufocados por dívida técnica: equipes gastam cerca de 30% do tempo apenas mantendo sistemas em funcionamento. Para atacar isso, a AWS atualizou o AWS Transform para empregar IA agentífica na modernização de código legado, incluindo modernização full‑stack em Windows, atualizando apps .NET e bancos SQL Server. A Air Canada, por exemplo, modernizou milhares de funções Lambda em questão de dias — um processo que manualmente teria custado cinco vezes mais e demorado semanas.
O ecossistema de desenvolvimento também se amplia. O Strands Agents SDK, antes limitado ao Python, agora oferece suporte a TypeScript — a linguagem dominante no desenvolvimento web — trazendo verificação de tipos para a saída muitas vezes caótica dos LLMs, uma evolução considerada necessária.
Riscos e governança receberam atenção proporcional à autonomia dos agentes. Um agente capaz de trabalhar “dias sem intervenção” pode igualmente causar danos a um banco de dados ou vazar dados pessoais sem perceber. Para mitigar isso, o AgentCore inclui o recurso AgentCore Policy, que permite definir limites em linguagem natural sobre o que um agente pode ou não fazer. Junto com ‘Evaluations’ — métricas pré‑construídas para monitorar desempenho de agentes — oferece uma malha de segurança essencial.
Na esfera de segurança, o Security Hub foi atualizado para correlacionar sinais de GuardDuty, Inspector e Macie em eventos únicos, evitando a sobrecarga de alertas isolados. O GuardDuty também se expandiu, passando a usar ML para detectar padrões de ameaça complexos em clusters EC2 e ECS.
O recado do re:Invent 2025 é claro: não estamos mais em pilotos. Dos chips especializados às estruturas de governança para agentes frontier, as ferramentas anunciadas são voltadas para produção. A questão para os líderes empresariais deixou de ser “o que a IA pode fazer?” e virou “podemos pagar a infraestrutura necessária para que ela execute seu trabalho?”.