Databricks: adoção de IA empresarial migra para sistemas orientados por agentes
A primeira onda da IA generativa prometeu transformar empresas, mas muitas vezes resultou apenas em chatbots isolados e programas-piloto paralisados. Líderes de tecnologia acabaram equilibrando expectativas elevadas com utilidade operacional limitada. Segundo telemetria recente da Databricks, o mercado parece ter cruzado um ponto de inflexão.
Dados de mais de 20.000 organizações — incluindo 60% da Fortune 500 — apontam para uma rápida transição a arquiteturas “orientadas por agentes”, em que modelos não se limitam a recuperar informação, mas planejam e executam fluxos de trabalho de forma autônoma. Entre junho e outubro de 2025, o uso de fluxos de trabalho multiagente na plataforma da Databricks cresceu 327%, sinalizando que a IA está se tornando um componente central da arquitetura de sistemas.
O papel do “Supervisor Agent”
O crescimento é impulsionado pelo chamado “Supervisor Agent”. Em vez de depender de um único modelo para todas as solicitações, o supervisor atua como orquestrador: ele decompõe consultas complexas e delega tarefas a subagentes especializados ou ferramentas específicas. Desde seu lançamento em julho de 2025, o Supervisor Agent tornou-se o caso de uso predominante, representando 37% do uso em outubro. O padrão se assemelha às estruturas organizacionais humanas: um gerente não executa todas as tarefas, mas garante que a equipe as cumpra. Do mesmo modo, o agente supervisor identifica intenções, realiza checagens de conformidade e, então, direciona o trabalho a ferramentas de domínio.
Empresas de tecnologia lideram a adoção, desenvolvendo quase quatro vezes mais sistemas multiagente do que qualquer outro setor. Ainda assim, a utilidade se estende por diferentes segmentos. Um exemplo citado é uma empresa de serviços financeiros que pode empregar um sistema multiagente para recuperar documentos e cuidar de conformidade regulatória simultaneamente, entregando uma resposta verificada ao cliente sem intervenção humana.
Infraestrutura tradicional sob pressão
À medida que agentes deixam de apenas responder perguntas e passam a executar tarefas, a infraestrutura de dados subjacente enfrenta novas exigências. Bancos de dados OLTP (processamento de transações online), projetados para interações na velocidade humana, transações previsíveis e raras mudanças de esquema, têm suposições invertidas pelos fluxos de trabalho agentivos.
Os agentes de IA agora geram padrões contínuos e de alta frequência de leitura e escrita, frequentemente criando e desmontando ambientes programaticamente para testar código ou executar cenários. Dois anos atrás, agentes de IA criavam apenas 0,1% dos bancos de dados; hoje esse número chegou a 80%. Além disso, 97% dos ambientes de teste e desenvolvimento de banco de dados são agora construídos por agentes de IA. Isso permite que desenvolvedores e “vibe coders” inicializem ambientes efêmeros em segundos, em vez de horas. Desde a prévia pública do Databricks Apps, mais de 50.000 apps de dados e IA foram criados, com crescimento de 250% nos últimos seis meses.
Padrão multi-modelo e mitigação de vendor lock-in
O risco de vendor lock-in continua sendo uma preocupação, e os dados mostram que as organizações estão ativamente mitigando esse risco por meio de estratégias multi-modelo. Em outubro de 2025, 78% das empresas utilizavam duas ou mais famílias de LLMs, como ChatGPT, Claude, Llama e Gemini. A sofisticação dessa abordagem aumentou: a parcela de empresas que usam três ou mais famílias de modelos subiu de 36% para 59% entre agosto e outubro de 2025. Essa diversidade permite direcionar tarefas simples a modelos menores e mais econômicos, reservando modelos de ponta para raciocínios complexos.
O varejo está à frente nessa prática, com 83% das empresas do setor empregando duas ou mais famílias de modelos para equilibrar custo e desempenho. Plataformas unificadas capazes de integrar modelos proprietários e open source tornam-se cada vez mais requisitadas no stack de IA empresarial.
Inferência em tempo real
Ao contrário do legado de big data baseado em processamento em lote, a IA orientada por agentes opera majoritariamente no tempo real. O relatório aponta que 96% de todas as requisições de inferência são processadas em tempo real. Isso é particularmente relevante em setores onde latência se traduz em valor direto: o setor de tecnologia processa 32 requisições em tempo real para cada requisição em lote; em saúde e ciências da vida, a razão é de 13 para 1. Para líderes de TI, isso reforça a necessidade de uma infraestrutura de inferência capaz de suportar picos de tráfego sem degradar a experiência do usuário.
Governança acelera implantações
Um achado possivelmente contra-intuitivo é a relação entre governança e velocidade de implantação. Ferramentas e frameworks de governança, frequentemente vistas como um gargalo, atuam como aceleradores para levar projetos a produção. Organizações que usam ferramentas de governança de IA colocam mais de 12 vezes mais projetos de IA em produção do que aquelas que não usam. Da mesma forma, empresas que empregam ferramentas de avaliação para testar sistematicamente a qualidade dos modelos alcançam quase seis vezes mais implantações em produção.
A explicação é direta: governança estabelece limites e definições — como uso de dados e limites de taxa — dando confiança às partes interessadas para aprovar implantações. Sem esses controles, muitos pilotos ficam presos na fase de prova de conceito devido a riscos de segurança ou conformidade não quantificados.
O valor prático da automação “sem glamour”
Ainda que agentes autônomos evoquem imagens futuristas, o valor atual para empresas provém da automação de tarefas rotineiras, mundanas porém necessárias. Os principais casos de uso variam por setor e se concentram em problemas de negócio específicos:
- Manufatura e automotivo: 35% dos casos de uso focam em manutenção preditiva.
- Saúde e ciências da vida: 23% dos casos envolvem a síntese de literatura médica.
- Varejo e bens de consumo: 14% dos casos dedicam-se à inteligência de mercado.
Além disso, 40% dos principais casos de uso atendem a preocupações práticas do cliente, como suporte, advocacy e onboarding. Essas aplicações geram eficiência mensurável e desenvolvem a maturidade organizacional necessária para fluxos de trabalho agentivos mais avançados.
Perspectiva executiva
Para o C-suite, o caminho adiante exige menos foco no “mágico” da IA e mais na engenharia rigorosa em torno dela. Dael Williamson, EMEA CTO da Databricks, observa que a conversa mudou: “Para empresas em toda a EMEA, a conversa passou da experimentação em IA para a realidade operacional. Agentes de IA já estão executando partes críticas da infraestrutura empresarial, mas as organizações que veem valor real são aquelas que tratam governança e avaliação como fundamentos, não como reflexos tardios.”
Williamson destaca que a vantagem competitiva volta a depender de como as empresas constroem, e não apenas do que compram. “Plataformas abertas e interoperáveis permitem que organizações apliquem IA aos seus próprios dados empresariais, em vez de depender de recursos de IA embutidos que trazem produtividade de curto prazo, mas não diferenciação sustentável.” Em mercados altamente regulados, essa combinação de abertura e controle é o que separa pilotos de vantagem competitiva.
O conjunto de dados da Databricks indica que a adoção de IA empresarial está passando por uma transição: de experimentos isolados para sistemas orientados por agentes que exigem novas arquiteturas, governança robusta e uma abordagem multi-modelo para balancear custo, desempenho e controle.