Por um ano tivemos a narrativa de que a inteligência artificial estava “revolucionando” a produtividade — escrevendo e-mails, gerando código e resumindo documentos. E se, na prática, o uso real das pessoas for bem diferente do que fomos levados a acreditar?
Um estudo orientado por dados da OpenRouter acaba de revelar como a IA é realmente usada, analisando mais de 100 trilhões de tokens — ou seja, bilhões e bilhões de interações com modelos de linguagem grandes como ChatGPT, Claude e muitos outros. Os resultados rompem várias suposições sobre a chamada revolução da IA.
O que analisaram e por que importa
A OpenRouter é uma plataforma de inferência multmodelo que encaminha requisições para mais de 300 modelos de mais de 60 provedores — desde OpenAI e Anthropic até alternativas open‑source como DeepSeek e a família LLaMA da Meta. Com mais de 50% do uso vindo de fora dos Estados Unidos e milhões de desenvolvedores na base, a plataforma oferece um corte transversal realista de como a IA é aplicada por região, caso de uso e tipo de usuário.
Importante: o estudo examinou metadados de bilhões de interações sem acessar o texto das conversas, preservando a privacidade dos usuários enquanto revela padrões comportamentais.
Open‑source e o papel do roleplay
Modelos open‑source passaram a responder por cerca de um terço do uso total no fim de 2025, com picos após lançamentos relevantes. A descoberta talvez mais surpreendente: mais da metade do uso desses modelos open‑source não se destina à produtividade, mas ao roleplay e à narrativa criativa.
Enquanto executivos de tecnologia vendem a visão da transformação empresarial, muitos usuários gastam a maior parte do tempo em conversas centradas em personagens, ficção interativa e cenários de jogo. Mais de 50% das interações com modelos open‑source se enquadram nessa categoria, superando até mesmo a assistência em programação.
E não é só bate‑papo casual: os dados mostram que os usuários tratam esses modelos como motores de roleplay estruturados. Cerca de 60% dos tokens usados em roleplay estão ligados a cenários de jogos e contextos de escrita criativa — um caso de uso massivo e em grande parte invisível que está redesenhando como empresas de IA pensam seus produtos.
A explosão do uso para programação
Apesar do domínio do roleplay no universo open‑source, a programação tornou‑se a categoria que mais cresceu em todos os modelos de IA. No início de 2025, consultas relacionadas a código representavam 11% do uso total; ao final do ano, esse número saltou para mais de 50%.
Esse crescimento reflete a integração cada vez mais profunda da IA no desenvolvimento de software. O comprimento médio dos prompts para tarefas de programação quadruplicou — de cerca de 1.500 tokens para mais de 6.000 —, com alguns pedidos de código ultrapassando 20.000 tokens, o que equivale a submeter uma base de código inteira para análise. Hoje, consultas de programação produzem algumas das interações mais longas e complexas do ecossistema de IA, com desenvolvedores fazendo debug sofisticado, revisões arquiteturais e resolução de problemas em múltiplas etapas.
Os modelos Claude da Anthropic dominaram esse segmento, respondendo por mais de 60% do uso relacionado a programação durante a maior parte de 2025, embora a concorrência de Google, OpenAI e alternativas open‑source esteja se intensificando.
A ascensão dos modelos chineses
Outra revelação significativa: modelos chineses passaram a representar cerca de 30% do uso global — quase três vezes a participação de 13% registrada no início de 2025. Soluções como DeepSeek, Qwen (da Alibaba) e Moonshot AI ganharam tração rapidamente; só a DeepSeek processou 14,37 trilhões de tokens no período analisado. Isso marca uma mudança na paisagem global da IA, em que empresas ocidentais não detêm mais domínio incontestável.
O chinês simplificado tornou‑se a segunda língua mais comum nas interações de IA globalmente (5% do uso total), atrás apenas do inglês (83%). O gasto de toda a Ásia com IA mais que dobrou, passando de 13% para 31%, e Singapura figurou como o segundo maior país em uso, depois dos Estados Unidos.
A virada para IA “agentic”
O estudo introduz um conceito que promete definir a próxima fase da IA: a inferência agentic. Em vez de responder a perguntas isoladas, os modelos executam tarefas multi‑etapa, acionam ferramentas externas e raciocinam ao longo de conversas estendidas.
As interações classificadas como “otimizadas para raciocínio” saltaram de praticamente zero no início de 2025 para mais de 50% ao final do ano. Isso mostra uma transformação da IA de geradora de texto para agente autônomo capaz de planejar e executar. Em vez de pedir apenas para “escrever uma função”, usuários pedem que a IA “debugue esta base de código, identifique gargalos de desempenho e implemente uma solução” — e o modelo consegue operar nesse nível.
O “Efeito Cristal” na retenção de usuários
Os pesquisadores identificaram um padrão de retenção que chamam de efeito “Cinderella” ou “Glass Slipper”: modelos que são os primeiros a resolver um problema crítico conquistam fidelidade duradoura. Quando um modelo recém‑lançado atende perfeitamente a uma necessidade antes não satisfeita — o “sapato de cristal” metafórico — os usuários iniciais permanecem muito mais tempo do que os adotantes tardios.
Como exemplo, a coorte de junho de 2025 do Gemini 2.5 Pro, do Google, reteve cerca de 40% dos usuários no quinto mês, percentual substancialmente maior que o de coortes posteriores. Isso sugere que ser o primeiro a solucionar um problema de alto valor cria vantagem competitiva duradoura, com usuários incorporando o modelo em seus fluxos de trabalho e tornando a troca onerosa.
Preço importa menos do que se imagina
Contrariando expectativas, o estudo mostra que o uso de IA é relativamente inelástico ao preço: uma queda de 10% no preço resulta em aumento de apenas 0,5–0,7% no uso. Modelos premium de Anthropic e OpenAI mantêm preços entre US$ 2 e US$ 35 por milhão de tokens e continuam com alta utilização, enquanto opções econômicas como DeepSeek e o Gemini Flash do Google atingem escala com preços abaixo de US$ 0,40 por milhão de tokens. As duas abordagens coexistem com sucesso.
Em outras palavras, o mercado de LLMs ainda não se comporta como uma commodity: usuários equilibram custo com qualidade de raciocínio, confiabilidade e amplitude de capacidades. Qualidade e confiabilidade continuam a comandar prêmios — pelo menos por enquanto.
O que isso significa
O levantamento da OpenRouter pinta um quadro de uso real da IA muito mais complexo do que as narrativas dominantes costumam sugerir. A IA está, sim, transformando programação e trabalhos profissionais, mas também está criando novas categorias de interação humano‑computador por meio de roleplay e aplicações criativas. O mercado se diversifica geograficamente, a tecnologia evolui de geração de texto para raciocínio multi‑etapa, e a lealdade do usuário depende menos de ser o primeiro a chegar ao mercado e mais de ser o primeiro a resolver um problema relevante.
Compreender esses padrões reais de uso — e não apenas resultados de benchmark ou claims de marketing — será crucial à medida que a IA se integra cada vez mais ao cotidiano. Este estudo ajuda a reduzir a discrepância entre como imaginamos que a IA é usada e como ela é usada de fato.