Para atender à explosão de demanda por inteligência artificial, o Google traçou uma meta agressiva: dobrar o tamanho total de sua infraestrutura de servidores a cada seis meses. Mantido esse ritmo, a capacidade da empresa poderia ser 1.000 vezes maior em quatro ou cinco anos.
A projeção foi apresentada por Amin Vahdat, chefe de infraestrutura de IA do Google, durante uma reunião geral com funcionários realizada em 6 de novembro, segundo relatos. A controladora Alphabet vive um bom momento financeiro, o que torna esse plano plausível do ponto de vista de investimentos. No fim de outubro, a companhia divulgou resultados fortes do terceiro trimestre e elevou sua previsão de despesas de capital de 91 para 93 bilhões de dólares.
Vahdat respondeu à pergunta de um funcionário sobre o futuro da empresa em meio às conversas sobre uma possível “bolha de IA”, reforçando que o maior risco está em não investir o suficiente. Ele destacou que, especificamente na área de nuvem, o aporte pesado em infraestrutura já mostrou retorno. “O risco de subinvestir é bem alto […] os números da nuvem teriam sido muito melhores se tivéssemos mais capacidade de computação”, afirmou.
O negócio de nuvem do Google segue em expansão, crescendo cerca de 33% ao ano. Essa trajetória gera uma fonte de receita que, segundo Vahdat, deixa a empresa “mais bem posicionada para suportar imprevistos do que outras companhias”.
A companhia aposta que uma infraestrutura mais robusta, apoiada em hardware mais eficiente — como a sétima geração de suas unidades de processamento Tensor (TPU) — e em modelos de linguagem mais otimizados permitirá continuar entregando valor para clientes corporativos que estão acelerando a adoção de tecnologias de IA.
Fora do Google, há quem enxergue a infraestrutura como o ponto crítico da corrida pela IA. Em artigo publicado em setembro, Markus Nispel, da Extreme Networks, argumenta que é justamente a base de TI das empresas que está travando a realização do potencial da inteligência artificial. Para ele, o problema não é a tecnologia de IA em si, mas o peso que essas cargas de trabalho colocam sobre sistemas legados, a falta de recursos de computação em tempo real e na borda, além da fragmentação causada por silos de dados.
“Mesmo quando os projetos de IA saem do papel, muitas vezes são prejudicados por atrasos devido à baixa disponibilidade de dados ou a sistemas fragmentados. Se dados limpos e em tempo real não conseguem fluir livremente pela organização, os modelos de IA não conseguem operar de forma eficiente, e os insights gerados chegam tarde demais ou sem impacto”, afirma.
Segundo Nispel, cerca de 80% dos projetos de IA no mundo enfrentam dificuldades para entregar o que prometem, principalmente por limitações de infraestrutura, e não por falhas na própria tecnologia. A questão central, diz ele, é como as empresas vão reagir a esse cenário.
Essa visão é compartilhada pelos grandes provedores de tecnologia. Google, Microsoft, Amazon e Meta devem, juntos, ultrapassar 380 bilhões de dólares em despesas de capital neste ano, com a maior parte desse montante direcionada para infraestrutura de IA.
A mensagem dos chamados hyperscalers é direta: se a infraestrutura for construída, a demanda virá.
Resolver os desafios de infraestrutura que as organizações enfrentam é visto como peça-chave para o sucesso de projetos baseados em inteligência artificial. Estruturas mais ágeis, posicionadas o mais próximo possível do ponto de computação, e conjuntos de dados unificados são considerados elementos essenciais para extrair o máximo valor da próxima geração de soluções de IA.
Embora seja esperado um certo rearranjo de forças no mercado de IA nos próximos seis meses, empresas como o Google tendem a permanecer em posição de destaque, capazes de consolidar espaço e continuar oferecendo tecnologias transformadoras à medida que a inteligência artificial evolui.