A busca por eficiência de custos em IA e a proteção da soberania dos dados estão em conflito, forçando organizações globais a reverem seus frameworks de risco.

Por mais de um ano, a narrativa sobre IA generativa esteve centrada na corrida por capacidade, muitas vezes mensurada por contagem de parâmetros e benchmarks falhos. Agora, as conversas em conselhos e comitês executivos passam por uma correção necessária.

A tentação de modelos de baixo custo e alto desempenho promete inovação rápida, mas responsabilidades ocultas relacionadas à residência de dados e à influência estatal obrigam uma reavaliação na escolha de fornecedores. O laboratório chinês DeepSeek tornou-se recentemente um ponto focal desse debate na indústria.

PUBLICIDADE

Bill Conner — ex‑conselheiro da Interpol e do GCHQ e atual CEO da Jitterbit — diz que a recepção inicial à DeepSeek foi positiva por desafiar o status quo ao demonstrar que “modelos de linguagem de grande porte de alto desempenho não necessariamente exigem orçamentos do porte do Vale do Silício.” Para empresas que tentam reduzir os custos imensos associados a pilotos de IA generativa, essa eficiência era compreensivelmente atraente. Conner observa que “os custos de treinamento relatados indiscutivelmente reacenderam as conversas do setor sobre eficiência, otimização e IA ‘bom o suficiente’.”

Mas o entusiasmo por desempenho barato colidiu com realidades geopolíticas. Eficiência operacional não pode ser dissociada da segurança dos dados, especialmente quando esses dados alimentam modelos hospedados em jurisdições com marcos legais diferentes sobre privacidade e acesso estatal. Divulgações recentes acerca da DeepSeek mudaram a equação para empresas ocidentais. Conner destaca “divulgações recentes do governo dos EUA indicando que a DeepSeek não está apenas armazenando dados na China, mas compartilhando-os ativamente com serviços de inteligência do Estado.”

Essa revelação eleva o perfil de risco além das preocupações rotineiras de GDPR ou CCPA, entrando no campo da segurança nacional. Para líderes empresariais, o perigo é concreto: a integração de LLM raramente é um evento isolado — envolve conectar o modelo a data lakes proprietários, sistemas de informação de clientes e repositórios de propriedade intelectual. Se o modelo subjacente tiver uma “porta dos fundos” ou obrigar o compartilhamento de dados com um aparato de inteligência estrangeiro, a soberania é eliminada e a empresa, na prática, perde a proteção do seu perímetro de segurança, anulando qualquer benefício de eficiência de custos.

Conner alerta que “o envolvimento da DeepSeek com redes de aquisição militar e alegadas táticas de evasão de controles de exportação deve servir como um sinal de alerta crítico para CEOs, CIOs e responsáveis por risco.” Usar tecnologia com esse tipo de vínculo pode, inadvertidamente, expor uma empresa a violações de sanções ou comprometer a cadeia de suprimentos.

O sucesso hoje não se resume apenas a gerar código ou resumos de documentos; passa pelo arcabouço jurídico e ético do provedor. Em setores como finanças, saúde e defesa, a tolerância à ambiguidade sobre a linhagem dos dados é zero. Equipes técnicas podem priorizar benchmarks de desempenho e facilidade de integração na fase de prova de conceito, deixando de lado a proveniência geopolítica da ferramenta e a necessidade de soberania dos dados. Por isso, responsáveis por risco e CIOs precisam aplicar uma camada de governança que questione o “quem” e o “onde” do modelo, não apenas o “o quê”.

Decidir adotar ou vetar um modelo de IA é uma questão de responsabilidade corporativa. Acionistas e clientes esperam que seus dados permaneçam seguros e sejam usados apenas para finalidades previstas. Como coloca Conner, “para CEOs, CIOs e responsáveis por risco ocidentais, isso não é uma questão de desempenho do modelo ou eficiência de custo. É uma questão de governança, responsabilização e dever fiduciário.”

Empresas “não podem justificar a integração de um sistema em que a residência dos dados, a intenção de uso e a influência estatal são fundamentalmente opacas.” Essa opacidade cria um passivo inaceitável. Mesmo que um modelo entregue 95% do desempenho de um concorrente a metade do custo, o potencial de multas regulatórias, danos reputacionais e perda de propriedade intelectual acaba por anular essas economias.

O caso DeepSeek funciona como um alerta para auditar as atuais cadeias de suprimentos de IA. Os líderes devem garantir total visibilidade sobre onde a inferência do modelo ocorre e quem detém as chaves dos dados subjacentes. À medida que o mercado de IA generativa amadurece, confiança, transparência e soberania dos dados tendem a superar o apelo da pura eficiência de custos.