O Google anunciou a remoção de resumos gerados por inteligência artificial (IA) em resultados de busca sobre saúde após uma investigação apontar que a ferramenta vinha oferecendo orientações incorretas e potencialmente perigosas. A medida atinge especialmente buscas relacionadas a exames laboratoriais, nas quais a IA falhava ao desconsiderar variáveis essenciais para a interpretação médica.

A apuração do jornal The Guardian mostrou que, ao explicar resultados de exames de sangue, a IA deixava de levar em conta fatores como idade, sexo e etnia. Sem esse contexto, valores que pareciam normais na tela poderiam ocultar doenças hepáticas graves em determinados perfis de pacientes, criando uma falsa sensação de segurança. Em casos mais extremos, a ferramenta chegou a recomendar a pacientes com câncer de pâncreas que evitassem alimentos gordurosos — orientação contrária ao protocolo médico padrão, que pode comprometer a ingestão calórica necessária e prejudicar a capacidade do paciente de enfrentar quimioterapia ou cirurgias.

Outras falhas apontadas incluíram a indicação do exame de Papanicolau para detectar câncer vaginal, associação tecnicamente equivocada que pode atrasar o diagnóstico correto. Orientações sobre saúde mental, como psicose e distúrbios alimentares, também foram classificadas por especialistas como prejudiciais por reforçarem estigmas e oferecerem conselhos perigosos.

PUBLICIDADE

O Google afirma que a maioria dos resumos continua sendo útil e que adota medidas corretivas quando a IA perde o contexto ou interpreta mal o conteúdo da web. Entretanto, entidades de saúde criticam a abordagem de retirar apenas termos específicos, argumentando que isso trata o problema como pontual em vez de enfrentar uma falha sistêmica no uso de IA para temas médicos. Segundo a investigação, variações de termos técnicos ainda podem acionar resumos automáticos em algumas buscas.

No mesmo momento em que o Google enfrenta essas questões de precisão na busca aberta, outras empresas apostam em abordagens diferentes para reduzir “alucinações” e aumentar confiabilidade. A Anthropic lançou o Claude for Healthcare, voltado para uso especializado por médicos e pesquisadores. A plataforma, baseada no modelo Opus 4.5, conecta-se a bases oficiais como o banco de dados do Medicare e ao sistema CID-10, cruzando diretrizes clínicas com o histórico do paciente para agilizar processos burocráticos e identificar falhas em testes clínicos e documentos regulatórios.

A OpenAI, por sua vez, apresentou o ChatGPT Health, concebido como um hub para o usuário gerenciar seu histórico de bem-estar de forma privada. Para reforçar a segurança, a empresa afirma ter usado o HealthBench, uma estrutura de avaliação desenvolvida com apoio de mais de 260 médicos especialistas. A proposta inclui integração de dados reais de dispositivos vestíveis, como o Apple Watch, para oferecer informações contextualizadas sobre sono e atividade física. Essas soluções são apresentadas como auxiliares de triagem, com o aviso de que não substituem diagnóstico médico profissional.

A mudança observada em 2026 indica uma transição das recomendações baseadas em buscas genéricas para sistemas de IA integrados a dados técnicos e exames, operando sob protocolos mais rígidos. O desafio agora é demonstrar que essas plataformas conseguem manter a confiança de pacientes e instituições de saúde por meio de precisão e segurança consistentes.