O Google removeu alguns AI Overviews em pesquisas sobre saúde após investigação do The Guardian apontar respostas potencialmente enganosas sobre exames hepáticos, câncer e saúde mental. O caso expõe riscos em YMYL, limitações de contexto clínico nos resumos de IA e pressiona ajustes em conteúdo médico.
Em 2024, o Google passou a exibir os AI Overviews com mais frequência no topo da busca. Em paralelo, começaram a surgir casos em que essas respostas geradas por IA entram em conflito com boas práticas em temas sensíveis, principalmente em saúde.
Uma investigação do The Guardian mostrou exemplos em que os AI Overviews exibiam informações sobre saúde consideradas enganosas ou inadequadas por especialistas. Depois da publicação, o Google removeu os resumos de IA para algumas consultas específicas sobre exames de função hepática.
Para nós que trabalhamos com SEO, produto, conteúdo ou saúde, de forma mais geral, esse caso ajuda a entender três pontos:
- como o Google está lidando com risco em YMYL;
- o papel dos AI Overviews na mediação entre usuário e conteúdo especializado;
- o impacto disso em estratégias de aquisição e autoridade em saúde.
O caso dos exames de função hepática
O The Guardian testou buscas relacionadas a saúde/médicas e enviou os AI Overviews para revisão de:
- instituições de caridade em saúde;
- médicos e especialistas;
- organizações de informação para pacientes.
Um dos focos foi a busca por faixas de referência de exames de fígado, em consultas como:
- “qual é a faixa normal para exames de sangue do fígado”
- “qual é a faixa normal para testes de função hepática”
Nessas buscas, o AI Overview mostrava listas de valores de referência para marcadores hepáticos. O ponto levantado pelos especialistas, além da exatidão numérica, foi a ausência de contexto clínico, como:
- idade;
- sexo;
- etnia;
- variações entre laboratórios;
- necessidade de interpretação por um profissional.
Organizações como o British Liver Trust alertaram para o risco de uma pessoa com doença hepática relevante poder olhar para aqueles números, concluir que está “dentro da faixa” e não retornar ao médico.
Após a publicação, o Google removeu os AI Overviews para essas consultas específicas. Porém, o The Guardian mostrou que pequenas variações, como: “faixa de referência lft” e “intervalo de referência do teste lft” continuavam a acionar resumos de IA com o mesmo tipo de resposta baseada em tabelas genéricas.
Para o British Liver Trust, isso é problemático por dois motivos:
- Testes de função hepática são um painel de exames, não um único número isolado.
- A interpretação depende de contexto clínico, e não apenas da comparação com uma faixa de referência.
Outros exemplos: câncer e saúde mental
A investigação também apontou problemas em outras áreas da saúde em respostas de AI Overviews:
Câncer de pâncreas
A Pancreatic Cancer UK criticou um resumo que sugeria evitar alimentos ricos em gordura. Segundo a instituição, essa orientação não reflete as recomendações para pacientes e pode prejudicar o estado nutricional de quem precisa estar apto a receber tratamento.
Saúde mental
A organização Mind avaliou respostas sobre psicose e transtornos alimentares como inadequadas, com potencial de afastar pessoas de ajuda profissional ou reforçar comportamentos de risco.
Exame de câncer
A Eve Appeal apontou um resumo que incluía o exame de Papanicolau como teste para câncer vaginal, o que é considerado incorreto.
O Patient Information Forum destacou um ponto central: quando o Google coloca um resumo de IA no topo da página, acima dos resultados orgânicos, a probabilidade de o usuário parar ali é alta. Se a informação estiver incompleta ou mal formulada, o risco de impacto negativo na saúde aumenta.
Como o Google respondeu
O Google contestou parte das conclusões do The Guardian. Alguns pontos da resposta:
- A empresa afirmou que muitos exemplos eram baseados em capturas de tela incompletas, que não mostravam o contexto total do AI Overview.
- Segundo o Google:
- a grande maioria dos AI Overviews é factual e útil;
- os resumos direcionam para fontes conhecidas e confiáveis;
- em temas sensíveis, há recomendações para buscar aconselhamento especializado.
Sobre as remoções específicas em exames de função hepática, o Google disse que:
- não comenta remoções individuais na Busca;
- faz melhorias gerais quando identifica problemas de contexto;
- toma medidas quando a IA interpreta mal o conteúdo da web ou omite informações relevantes.
A empresa também afirmou que:
- os AI Overviews só aparecem quando há alta confiança na qualidade da resposta;
- uma equipe interna de médicos revisou os exemplos enviados pelo The Guardian e concluiu que, em muitos casos, as informações não eram imprecisas e eram apoiadas por sites de alta qualidade;
- a precisão dos AI Overviews estaria no mesmo nível de outros recursos da Busca, como featured snippets.
Do ponto de vista do Google, o recado é que o sistema funciona bem na maior parte dos casos e que ajustes são feitos de forma contínua.
O contexto mais amplo: IA generativa, YMYL e SERP para resultados de saúde
Esse caso se soma a outras discussões em torno da IA generativa em saúde.
Histórico recente dos AI Overviews
Logo após o lançamento, o recurso ganhou visibilidade por respostas claramente erradas ou absurdas em temas gerais. O Google reagiu da seguinte forma:
- reduzindo o escopo de consultas que acionam o recurso;
- ajustando filtros e políticas internas.
Em saúde, o problema não se trata, apenas, de respostas “estranhas”, mas de orientações que podem influenciar decisões clínicas ou de autocuidado.
Frequência maior em buscas YMYL
Dados da Ahrefs, em uma análise de 146 milhões de SERPs, mostraram que:
- 44,1% das buscas médicas YMYL acionaram AI Overviews;
- essa taxa é mais que o dobro da média geral do conjunto de dados.
Ou seja: em temas em que o erro tem impacto direto em saúde ou finanças, o Google está mais propenso a exibir um resumo de IA no topo.
Lacunas de fundamentação
Pesquisas independentes, como a estrutura SourceCheckup, avaliaram respostas relacionadas a saúde de sistemas de IA e encontraram um padrão recorrente:
- muitas respostas não são totalmente sustentadas pelas fontes citadas;
- os links nem sempre cobrem, de forma clara, todas as afirmações feitas pela IA.
Isso cria um cenário em que a resposta parece bem embasada (porque mostra fontes), mas não são fidedignas.
Implicações para saúde, produto e SEO
Para quem está do lado de estratégia, alguns pontos práticos se destacam.
1. AI Overview como camada intermediária
O AI Overview funciona como uma camada entre o usuário e os sites:
- ele lê e sintetiza conteúdo de terceiros;
- entrega uma resposta pronta antes de qualquer clique.
Na prática:
- muitos usuários não chegam aos sites de hospitais, clínicas, sociedades médicas ou portais especializados;
- a decisão de confiar ou não na informação é tomada no nível do resumo, não no nível da fonte.
Isso muda a forma como conteúdo médico é consumido e como a autoridade é percebida.
2. Reprodutibilidade limitada
O The Guardian relatou que a mesma consulta pode gerar respostas diferentes em momentos distintos, com fontes variadas.
Isso dificulta:
- reproduzir o que um paciente viu;
- auditar o sistema em casos de dano;
- discutir publicamente o que a IA respondeu com base em um estado estável da SERP.
Isso adiciona uma camada de complexidade na gestão de risco, principalmente para os times de produto, jurídico e compliance em saúde.
3. Comportamento do usuário em saúde
Em saúde, o impacto não é só informacional. É comportamental. Alguns cenários:
- alguém com exame alterado que deixa de procurar o médico porque a IA indicou que está “na faixa normal”;
- uma pessoa com sintomas importantes que posterga atendimento por confiar em uma resposta simplificada;
- usuários em sofrimento psíquico que recebem orientações inadequadas e não buscam ajuda profissional.
Como resumiu Matt Southern, no Search Engine Journal:
“As visões gerais de IA aparecem acima dos resultados classificados. Quando o assunto é saúde, os erros têm mais peso.”
O que isso sinaliza para o futuro da busca em saúde
Do lado do Google, a mensagem é que os AI Overviews fazem parte da Busca como um todo, com monitoramento e ajustes contínuos, e não como um experimento isolado.
Do lado de quem atua em saúde ou marketing e produto voltado para esse nicho, alguns movimentos tendem a ganhar força:
- Tratar AI Overviews como parte do risco YMYL
Não basta olhar para ranking orgânico tradicional. É preciso considerar:
- quando e como o AI Overview aparece;
- se ele está distorcendo ou simplificando demais o conteúdo;
- como isso afeta jornada, aquisição e confiança.
- Reforçar E-E-A-T de forma consistente
Conteúdo médico precisa deixar claros:
- autoria;
- credenciais;
- fontes;
- data de atualização;
- alinhamento com diretrizes clínicas.
- Isso é relevante tanto para o usuário quanto para qualquer sistema que consome esse conteúdo para gerar resumos.
- Rever métricas de sucesso em orgânico
Com uma camada de IA no topo, métricas como CTR, tempo na página e participação do orgânico em conversões podem mudar de comportamento. É importante acompanhar:
- impacto dos AI Overviews em tráfego qualificado;
- mudanças em consultas de marca e de fundo de funil;
- possíveis quedas de visibilidade, mesmo sem perda de posição orgânica.
Por que isso importa para o SEO?
O recuo do Google em AI Overviews para consultas médicas específicas, após a investigação do The Guardian, é um sinal claro de como o buscador está tratando risco, responsabilidade e confiança em temas YMYL — e isso tem implicações diretas para SEO, especialmente em saúde.
Abaixo estão os principais aprendizados estratégicos.
1. AI Overviews não são “neutros”: eles amplificam risco em YMYL
Em saúde, o problema não é apenas imprecisão factual, mas falta de contexto clínico. O caso dos exames hepáticos — criticado por entidades como o British Liver Trust — mostra que respostas aparentemente corretas podem induzir decisões erradas quando apresentadas como síntese final.
Para SEO, isso reforça que:
- Conteúdo médico “correto” não é suficiente; ele precisa ser contextualizável.
- Quanto mais genérica a informação, maior o risco de ela ser mal interpretada por sistemas de IA.
- O Google está disposto a desligar o AI Overview quando o custo do erro é alto.
2. O AI Overview virou a principal camada de mediação
O resumo de IA passa a ser o primeiro ponto de contato do usuário com o tema, antes de qualquer clique. Na prática:
- A autoridade deixa de ser percebida no site e passa a ser delegada ao resumo.
- Mesmo sites confiáveis podem perder controle sobre como seu conteúdo é interpretado.
- SEO em saúde deixa de ser apenas ranking e passa a ser gestão de interpretação algorítmica.
Isso muda o papel do SEO: não basta “ranquear bem”, é preciso influenciar corretamente a síntese.
3. Maior frequência de AI Overviews justamente onde o erro custa mais
Dados da Ahrefs mostram que buscas médicas YMYL acionam AI Overviews com uma frequência muito acima da média. Ou seja:
- quanto maior o impacto potencial do erro, maior a probabilidade do Google inserir uma resposta de IA no topo.
Para projetos de SEO em saúde, isso significa:
- Monitorar apenas posições orgânicas é insuficiente.
- É necessário acompanhar quando, como e para quais consultas o AI Overview aparece.
- Perda de tráfego pode ocorrer sem perda de ranking, apenas pela intermediação da IA.
4. E-E-A-T deixa de ser diretriz e vira mecanismo de defesa
O caso reforça que sinais de Experiência, Expertise, Autoridade e Confiança não são mais apenas critérios de qualidade editorial, mas insumos de segurança para sistemas generativos.
Conteúdos de saúde precisam:
- Explicitar autoria médica e credenciais.
- Delimitar claramente o que não pode ser interpretado sem um profissional.
- Atualizar datas, diretrizes e consensos clínicos.
- Evitar tabelas e listas “autoexplicativas” sem ressalvas contextuais.
Isso aumenta a chance do conteúdo ser usado de forma mais responsável pela IA — ou, no mínimo, reduz o risco de distorção.
5. SEO em saúde agora é também gestão de risco
O ponto mais crítico do caso não é técnico, é estratégico:
quando o Google erra em saúde, o impacto é comportamental, não apenas informacional.
Para marcas, clínicas, hospitais e healthtechs, o SEO passa a envolver:
- Avaliar o impacto dos AI Overviews na jornada do paciente.
- Trabalhar conteúdo pensando em decisão segura, não só em tráfego.
- Integrar SEO, jurídico, compliance e produto em temas sensíveis.
Enquanto o Google ajusta o recurso sob pressão, a questão para empresas de saúde e finanças é: como garantir que a presença orgânica continue gerando decisões seguras e resultados de negócio em um cenário em que a primeira resposta vem de um modelo de IA, e não diretamente do seu site?
É exatamente nesse ponto que a Hedgehog Digital se posiciona como uma referência em SEO e Generative Engine Optimization (GEO) para mercados sensíveis como saúde e finanças. Nossa atuação vai além de rankings tradicionais: ajudamos empresas a entender, antecipar e influenciar como seus conteúdos são interpretados por mecanismos de IA, incluindo AI Overviews, modelos generativos e sistemas de resposta.
Com metodologias próprias focadas em Entity SEO, Topical Authority, Information Gain e E-E-A-T, trabalhamos para que a presença orgânica continue gerando decisões seguras, confiança e resultados de negócio, mesmo em um cenário em que a visibilidade é mediada por IA — e não mais apenas pelo CTR (taxa de cliques ao site).


