John Mueller reforça: atualizações do Google se baseiam em dados de longo prazo, não em links recentes
Declarações do porta-voz do Google esclarecem que spam de backlinks recentes dificilmente afeta o desempenho durante os Core Updates

Durante uma conversa recente no Bluesky, o defensor da pesquisa do Google, John Mueller, esclareceu um ponto que ainda gera dúvidas entre muitos profissionais de SEO: as atualizações principais (ou core updates) do Google não são influenciadas por ataques recentes de spam de links nem por mudanças pontuais no perfil de backlinks.
A discussão começou quando o consultor Martin McGarry compartilhou dados que sugeriam impacto negativo no tráfego de sites atacados por links de spam. Mas Mueller foi direto: esse tipo de evento, por mais visível que pareça, não deve afetar os rankings durante uma atualização principal.
@methode.bsky.social I don't believe Google has a handle on the current scale of link spam in certain verticals. This is traffic up in a high value keyword and the blue line is spammers attacking it.... as you can see traffic disappears as clear as day www.searchenginejournal.com/google-link-...
— Martin SEO McGarry (@searchassistance.co.uk) 2025-07-01T06:55:23.591Z
As informações foram repercutidas pela Search Engine Journal, que destacou a importância desse posicionamento no contexto do Core Update de junho, tema que já detalhamos na SEO Lab, inclusive com orientações sobre o que muda nesta nova fase do algoritmo.
Atualizações se apoiam em padrões de longo prazo
Mueller deixou claro que as atualizações principais analisam padrões históricos e sinais amplos, e não eventos isolados:
“As atualizações principais geralmente se baseiam em dados de longo prazo, então algo muito recente não teria importância.”, disse.
Leita também: Google começa a exibir receitas em Visões Gerais de IA, mesmo sem a palavra “receita”
Segundo ele, embora existam muitos sinais no sistema do Google que interagem entre si, é improvável que links recém-apontados por spammers consigam alterar o desempenho de um site em meio a uma atualização ampla.
Essa visão de longo prazo tem se tornado cada vez mais importante, especialmente à medida que o Google incorpora elementos de IA na experiência de busca, como mostramos em análises recentes sobre as Visões Gerais de IA e o impacto que elas têm sobre quem aparece no topo da SERP.
Ferramenta de rejeição ainda existe — mas é para poucos casos
Mesmo que o spam de links recentes não pese nos core updates, o debate rapidamente chegou à famosa (e polêmica) ferramenta de rejeição de links. Mueller lembrou que ela continua ativa, e pode ser usada inclusive para bloquear domínios inteiros com a diretiva domain:
, caso o profissional tenha certeza de que aquele TLD não traz valor algum.
Mas o próprio Google reforça há anos: a maioria dos sites não precisa rejeitar links. O sistema é capaz de ignorar backlinks de baixa qualidade por conta própria — algo que se conecta com a discussão mais ampla sobre como o Google vem tratando fontes instáveis nas respostas geradas por IA. Recentemente, analisamos na SEO Lab um estudo que mostrou que o Modo IA do Google troca URLs em 91% das buscas repetidas, o que evidencia que nem mesmo a IA trabalha com critérios fixos ou 100% confiáveis.
A ansiedade do SEO técnico diante do invisível
Mesmo com essas garantias, parte da comunidade ainda pede mais clareza. O especialista Alan Bleiweiss levantou a questão de quanta transparência o Google realmente oferece sobre sua política de ignorar links tóxicos.
A crítica dele é direta: se o Google afirma que já ignora links ruins de forma automatizada, por que não divulgar quantos domínios ou backlinks estão nesse filtro?
Essa cobrança expõe uma tensão recorrente entre o discurso do Google e a prática cotidiana dos profissionais de SEO — especialmente à luz das mudanças recentes na própria lógica de exibição de resultados. Como já mostramos na SEO Lab, as Visões Gerais de IA deixaram de dominar o topo em 12,4% das buscas, sinalizando uma oscilação que nem sempre está relacionada à qualidade do conteúdo ou aos sinais técnicos tradicionais.
O que isso muda para quem analisa performance
No fim das contas, a recomendação é clara: não foque em backlinks recentes quando for analisar os efeitos de um core update.
É mais produtivo observar fatores como:
- Qualidade e profundidade do conteúdo
- Estrutura técnica e experiência do usuário
- Relevância temática ao longo do tempo
- Sinais de autoridade e confiança em todo o domínio
Esse olhar mais amplo ajuda a entender como o Google está reorganizando suas prioridades. Em outras palavras: não basta ranquear — é preciso sustentar autoridade no longo prazo, inclusive nos modelos de IA.
Como apontamos em outra matéria da SEO Lab, o Google tem defendido publicamente que suas respostas com IA geram receita igual à busca tradicional, o que reforça a ideia de que as duas experiências vão coexistir — e influenciar visibilidade — por bastante tempo.