BLOG / SEO

Cerca de 75% dos dados do Search Console são incompletos. Entenda os filtros e limitações da ferramenta

  • Foto de Elyson Gums

    Elyson Gums

  • Data de publicação da notícia.

    Atualizado em 03/03/2026

  • Tempo de leitura da notícia.

    8 min de leitura

Boa parte dos seus dados está invisível no Search Console. Cerca de 50% a 75% das consultas que geram tráfego simplesmente não aparecem. Outras informações, como impressões, também não são as mais precisas.

Segundo uma pesquisa de 2025 da Ahrefs, 46% das consultas que geram cliques não aparecem no Search Console. Em 2026, um estudo de Kevin Indig chegou ao valor de 75% de dados ausentes. 

Essas lacunas já eram conhecidas e não afetam todos os sites. Ainda assim, podem prejudicar a tomada de decisões, principalmente nos domínios maiores. Mas, isso não significa que você deva deixar o GSC de lado!

As limitações nos dados do Search Console

Podemos pensar em três tipos principais de limitações nos dados: as limitações internas, da própria ferramenta, as mudanças no ecossistema do Google, e questões externas, relacionadas ao mercado e que afetam os dados de alguma forma.

A seguir eu explico um pouco melhor cada uma delas:

Limitações internas

São filtros aplicados pelo próprio Google, que limitam os dados disponíveis para os donos de sites. As principais são:

  • Relatórios com no máximo 1000 linhas;
  • Armazena apenas 16 meses de dados;
  • Trabalhar com amostragens em vez de dados totais;
  • Filtros de privacidade, que omitem as consultas anônimas (termos muito raros, que permitem identificar quem está realizando a pesquisa).

As principais pesquisas do mercado apontam as consultas anônimas como as principais (mas não únicas) culpadas. 

Mudanças do Google

Kevin Indig sugere que a evolução do Google tornou o Search Console menos confiável ao longo do tempo. Ele destaca três fatores, todos ocorridos em 2025:

  • Em janeiro, o Google lançou o SearchGuard, sistema para diferenciar acessos de bots e seres humanos;
  • Em março, as AI Overviews ficaram mais frequentes, o que resultou em um aumento de impressões e queda de cliques sem precedentes, de forma generalizada;
  • Em setembro, o Google removeu o parâmetro num=100, usado por ferramentas de terceiros para rastrear a Pesquisa Orgânica. Elas precisaram encontrar alternativas, o que também influenciou o número de impressões.

A visão de Kevin Indig é de que os dados do GSC não representam com fidelidade o comportamento real das pessoas. 

Fatores externos

Boa parte do problema está na IA. A forma de pesquisar e consumir informações mudou muito, o que impõe novos desafios para as ferramentas de analytics. 

Por exemplo:

  • No Search Console, todas as citações aparecem na mesma posição. Mas na prática há uma grande diferença entre ser o primeiro ou último mencionado; 
  • Muitas impressões são de bots, mas é difícil detectar essa origem;
  • Certos recursos do Google não aparecem especificados no Search Console, como as próprias AI Overviews e Modo IA.

As consultas anônimas

Grande parte dos dados que não aparecem estão relacionados às consultas anônimas  (ou anonimizadas). São consultas feitas raramente, que contêm algum dado pessoal do usuário.

O Google define as consultas anônimas assim:

“Algumas consultas (chamadas de consultas anônimas) não são incluídas nos dados do Search Console para proteger a privacidade do usuário que fez a busca.

As consultas anônimas são aquelas que não são feitas por várias dezenas de usuários em um período de dois a três meses. Para proteger a privacidade, essas consultas não são exibidas nos dados de desempenho da Pesquisa. É por isso que elas são chamadas de consultas anônimas. As consultas anônimas reais são sempre omitidas das tabelas, mas são incluídas no total de gráficos, a menos que você filtre por consulta”.

Em outras palavras: a menos que um número significativo de pessoas pesquise um termo, o Search Console não mostra claramente qual é esse termo. 

Na maioria das vezes, são termos de cauda longa. Além de mais específicos, essas expressões frequentemente se alinham à forma que as pessoas conversam com as IAs – usando frases inteiras, em vez de termos gerais. 

A previsão de Patrick Strox, da Ahrefs, é que futuramente haja uma perda ainda maior de informação, do que os 50% calculados por ele. 

As limitações de privacidade do GSC que escondem 75% das consultas

Segundo Kevin Indig, o Google Search Console mascara dados sobre impressões e cliques. Ele analisou 4 milhões de cliques e de 450 milhões de impressões de sites B2B dos Estados Unidos. 

Os dados foram coletados usando dois endpoints de API. Uma delas coletou dados agregados e outros apenas dados de consultas. Ele comparou ambas e observou a diferença em impressões e cliques, para calcular a taxa de filtro. 

Em média, 75% das impressões foram filtradas. O valor varia de 93% a 59%, dependendo de cada site. 

Gráfico de barras horizontais com o título “GOOGLE_FILTERS_75%_OF_GSC_IMPRESSIONS (AVERAGE)” e subtítulo “Last 90 days”. Mostra dez sites (Site 1 a Site 10) e o percentual médio de impressões filtradas no Google Search Console. Os valores variam de 59,3% (Site 4) a 93,6% (Site 1). Uma linha vertical pontilhada em 75% indica a média aproximada. A maioria dos sites está acima de 75%, com destaque para Site 1 (93,6%), Site 6 (86,6%) e Site 2 (80,6%). Fonte: Growth Memo.

Cerca de 38% dos cliques foram filtrados. Ou seja, o Search Console não reportou ⅓ dos cliques dos portais. Novamente, houve grande variação entre cada site analisado. 

Gráfico de barras horizontais com o título “GSC_FILTERS_39.1%_OF_CLICKS_ON_AVERAGE” e subtítulo “Last 90 days”. Mostra dez sites (Site 1 a Site 10) e o percentual médio de cliques filtrados no Google Search Console. Os valores variam de 6,7% (Site 1) a 88,5% (Site 8). Uma linha vertical pontilhada em 39,1% indica a média aproximada. Parte dos sites está abaixo da média, enquanto outros a superam, com destaque para Site 8 (88,5%), Site 3 (52,1%) e Site 10 (50,1%). Fonte: Growth Memo.
Gráfico de barras horizontais com o título “GSC_MASKS_UP_TO_17.4%_OF_CLICKS” e subtítulo “90 days vs. last 12 months”. Mostra dez sites (Site 1 a Site 10) e a variação percentual de cliques ao comparar os últimos 90 dias com os últimos 12 meses. A maioria dos sites apresenta variação negativa, destacada em vermelho, com queda máxima de -17,4% (Site 6), seguida por -13,1% (Site 1) e -10% (Site 9). Dois sites apresentam variação positiva, em verde: Site 3 (5,5%) e Site 2 (4,4%). Uma linha vertical pontilhada indica a referência média aproximada. Fonte: Growth Memo.

Outras discrepâncias de dados

Além dos filtros de privacidade, a IA e os bots também fazem com que os dados do GSC não correspondam totalmente à realidade das pesquisas.

Com base em dados dos últimos 12 meses, Kevin Indig concluiu que:

  • Em março, as impressões aumentaram 58% por causa das AI Overviews;
  • Em julho, houve crescimento de 25,3% em impressões. Em agosto, 54,6% de aumento. Em ambos os meses, a causa foi tráfego gerado por rastreadores; 
  • Em setembro, houve queda de 30,6% nas impressões;
  • Desde o início do experimento, os cliques caíram em mais de 50%, graças aos resumos de IA.
Gráfico de linhas com o título “CLICKS_DECLINED_OVER_50%_SINCE_MARCH_2025” e subtítulo “Total Clicks, Impressions & AI Overviews”.Mostra o desempenho de três métricas ao longo de 13 meses (janeiro de 2025 a janeiro de 2026). A linha de Total Clicks (azul) apresenta uma queda contínua e acentuada após março de 2025, reduzindo-se a menos da metade do seu pico inicial. A linha de Total Impressions (vermelha) exibe um crescimento volátil com um salto massivo entre julho e setembro, seguido de um declínio abrupto. A linha de Total AI Overviews (amarela) permanece em patamares baixos, com uma leve elevação central.Três marcadores verticais pontilhados sinalizam eventos-chave: SearchGuard (jan/25), AIO Surge (mar/25) e num-100 removed (set/25). O gráfico destaca o descompasso entre o aumento de impressões e a perda severa de tráfego direto (cliques). Fonte: Growth Memo
Gráfico de barras agrupadas com o título “SERP_SCRAPERS_MASSIVELY_INFLATED_IMPRESSIONS” e subtítulo “Correlations between clicks, impressions and AI Overviews”.O gráfico apresenta as correlações entre três métricas divididas em três períodos temporais: Before March (Antes de Março), Mar - Sep (Março a Setembro) e After Sep (Após Setembro). As barras representam as relações: AIOs / Clicks (azul), AIOs / Impressions (laranja) e Clicks / Impressions (rosa). No primeiro período, destaca-se uma forte correlação positiva entre cliques e impressões (rosa), que se torna negativa no período intermediário e volta a ser positiva, porém moderada, no período final.A correlação entre AIOs e Impressões (laranja) inverte-se drasticamente, sendo positiva apenas no período de março a setembro. Uma linha horizontal pontilhada indica o ponto zero de correlação. O gráfico ilustra como a relação entre as métricas de busca foi profundamente desestabilizada durante o meio do ano de 2025. Fonte: Growth Memo.

Um número que chama a atenção são as impressões causadas por bots. Nos últimos três meses, aumentaram 25%. 

Gráfico de barras verticais com o título “'BOT_IMPRESSIONS' UP_25% (LAST_180_DAYS)” e subtítulo “Avg values across time periods (Delta: -0.3)”.O gráfico compara valores médios de impressões de robôs em três janelas de tempo decrescentes: Last 180 days (últimos 180 dias), Last 90 days (últimos 90 dias) e Last 30 days (últimos 30 dias). As barras laranjas mostram um crescimento constante na atividade: o valor sobe de 1.2 nos últimos 180 dias para 1.4 nos últimos 90 dias, atingindo o pico de 1.5 nos últimos 30 dias.A tendência ascendente indica um aumento progressivo no volume de impressões geradas por bots à medida que o tempo avança. O eixo vertical varia de 0.0 a 2.0. Fonte: Growth Memo.

Para identificá-las, foram analisadas as consultas que tinham mais de 10 palavras e pelo menos 2 impressões. Segundo Indig, as chances de dois humanos fazerem consultas tão longas em sequência é muito baixa.

Qual a consequência dessa inconsistência?

A ausência de dados não afeta diretamente os seus resultados, mas pode induzir ao erro na tomada de decisões. 

Isto é, se você depender apenas do GSC, pode ter uma visão errada do site. Terá dificuldades em entender quais impressões são verdadeiras, originadas em pesquisas reais, e não terá informações sobre algumas etapas da jornada.

Em sites menores, que estão no início de seus projetos, a situação é menos crítica. Geralmente há bastante espaço para crescimento e nem sempre existe um grande volume de dados a ser exibido. Nesses casos, o Search Console tende a oferecer um panorama mais confiável.

Nos projetos maiores, a coisa muda de figura: há um amplo volume de dados, muitas consultas diferentes levando ao site e uma série de URLs para mapear. 

A solução é o que todos já conhecem – usar outras ferramentas, como o Google Analytics, para ter uma visão detalhada do site e mais clareza para alocar os recursos de SEO. 

Por que os dados do Search Console são diferentes do Analytics?

O Search Console e o Google Analytics avaliam métricas distintas, pois utilizam metodologias e fontes de dados diferentes:

  • O Search Console avalia o que acontece dentro da Pesquisa do Google. Quais consultas geram tráfego, quantas vezes a página é vista e quais são os cliques na SERP;
  • o Analytics faz a mensuração com base no que acontece dentro do seu site. Ali estão os detalhes sobre as sessões e o comportamento das pessoas depois que a página é carregada.

Podemos dizer que o Analytics é mais completo. Ele mostra o tráfego originado em diversas fontes, permite definir eventos de conversão, entre outros detalhes. O Search Console oferece uma visão mais rápida de como o site é visto pelo Google.

Não adianta ter os dados, é preciso saber analisar

Você não deve abandonar o Search Console. Ele traz muitas informações úteis, incluindo erros de indexação e detalhes sobre o rastreamento do site. O problema é se basear apenas nessa ferramenta. 

Isso é arriscado porque:

O mais indicado é ter diversas fontes de dados à disposição – GA4, Search Console, ferramentas de SEO de terceiros, entre outras. Um sistema robusto é a melhor forma de tomar decisões realmente acertadas.

Caso você precise de ajuda para entender o que de fato está acontecendo no seu site, entre em contato conosco. A SEO Happy Hour tem um time de especialistas em SEO que pode te ajudar a monitorar dados, identificar oportunidades e diagnosticar problemas com mais rapidez e segurança. 

  • Elyson Gums

    Elyson Gums

    Elyson Gums é redator na SEO Happy Hour. Trabalha com redação e produção de conteúdo para projetos de SEO e inbound marketing desde 2014, em segmentos B2C e B2B. É bacharel em Jornalismo (Univali/SC) e mestre em Comunicação Social (UFPR).

Comentários

0 Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *