A taxa de rejeição de um site influencia a classificação do Google?


93

O Google considera a taxa de rejeição ou algo semelhante nos sites de classificação?

Histórico: aqui no Stack Exchange, observamos que as alterações mais recentes do algoritmo do Google resultaram em uma queda de cerca de 20% no tráfego para a falha do servidor (e uma queda muito menor no tráfego para o superusuário ). O tráfego de estouro de pilha não foi afetado.

Havia um artigo no WebProNews que sugeria que a taxa de rejeição poderia ser um sinal de classificação na última atualização do Google no Panda.

De acordo com o Google Analytics, estas são as nossas taxas de rejeição no último mês:

Site           Bounce Rate Avg Time on Site
-------------  ----------- ----------------
SuperUser      84.67%      01:16
ServerFault    83.76%      00:53
Stack Overflow 63.63%      04:12

Agora, tecnicamente, o Google não tem como saber a taxa de rejeição. Se você for ao Google, procurar algo e clicar no primeiro resultado, o Google não saberá a diferença entre:

  • um usuário que desliga o computador
  • um usuário que acessa um site completamente diferente
  • um usuário que passa horas clicando no site em que acessou

O que o Google faz saber é quanto tempo leva o usuário a voltar ao Google e fazer outra pesquisa. De acordo com o livro In The Plex (página 47), o Google distingue entre o que eles chamam de "cliques curtos" e "cliques longos":

  • Um clique curto é uma pesquisa em que o usuário volta rapidamente ao Google e faz outra pesquisa. O Google interpreta isso como um sinal de que os primeiros resultados da pesquisa foram insatisfatórios.
  • Um clique longo é uma pesquisa em que o usuário não pesquisa novamente por um longo tempo.

O livro diz que o Google usa essas informações internamente, para julgar a qualidade de seus próprios algoritmos. Ele também disse que dados de cliques curtos nos quais alguém redigita uma pequena variação da pesquisa são usados ​​para alimentar o "Você quis dizer ...?" algoritmo de verificação ortográfica.

Portanto, minha hipótese é que o Google decidiu recentemente usar taxas de cliques longos como sinal de um site de alta qualidade. Alguém tem alguma evidência disso? Você já viu sites de alta taxa de rejeição que perderam tráfego (ou vice-versa)?


22
O Google não usa os dados do Google Analytics de forma alguma nas classificações. -Matt Cutts, news.ycombinator.com/item?id=2168070
Dragão de prata


6
Todas as principais métricas do site são afetadas quando o Google nos envia menos tráfego. Se o Google nos enviar menos tráfego, obteremos menos perguntas e respostas. Até recebemos menos tráfego "direto", proporcionalmente, o que é super estranho, mas aí está.
Joel Spolsky

1
@ Joel: o fato de você ter menos tráfego direto quando menos tráfego do Google pode estar relacionado ao uso de ferramentas de anonimizador, ferramentas de supressão de referenciador, proxies, agregadores de pesquisa, etc. que apresentariam solicitações HTTP sem referência à pesquisa do Google?
Ogerard 18/05

2
Tecnicamente, Joel, se os visitantes do Google deixarem o site instantaneamente, qual o valor da rede? Eles apenas inclinam nossas visualizações de página para cima, sem realmente representar nossa 'base real de usuários'. Mais importante ainda, outras métricas também foram afetadas? Especificamente as partes upvote como ausente, em questões não-upvoted não é algo que realmente 'miss'
Ivo Flipse

Respostas:


54

É muito provável que o Google possa estimar sua taxa de rejeição, se você levar em conta um novo recurso que detecta quando o usuário está clicando no botão voltar:

  1. Pesquisar no Google:

    insira a descrição da imagem aqui

  2. Clique no resultado de uma pesquisa.

  3. Clique de volta.

  4. O Google está mostrando uma nova opção, "Bloquear todos os resultados [do site]":

insira a descrição da imagem aqui

Obviamente, isso é uma suposição, mas cliques rápidos podem ser bons indicadores de resultados irrelevantes e têm forte correlação com a taxa de rejeição. Observe que isso falha quando o usuário está abrindo os resultados da pesquisa em uma nova guia; portanto, pode ser direcionado aos usuários menos experientes.

Observe a diferença entre "fazer outra pesquisa", que o Google deve levar pessoalmente, pois exibia resultados irrelevantes, e "retornar à mesma pesquisa", o que significa que esse site específico não era adequado para essa pesquisa.

insira a descrição da imagem aqui


Este exemplo poderia já estar (parte de) a explicação por si só (usuários inativos e clicando em 'Bloquear todos os resultados stackoverflow.com')
Jochem

@Jochem - Pode, mas duvido que a maioria dos usuários até o veja. É muito mais provável que o Google esteja coletando e usando esses dados para classificar resultados do que o ServerFault é repentinamente odiado pelo pesquisador :). Mais uma vez, eu não poderia encontrar qualquer referência a isso ...
Kobi

1
Só queria salientar que "Clique em Voltar" é uma grande coisa no momento. Muitos blogs de SEO estão chamando de "Classificação de satisfação". ou seja, se muitos usuários clicam em voltar instantaneamente depois de visitar seu site, o Google pode deixar você um pouco de lado.
Wexford

30

Que eu saiba, a equipe de classificação não usa a taxa de rejeição de forma alguma.
  - Matt Cutts, junho de 2010, entrevista com o Search Engine Land

Tenho um problema com o conceito de cliques longos / curtos sendo usados ​​em seu algoritmo de classificação. Existem muitos cenários em que cliques curtos e longos ocorrem o oposto do que seria a lógica padrão.

Por exemplo, cliques curtos podem ocorrer porque:

  • Um usuário está abrindo muitas guias ao mesmo tempo, digamos todos os dez links na primeira página de resultados de pesquisa, para pesquisas de algum tipo. (Se essa pesquisa é SEO ou acadêmica é irrelevante). Todos aparecerão como cliques breves.

  • Alguém está procurando um site específico e está pulando nos resultados até encontrar o que deseja. O tomo deles em cada site é curto, não porque o site tenha sido mal executado, apenas não é o site específico que o usuário está procurando.

  • Isso é muito fácil de manipular. Se isso realmente era um fator potencial de classificação, não é difícil imaginar chapéus pretos clicando rapidamente em seus concorrentes para servir a seus próprios fins. (Naturalmente, isso seria automatizado para produzir a quantidade necessária para estimular o Google a entrar em ação).

Cliques longos podem ocorrer porque:

  • Um usuário não tem idéia do que está procurando e passa uma eternidade em cada site procurando, mas nunca o encontra (por exemplo, esse site é irrelevante).

  • Um usuário se afasta do computador ou é rastreado por qualquer motivo

  • Abuso (veja acima)

  • Um usuário não tem acesso à Internet e leva um longo tempo em cada site porque tem dificuldade em usar a Internet.

A melhor maneira de imaginar essas informações sendo usadas é na pesquisa personalizada. Se alguém clica brevemente em um site em particular, provavelmente garante a redução nos resultados de pesquisa pessoal.

Quanto à evidência anedótica, tenho algumas dezenas de sites clientes que monitorei e a taxa de rejeição não parece se correlacionar com as classificações.

Quanto ao Google usar o Google Analytics em seu algoritmo de busca, a resposta de Matt Cuitts é não .


17
Há muitas razões pelas quais os dados não são perfeitos, mas isso não significa que não sejam estatisticamente válidos.
Joel Spolsky

1
Eu preferiria que você colocasse o bit "adicionalmente" - por exemplo, a resposta no topo antes de ler sobre a discussão de cliques curtos / longos ... se houvesse mais alguém, eu iria mergulhar e editar :)
Mike Hudson

2
Você dá muito pouco crédito ao Google. Você realmente acha que eles usariam cegamente dados como esse, mesmo sem considerar todas as situações ou possíveis abusos? Por exemplo, (1) eles podem facilmente detectar se um usuário abre vários resultados de uma página - muitas páginas seriam abertas em um espaço de tempo muito curto e o usuário não está 'retornando' à SERP entre cada uma. (2) Duvido muito que isso ocorra com frequência suficiente para fazer uma diferença estatística. (3) O Google é muito bom em detectar coisas automatizadas como essa.
DisgruntledGoat

2
Eu acho que você pode dar muito crédito ao Google. Afinal, uma empresa que basicamente spams seu índice foi aberta .
John Conde

Agora, essa citação está um pouco antiga - talvez a política deles tenha mudado.
UpTheCreek 12/10

14

Por Matt Cutts

Sem ler o artigo [tentando confirmar uma conexão entre a classificação e as taxas de rejeição], direi apenas que as taxas de rejeição seriam não apenas spam ou barulhentas . Uma pessoa do setor de pesquisa recentemente me enviou algumas perguntas sobre como a taxa de rejeição é feita no Google e eu fiquei tipo "Cara, eu não tenho idéia de coisas como a taxa de rejeição. Por que você não fala com esse bom evangelista do Google Analytics que conhece sobre coisas como taxa de rejeição? " Eu simplesmente nem encontro pessoas falando sobre isso no meu dia-a-dia.

Concedido isso em dezembro de 2008, mas Matt Cutts dizendo que a taxa de rejeição não é usada nem um pouco é bastante definitiva no meu livro, mesmo três anos depois.


7
O ponto principal deste post é que o algoritmo mudou, então não vejo como um post de três anos de Matt Cutts no qual ele "não leu o artigo" é "definitivo" no mínimo.
Joel Spolsky

@joel parece improvável para mim que eles tenham uma mudança radical no coração em relação à taxa de rejeição, passando de "não se importam" para "de importância crítica". Eu acho que é mais provável que estamos vendo alguns declínios sazonais no verão .. quando as pessoas saem e usam menos computadores.
Jeff Atwood 17/05

@joel também por news.ycombinator.com/item?id=2168070, que tem 104 dias (no momento em que este artigo foi escrito) "O Google não usa os dados do Google Analytics de forma alguma em nossas classificações." Como a taxa de rejeição é da análise, isso significa que, por definição, ela não é usada. O que é parte de todo o meu argumento aqui, que essa é uma medida de análise ímpar que não tem nenhuma influência real na pesquisa da perspectiva do Google.
21811 Jeff Atwood

4
Na verdade, não acho que eles estejam usando a taxa de rejeição do Analytics; Eu acho que eles estão usando uma taxa curta de cliques na página de pesquisa. Eu acredito que eles tiveram uma "mudança radical de opinião" sobre como se livrar de sites de baixa qualidade e devem ter usado ALGUNS sinais para determinar isso. Quanto aos declínios sazonais, não há como afetar sozinho a falha do servidor. Se alguma coisa Stack Overflow é o site "lição de casa".
Joel Spolsky

@joel Acho que você está esquecendo que a SU tem uma idade média de usuário menor de 18 anos. Ele distorce o mais jovem de nossa rede de longe. Concordo que o SF provavelmente foi afetado pela atualização do Panda desde que o ee também reclamou, então esse é um tópico específico. goo.gl/ojdJY e goo.gl/Pw39l
Jeff Atwood

11

Acho que o problema do uso da taxa de rejeição no ranking é que ela não leva em conta o fato de que rejeições nem sempre são uma coisa ruim. Essa métrica precisa ser tomada em contexto, porque existem alguns sites nos quais você pode realmente aumentar sua taxa de rejeição!

De fato, como exemplo, seus sites podem ser esse tipo de site (pelo menos da perspectiva do Google de fornecer resultados relevantes para seus usuários). Tome SO como exemplo - se estou procurando a resposta para uma pergunta de programação, não quero gastar um tempo considerável clicando em busca de uma resposta. Quero uma resposta o mais rápido possível, para poder voltar ao meu trabalho. Eu esperaria que o Google retornasse uma lista de sites que respondem à minha pergunta, e não aqueles que irão diminuir meu tempo.

Acho que a métrica da taxa de rejeição não fornece informações suficientes por si só para ser útil em um algoritmo de classificação de mecanismos de pesquisa. Se o Google o estiver usando para mais do que análises internas (onde os humanos podem adivinhar a intenção do usuário), eles estão cometendo um erro.

Como observação, voltando ao exemplo de uma pesquisa por uma resposta a uma pergunta de programação, você já achou que a resposta à pergunta está realmente nos resultados da pesquisa e não precisa clicar em um site em tudo?


+1. É por isso que não acho que a taxa de rejeição seja um fator de classificação ou, pelo menos, não seja geral. Isso penalizaria os sites nos quais você clicaria e obteria a resposta imediatamente, o que é exatamente o oposto do que os mecanismos de pesquisa gostariam de fazer.
Tim Fountain

7

Eu gerencio um site que gera cerca de 30 mil visualizações de página por dia. Perdeu 1/3 do seu tráfego por volta de 11 de abril (lançamento internacional do panda). Todo o domínio perdeu tráfego em geral. A taxa média geral de rejeição gira em torno de 65% (o pré-panda foi de 71%). As páginas mais atingidas têm taxas de rejeição acima de 75%. É uma teoria interessante.

Para a taxa de rejeição do crédito do Google (espero que não seja apenas uma coincidência), o tempo médio no site e as páginas por visita melhoraram após a alteração.

Nota: Os outros sites que eu gerencio não foram afetados pela alteração do algoritmo. Suas taxas de rejeição médias variam de 52% a 68%. Não analisei páginas individuais nesses sites, pois elas não foram afetadas


7

O Google quase certamente está usando sinais de usabilidade como um fator significativo nos rankings. O Google provavelmente não usa "taxa de rejeição", pelo menos não como medido pelo Google Analytics. Em vez disso, o Google conta com:

  • CTR ( taxa de cliques) - O número de pessoas que clicam dos SERPs em um site é uma boa indicação de se o site é relevante para a consulta ou não. Quando um site obtém uma CTR pior do que deveria para a posição em que está, sua classificação fica pior. Quando um site obtém uma CTR mais alta do que outros sites nessa posição, a classificação fica melhor.
  • Taxa de rejeição (BBR) - O número de pessoas que clicam no botão voltar do site de volta às SERPs e ocultam o site dos resultados, clique em outro site ou refine a consulta. Como a CTR, é provável que o Google faça ajustes quando o BBR for muito melhor ou muito pior do que o esperado.

A taxa de rejeição geralmente pode ser usada como proxy para medir sua BBR, mas existem algumas limitações:

  • A taxa de rejeição é medida como a porcentagem de sessões únicas de exibição de página. A taxa de retorno é o número que pressiona o botão Voltar.
  • A taxa de rejeição inclui pessoas que clicam em links externos no seu site (incluindo anúncios), mas a taxa de rejeição não.
  • A taxa de rejeição inclui pessoas que fecham a guia ou a janela do navegador; a taxa de rejeição não.
  • Alguns sites fornecem a resposta completa que os usuários buscam em uma única página. Esses sites podem ter altas taxas de rejeição, mas baixas taxas de rejeição.
  • A taxa de rejeição pode ser dividida dividindo artigos em várias páginas. Essa tática machuca a taxa de retorno.

Além disso, como outras respostas apontaram, Matt Cutts, do Google, afirmou que a taxa de rejeição não é usada para seu conhecimento como parte do algoritmo de classificação. Ele não disse nada sobre a taxa de recuperação (que é sutilmente diferente).

Estou convencido de que o Google usa esses sinais com base na minha experiência em um site no qual eu estava fazendo o SEO. Era um tipo de site de produto. Percebemos que simplesmente não conseguimos classificar alguns produtos para suas palavras-chave segmentadas, apesar de despejar grandes quantidades de pagerank interno nelas. Um padrão que surgiu foi que os produtos que não estavam classificados tinham menos conteúdo do que os que estavam classificados. Conteúdo nem sempre significava muito texto, tínhamos vários tipos de conteúdo:

  • Uma lista de locais para comprar o produto
  • Preços de vários fornecedores
  • Comentários escritos por usuários sobre o produto
  • Imagens profissionais do produto
  • Fotos do remetente do usuário
  • Links externos para outros sites com artigos sobre o produto
  • Um mapa de onde o produto pode ser encontrado perto de você

Percebemos que muitos desses tipos de conteúdo seriam difíceis de serem medidos diretamente pelo Google. Realmente sabia que havia um mapa na página? Ele estava tentando detectar a presença de preços? Todas as análises de usuários estavam em suas próprias páginas. Poderia realmente medir a quantidade de texto associada a cada produto, rastreando muitas páginas e adicionando os totais? Teorizamos que seria muito mais fácil para o Google avaliar como os usuários reagem à página e ajustar as classificações em vez de tentar medir diretamente a quantidade de conteúdo.

Primeiro, fizemos algumas alterações na forma como nossa taxa de rejeição foi medida. Implementamos "eventos" para que, quando os usuários clicassem nos links externos, eles fossem medidos em análises. Também colocamos "eventos" para itens como mover o mapa e rolar a página para baixo. Concluímos que, quando um usuário interage com a página, ele não deve contar como rejeição, mesmo que esse usuário não tenha visualizado mais de uma página no site.

Em seguida, correlacionamos a taxa de rejeição com a quantidade de conteúdo que tínhamos para cada produto. Os resultados foram muito mais dramáticos do que esperávamos. Para produtos sem conteúdo, a taxa de rejeição foi de cerca de 90%. Para produtos com muitos tipos de conteúdo, a taxa de rejeição foi inferior a 15%. Produtos com algum conteúdo caíram no meio. Poderíamos usar isso para ver que tipo de conteúdo os usuários acharam mais valiosos. Também poderíamos valorizar a solicitação da décima revisão do usuário versus a escavação do primeiro link externo para um artigo.

As classificações também se correlacionaram muito de perto com essa taxa de rejeição. Precisávamos de menos links internos apontando para páginas com taxa de rejeição muito baixa para obter a classificação nº 1 do que páginas com taxa de rejeição moderadamente maior.


3

Embora essa questão seja interessante no sentido hipotético, falta a parte da capacidade de ação de ser prática.

Suponha, por um minuto, que a resposta seja sim - o Google usa a taxa de rejeição para classificar sites -, o que você faria sobre isso? A única maneira de aumentar essa métrica de maneira confiável seria colocar blocos artificiais entre o usuário e a resposta marcada como correta no SO, que treinaria lentamente os usuários para evitar esses domínios (diminuir a CTR do Google, que é conhecido por ser um importante métrica na classificação por relevância).

Portanto, minha sugestão seria concentrar seu tempo e esforço em métricas nas quais você possa trabalhar, em vez de adivinhar duas externalidades que não estão sob seu controle.


1
Oh, a pura ironia de uma pergunta Joel sendo fechado para não-comformity :)
MPelletier

13
Não sei se concordo com isso. Podemos fazer muitas coisas para aumentar a probabilidade de satisfação de um usuário que chega do Google. No topo da minha cabeça, poderíamos deixar completamente as perguntas sem resposta fora do índice do Google. Isso melhora a experiência do pesquisador e reduz o número de cliques breves.
Joel Spolsky

5
Sabe, eu gosto muito dessa ideia. Mais sites e fóruns devem excluir perguntas não respondidas do Google.
The How-To Geek

8
Joel, encontrei perguntas obscuras e não respondidas via google que respondi. Ao removê-los do índice, você pode diminuir sua taxa de respostas nas perguntas mais difíceis. Isso não desvalorizaria o site? Não seria melhor reduzir a taxa de rejeição melhorando as opções para quem chega por meio de uma pesquisa potencialmente malsucedida (Google para Q sem resposta)?
Dan McGrath

4
Você pode modificar o título da página para indicar perguntas que tenham uma resposta aceita, por exemplo, adicionar [respondidas] ao início. Isso apareceria nos resultados da pesquisa e deixaria mais claro para os usuários do Google que o link em que eles clicam inclui uma resposta e não apenas uma pergunta.
Tim Fountain

0

"Em primeiro lugar, poderíamos deixar completamente as perguntas não respondidas fora do índice do Google"

Sim e não, IMO, dependendo da rapidez com que as perguntas geralmente são respondidas. Todas as perguntas não são respondidas quando postadas, por exemplo, quase por definição (a menos que a pergunta tenha respondido a outra coisa). Talvez faça isso se não for respondido por x dias, no-index e ping no google para ver a tag e no-index.

Você tem mais perguntas sem resposta nos sites que foram desativados?

O Google certamente está experimentando e alguns sites perderam até 70% de seu tráfego desde 24/2. Nem todos eles são um site ruim, você sabe, apenas nenhuma recuperação do panda até agora, independentemente do que você fez no site.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.