Ao usar esse teste, observe que muitos pixels / scripts de rastreamento de anúncios (até os pixels do Google e os pixels da Doubleclick (o Google é o proprietário da Doubleclick)) podem ser bloqueados pelo próprio arquivo robots.txt que você não pode controlar. Vi isso em primeira mão em um dos meus sites - o Google impediu que o pixel do Doubleclick fosse verificado pelo Googlebot. Você deve se perguntar: "O Googlebot é para identificar o conteúdo da sua página, não para seguir rastreadores de pixel. Até os próprios pixels de rastreamento do Google estão bloqueando o seu próprio Googlebot. Então, por que devo me preocupar se os rastreadores de pixel estão sendo bloqueados?" E também vejo isso com os pixels do Facebook.
No entanto, se você controla um arquivo robots.txt e não tem nada a ver com o rastreamento de pixels, provavelmente é algo que você precisa resolver. Agora, se você possui uma parte apenas para membros do seu site ou uma parte para administradores, e está vinculada a partir da página inicial, considere os atributos de cloaking ou nofollow para que o Googlebot não tente seguir isso na sua página. No entanto, é preciso perguntar se o Google deseja que você permita que o Googlebot passe por uma seção exclusiva para membros ou administrador do seu site, o que provavelmente não é, na minha opinião.
Esta é a minha opinião, no entanto. A menos que possamos realmente responder à equipe de engenharia de SEO do Google, estamos meio que tateando no escuro e apenas temos que usar nossa melhor intuição de bom senso aqui.
wp-contentpode causar esses problemas. Seu robots.txt parece bom para mim, pelo menos agora. Você mudou recentemente?