Começar
Devo me desculpar com aqueles que são a favor dos TL; DRs. Incluí uma lista de links que o Google não gosta no topo apenas para você!
Esta é uma das minhas famosas respostas longas. Mas é importante e, às vezes, uma resposta curta simplesmente não funciona. Se você me conhece, às vezes deixo comentários com "Resposta curta. Não". Ou sim, como a ocasião exige. Esta não é uma daquelas ocasiões.
Links que o Google não gosta.
Esta é apenas uma lista rápida de tipos de links que o Google não gosta e que seria visto como Black Hat. Pode haver mais.
- Trocas de links: Troca de links de maneira equivalente. Você liga para mim e eu ligarei para você.
- Links pagos: links que você compra de uma empresa ou pessoa.
- Links em troca de serviços ou produtos: qualquer link em que produtos ou serviços são retornados para o link. Outro quid pro quo.
- Postagem de artigo: a postagem de convidado é uma coisa, no entanto, os sites de envio / marketing de artigos em que o mesmo artigo aparece em vários locais não são apreciados.
- Links automatizados: onde os links são criados usando a automação, geralmente por software.
- Links baseados em widget ou bug: onde um programa JavaScript ou dispositivo similar cria links de forma dinâmica / automática.
- Advertorials: artigos projetados para serem um anúncio publicitário. Nofollow deve ser usado.
- Anúncios de link: é aqui que um link de anúncio pode passar valor. Nofollow deve ser usado.
- Links com marca comercial: quaisquer links projetados para terem valor comercial específico. Nofollow deve ser usado.
- Diretórios da Web: Embora existam diretórios de alta qualidade, alguns oferecem menos ou pouco valor. O envio de diretórios, especialmente o envio em massa, deve ser tomado com cautela e consideração. Nofollow deve ser usado.
- Links em todo o site: qualquer link em um cabeçalho, rodapé ou barra lateral que crie links em todas as páginas ou em muitas páginas.
- Links de blogroll: Geralmente, esse é um conjunto de links em um blog para outros blogs.
- Assinaturas de fórum e blog: links criados em um bloco de assinatura de usuários.
- Comentários em fóruns e blogs: Uso excessivo de links em fóruns e blogs. Geralmente, esse é um método de marketing de backlink para participar de fóruns e blogs ou mesmo seções de comentários do site para deixar um link.
- Texto do link excessivamente otimizado: links projetados para classificação de palavras-chave específicas.
- Links contextualmente irrelevantes: Links que não estão relacionados ao tópico da página de link e / ou da página de destino.
- Links geograficamente irrelevantes: Links em uma página da web segmentada geograficamente onde a página de destino não é adequada.
- Links irrelevantes do idioma: Links em uma página da web de um idioma em que a página de destino é outro idioma.
- Velocidade do link: Picos na velocidade do backlink, que é um sinal de construção rápida do backlink.
- Redes de Link: Participando de um esquema ou rede de link building.
- Sites de press release: Usando um site de relações públicas para criar tráfego e links.
- Sites de favoritos: usando um site de favoritos para criar tráfego e links.
- Páginas de recursos: embora seja uma atividade perfeitamente aceitável para o proprietário de um site criar páginas de recursos, esses links podem ser vistos como spam. As páginas de recursos geralmente podem ser muito amplas e grandes. Listas menores são preferidas. Nofollow deve ser usado.
- Links excessivos de mídia social: é aconselhável participar de mídia social; no entanto, a criação de muitas contas de mídia social pode ser vista como um jogo.
- Links de palavras-chave únicas ou limitadas: os links com uma ou algumas palavras-chave são vistos como jogos. O texto do link totalmente semântico é o preferido.
- Links fora do conteúdo: embora isso seja perfeitamente aceitável em alguns casos, links excessivos fora do conteúdo, geralmente seguindo o conteúdo, podem ser vistos como jogos.
- Links de anúncios: alguns sites participam de mecanismos de adware que vinculam palavras-chave a anúncios JavaScript no estilo pop-up.
As coisas realmente mudaram nos últimos anos, especialmente e na década passada, com certeza. E você está certo sobre a maioria dos SEOs, eles ainda precisam seguir em frente com a realidade que nos enfrenta hoje. O principal conselho de preocupação é, você adivinhou, links de entrada (back links). O engraçado é exatamente o quão realmente está por trás dos conselhos de SEO. São feitas alterações nos marcos e os SEOs parecem estar 5 anos ou mais atrás da mudança.
Não vamos nos iludir, este é um tópico ENORME que provavelmente pode se beneficiar com um pouco de história. Vou oferecer um pouco disso. Então, entrarei no enigma de que todos enfrentamos o melhor que sei (e sim com algum viés). Então, por favor, perdoe-me se eu não entender direito ou cobrir todos os aspectos. Como eu disse, este é um tópico enorme. Além disso, estou ficando velho.
Vista Histórica
Costumo me referir ao trabalho de pesquisa original escrito em 1997 por dois estudantes Sergey Brin e Lawrence Page da Universidade de Stanford. Este foi o começo do Google e nos diz muito sobre como o Google pensa. Às vezes, também me refiro a pontos de referência na história do Google, onde ocorreram mudanças significativas. Para alguns de vocês, sei que isso está ficando velho, mas por favor, fique (aprendi a não dizer urso / nu) comigo. No artigo original, não seria uma surpresa, o PageRank usando backlinks é discutido. Mas o que é dito é frequentemente ignorado.
O modelo antigo de uma página PR6 com 2 links de saída a cada PR3 que passava nunca foi realmente preciso. Embora, de alguma forma, isso aconteça, há muito mais na história. Por exemplo, se você pensar sobre isso, como cada página se vincula a outra, há um valor que não é calculado adequadamente sem revisar as métricas de cada página repetidamente. Isso realmente ocorre. Mas pense também: qualquer site com uma grande quantidade de PageRank passaria uma enorme quantidade de classificação de maneira não natural. Com esse modelo, seria quase impossível para sites de classificação inferior obter classificação abaixo dos links do que o Google chama de super autoridade. Para combater isso, são criados limites de autoridade para cada site / página com grandes pontuações de autoridade. Além disso, cada link é avaliado, como existe, quanto à qualidade com base em alguns critérios simples e recebe uma pontuação de 0 a 0,9. O que é realmente passado é a classificação com base no limite de autoridade calculado pelo valor do link. É fácil ver que a página do PR6 não está passando pelo PR3, mas algo muito menor. O efeito disso é criar uma curva mais natural no esquema do PageRank que pode ser ajustada.
Antigamente, quando as rodas eram quadradas, era possível criar vários sites que se vinculavam, em um esforço para criar um perfil de classificação. Os spammers sabem muito bem disso. Para que isso funcionasse, seria necessário criar um site de super autoridade que passasse a classificação de maneira mais moderada e estratégica para sites específicos que depois se vinculam. É uma combinação de uma topologia "spoke and hub" com uma topologia "mesh" em que o site da super autoridade é usado como um hub para propagar a malha. É verdade que eu fiz isso nos dias anteriores a que realmente era um problema. Mas não demorou muito para que os spammers entendessem. Obviamente, desmontei meu esquema de links neste momento. DUH! Eu não sou estúpido.
Então, o que o Google fez? Aproveitou as informações que foram facilmente coletadas. Neste momento da história, havia opções limitadas para registrar um site. A Network Solutions, por exemplo, era o único local em que sites .com, .org e .net podiam ser registrados. Além disso, na época, os registros não eram particulares. Eles eram públicos. Era muito mais fácil criar relacionamentos (chamados clusters em semântica ou domínios na ciência) entre sites usando informações de registro, exatamente o que o Google fez. Para cada site no mecanismo de pesquisa, as informações de registro foram coletadas e gravadas em um banco de dados semântico especial que criaria relacionamentos usando toda e qualquer informação disponível no registro. Além disso, o Google começou a mapear endereços IP para sites, hosts da web, empresas, ASN (número AS) com base em registros APNIC, locais GEO, incluindo países e locais, e assim por diante. O relacionamento entre sites e redes também fazia parte do banco de dados semântico. Parte do que era necessário era uma maneira de estabelecer confiança nos sites e, portanto, o início do TrustRank, muitas vezes totalmente ignorado no mundo do SEO. Embora seja muito mais difícil estabelecer esses relacionamentos hoje em dia, o Google achou vantajoso se tornar um registrador para evitar o registro privado e adicionar novas ferramentas à mistura, incluindo informações encontradas nos próprios sites. Não vou abordar tudo isso, mas basta dizer que o Google pode ir ao ponto de identificar um trabalho não assinado para um autor usando algumas dessas técnicas. Mas saiba disso. Sites associados a outros sites de qualidade inferior ou em hosts ou redes de qualidade inferior, sofrem uma pancada no TrustScore. Isso também se aplica aos elementos encontrados nas informações de registro. Muitas vezes, o Google pode detectar um possível site de spam apenas com base em informações de registro, host ou rede. Realmente funciona.
Outra parte do processo foi examinar padrões de links usando mapas de padrões estabelecidos com base em técnicas conhecidas de esquema de links. Além disso, usando IA e métodos de aprendizado, novos padrões podem ser descobertos, confirmados e o banco de dados de padrões atualizado automaticamente.
Isso é algo em que o Google mantém uma mão humana. O Google tem usado pessoas para revisar a qualidade do site como parte da propagação de sistemas de IA que determinam a qualidade do site e para encontrar novos padrões de links. De tempos em tempos, o Google até solicitava que os usuários ajudassem a identificar sites com baixa qualidade e esquemas de links por esse motivo. Ele usou essas novas informações não apenas para estudar, direcionar e atualizar padrões de links, mas também para propiciar o aprendizado da IA para identificar outros esquemas que possam existir.
Então, o que alguém tem a ver com todo esse conhecimento?
Uma empresa pode e deve ser capaz de vincular seus outros sites sem medo de penalidade e pode, desde que seja dentro dos limites que qualquer webmaster atencioso e honesto siga. Além disso, os links de entrada que seguem esse mesmo mantra devem ser bons. Usando esse enorme banco de dados semântico e banco de dados de padrões de links, o Google faz um trabalho bastante decente ao identificar sites que se vinculam naturalmente. Mas há um novo problema.
O que há de novo
Os esquemas de vinculação estão ficando cada vez mais sofisticados e complexos. Alguns de nós conhecem o bug do link JC Penny de alguns anos atrás. Isso deixou o Google paranóico e ocupado, pois pretendia acabar com esse problema de uma vez por todas. Mas essa não é uma tarefa fácil, como você pode imaginar.
Além disso, existem muitos sites criados para obter tráfego de pesquisa que criam grandes quantidades de links para sites. Conhecemos esses sites; esses sites de desempenho de SEO que rastreiam o Alexa e outros dados e apontam para os sites originais mencionados. Podemos adicionar sites de palavras-chave, sites whois e assim por diante. O Google os vê como de qualidade muito baixa, com algumas exceções, como domaintools.com e robtex.com. Além disso, o algoritmo original de classificação foi visto como um motivador para a busca de links não naturais de sites de diretório, blogs, fóruns etc.
Embora tenha havido algumas batalhas vencidas nesses sites e links para classificação, o Google, e com razão, decidiu que os links naturais são preferidos. Como parte disso, o Google descontou os links de entrada como um sinal de classificação. Suponho que o primeiro passo tenha sido tão simples quanto ajustar os limites de autoridade. O que era um link aceitável totalmente fora do controle do proprietário do site criado por esses sites indesejados agora está sendo visto como uma parte muito real do sistema de classificação. Sempre foi discutido na comunidade de SEO que uma boa proporção de bons links versus links de baixo valor em comparação com outros sites era algo a ser alcançado. Mas hoje (ou seja, desde março de 2015), com a ferramenta de rejeição, parece que o Google prefere que esses links de baixa qualidade não ocorram e que a pressão descendente seja aplicada para mitigar esses links usando sua ferramenta. A idéia parece ser limpar o índice de links. Por exemplo, topalternate.com e aolstalker.com podem criar centenas e milhares de links para qualquer site. Com a ferramenta de rejeição, o Google vê uma oportunidade que os webmasters devem aproveitar para controlar como o Google vê os links de entrada. Embora, por um lado, links de baixo valor não sejam prejudiciais, o Google prefere que eles desapareçam.
O Google prefere links naturais.
O Conundrum
Está ficando muito mais difícil para um webmaster criar links. Embora os SEOs discutam incessantemente todos os métodos de criação de links de entrada, tornou-se quase impossível fazê-lo e existe há muito tempo. Como você aponta, embora existam webmasters acessíveis, a maioria está ocupada demais criando seu próprio conteúdo e links de entrada. Irônico né? Tornou-se um frenesi de alimentação. Parei de procurar links de entrada há muitos anos, quando o esforço resultou em tão poucos links. Também parei quando, em algumas das patentes do Google, ficou claro que os links desse tipo seriam examinados mais detalhadamente.
No entanto, há boas notícias. Sorta.
Parte do que o Google está pensando é que o engajamento é fundamental junto com o conteúdo. Criar um burburinho é todo o burburinho. A mídia social é vista como o novo esquema de criação de links e autoridade. O Google está olhando cada vez mais para mídias sociais, autoridade e engajamento. O problema é esse. Nem todos os sites e, de fato, sites altamente valiosos e com autoridade (em relação ao conteúdo) são apropriados para o novo paradigma da mídia social. Por exemplo, pense em toda a pesquisa escrita por professores, engenheiros e verdadeiros líderes de pensamento (incluindo engenheiros do Google)? A pesquisa não é empolgante nem é provável que um professor se envolva em mídias sociais para promover conteúdo para as massas quando é claramente para um mercado segmentado.
O que suplanta os links de entrada aos olhos do Google é o envolvimento social. Embora exista uma dualidade nesse esforço; por um lado, o Google prefere o engajamento social; por outro, o Google desconecta os links do Twitter, Facebook e similares, preferindo links do LinkedIn, Google+ e assim por diante, apenas para procurar recentemente no Facebook mais uma vez, onde o acesso é limitado. Sempre acreditei que o Twitter faz mais pelo engajamento social do que qualquer outra mídia social, e ainda assim esses links são temporários. fugaz e ainda com desconto.
O Google deu um grande salto nessa linha de pensamento em 17 de junho de 2015 com o que alguns chamam de atualização de Notícias / Tendências. Embora pouco se saiba sobre essa atualização, uma coisa é perfeitamente clara. Os sites de tendências têm uma classificação mais alta. Isso ocorre porque, com tantas consultas baseadas em tendências, o Google queria garantir que esses sites tivessem uma classificação alta para atender a chamada. Portanto, se seu site não for baseado em tendências, você verá uma batida em suas posições a partir de 17 de junho. Esta é uma dica pessoal!
Onde os links de entrada ainda funcionam.
Em uma palavra (principalmente). Branding. Ou algo parecido. Embora seja difícil ganhar força na criação de marca em um site que não é comercial ou de produto, afinal você precisa criar um burburinho, mas seguir os sinais da marca realmente ajuda. Especificamente, ser mencionado no conteúdo, ser mencionado em relação a outra marca, ser mencionado como um produto útil etc. Com tantos blogueiros por aí, o que move a agulha é ter um conteúdo excelente que as pessoas desejam vincular por conta própria. Pense em quantas vezes o MOZ é citado e vinculado? Pensamos neste site como uma super autoridade, mas não começou dessa maneira. Como cada artigo foi escrito e descoberto, foram feitos links. À medida que mais links são criados e as pessoas os seguem, os webmasters estavam mais dispostos a criar links semelhantes. Pense nisso desta maneira. No jogo de SEO online, Há tantas pessoas querendo entrar no mercado e acumular uma fortuna para si. Nisso, a maioria não é dos pensadores originais e papagaia o mesmo ole 'cr @ p de jure repetidamente. Muitos estão apenas perseguindo as manchetes de SEO e fazendo links para sites com autoridade para: um, mostrar suas proezas na comunidade; dois, para mostrar seus conhecimentos sobre o assunto; três, acrescentar sua opinião particular sobre o assunto, estabelecendo-se como um líder de pensamento; e quatro, esperançosamente, ganhem autoridade em quem se conectam (como isso também é visto como um fator aos olhos do Google). Mas, embora saibamos que 99% desses sites ainda são indesejados, esses sites classificam facilmente outros que são baseados em fatos e ponderados em sua apresentação, evitando as tendências e proibições, que podem ter alguma autoridade real. Parece que os vendedores ambulantes estão ganhando.
Nem todo mercado de conteúdo se presta a esse nível de atividade. No entanto, onde isso acontece, não há dúvida de que a mídia social pode colocar seu conteúdo na frente daqueles que se vincularão ao seu conteúdo e daqueles que desejam entrar no jogo. Tentando um cara velho como eu, mas um pé no saco se você odeia ser social.
Onde um site consegue criar links de entrada valiosos, é popular, moderno e socialmente envolvido, as pessoas desejam vincular e promover seu trabalho. <rant>
Ai sim. Também ajuda a repetir o que passa como conhecimento socialmente liberal comum, mesmo que seja puro touro. Nada de sobrancelha. Basta pegar as frutas baixas e apresentá-las de maneira atraente com fotos bonitas (outro fator do ranking do Google). Enquanto estamos nisso, vá em frente e faça um vídeo (mais um fator). Vá em frente, dance e cante suas próprias letras para uma música já popular. Isso realmente parece ajudar! Vamos homogeneizar a Internet, devemos preenchê-la com lixo inútil? </rant>
(Deus que foi divertido!)
Chapéu preto versus chapéu branco
Então, quanto ao Black Hat versus White Hat, agora você sabe a diferença. Os esquemas de vinculação, não importa quão pequenos sejam o Black Hat, enquanto os links naturais e honestos são o White Hat. É realmente muito simples. E o Google colocou um alvo nas costas de quem busca uma vantagem que é um pouco obscura.
Por favor, sinta-se à vontade para twittar esta resposta. ;-) (só brincando)