No mundo dos motores de busca, o Google continua na confortável posição de líder indiscutível. Em Agosto de 2017, a invenção de Larry Page e Sergey Brin apresentou uma quota de mercado impressionante: 91% (para teres noção, o Bing, o seu “maior” rival, regista apenas 2.5%).
Em Portugal, este valor atinge ainda maior expressão: 96%.
Assim sendo, falar de motores de busca é basicamente sinónimo de falar do Google.
Se queremos mais visitas ao nosso site, garantir uma boa posição no Google será um óptimo ponto de partida. Mas, para tal, temos primeiro de perceber como é que este motor de busca funciona, certo?
Felizmente, o seu funcionamento não é um segredo de estado. A própria empresa explica as 3 fases aqui, mas neste artigo darei mais detalhes sobre cada uma delas.
Vamos a isto!
Fase 1: Crawling (ou Rastreio)
Porquê uma aranha na imagem? Porque o Google, como qualquer outro motor de busca, tem uma spider.
Esta spider (no caso do Google, chamada Googlebot) é um programa que tem uma função muito importante: descobrir novas páginas, e verificar se existem actualizações nas páginas já encontradas. Será ainda responsável por verificar se não surgiram links mortos, ou seja, links que já não vão dar a lado nenhum.
Este processo varia consoante o site em questão – o Google tem um algoritmo que determina a frequência com que vai realizar este trabalho, porque um site que publica dezenas de notícias por dia merece mais atenção do que um blog que só publica um par de artigos por ano.
O Google é muito curioso – sempre que colocares um novo link na tua página, ele adicionará essa página à sua lista de tarefas, para efectuar o crawling assim que possível.
No passado, criavam-se mapas do site (sitemaps) para garantir que todas as páginas eram devidamente encontradas. Hoje em dia, apesar de ainda ser uma prática frequente, o Google já é capaz de encontrar a maior parte das páginas de forma autónoma.
Poderás querer impedir que o Google conheça o teu site – ou, pelo menos, parte dele. Se for esse o caso, deves familiarizar-te com o robots.txt – um ficheiro que basicamente pede a estas spiders que ignorem determinada página/pasta/domínio.
Podes aprender a criar um ficheiro deste tipo consultando esta página ou esta. É importante teres em conta que as spiders podem ignorar o teu pedido, e que o ficheiro robots.txt pode ser acedido publicamente.
Plataformas como o WordPress facilitam este processo – neste CMS, quando estás a criar uma nova instalação, podes colocar um visto em “Discourage search engines from indexing this site” ou ir mais tarde a General Settings > Reading para activar essa opção, e o site passará a ser ignorado pelos motores de busca.
A conclusão até aqui? Se queres garantir uma boa posição no Google, primeiro tens que confirmar que o Google consegue chegar ao teu site (e a todas as suas páginas).
Podes confirmar se o crawling no teu site foi efectuado com sucesso visitando a Search Console, uma ferramenta grátis da Google. Se tiveres fornecido um mapa do site, o mesmo também surgirá aqui. Esta é uma excelente ferramenta para resolver este tipo de questões.
Assumindo que o Google identificou e rastreou o teu site correctamente, é tempo de actualizar o índice, que acontecerá na 2ª fase.
Fase 2: Indexing (ou Indexação)
O Googlebot vai processar cada uma das páginas que rastreou, compilando um índice com todas as palavras que encontrou (e a respectiva localização de cada uma) na página.
Aqui, todo o código HTML é investigado – title tags (o título da página), alt tags (as descrições das imagens), heading tags (os títulos e sub-títulos dos artigos) são apenas alguns exemplos.
É importante apresentar código HTML correcto e válido – afinal de contas, o Google é um robô, e será através da análise do HTML que ele entenderá o conteúdo da página.
É igualmente importante pensares nas palavras-chave que achas que os teus visitantes vão utilizar, e garantir que os conteúdos as apresentam de forma natural. Nunca deixas de escrever para humanos.
O Google (ainda) não consegue inspeccionar tudo. Ele é incapaz de reconhecer alguns formatos de ficheiro ou páginas dinâmicas, mas está cada vez mais inteligente – com os avanços no machine learning, um dia é bem possível que seja capaz de entender vídeos na perfeição, e já está muito avançado no reconhecimento de imagens.
A conclusão aqui? Se queres que o Google entenda que o teu site é de “locais que servem bons pastéis de nata em Lisboa”, garante que o teu código HTML está optimizado para tal e que essas palavras (e variações) surgem naturalmente, e com alguma frequência, no conteúdo do teu site.
Fase 3: Ranking (como os resultados são apresentados)
Aqui, entramos na fase mais importante – e aquela que destaca o Google dos restantes motores de busca.
Porque é que recorremos ao Google? Porque é um motor de busca que apresenta uma enorme taxa de satisfação – raramente não nos dá o que queremos, e raramente precisamos de visitar mais do que 1 ou 2 resultados para ficarmos com a nossa questão esclarecida.
Às vezes, “até parece que adivinha” – mesmo com palavras-chave algo vagas, ele lá nos apresenta o que realmente pretendíamos. E funciona de uma forma cada vez mais personalizada: os meus resultados poderão ser diferentes de outra pessoa que pesquise pelos mesmos termos, na mesma cidade.
Tal só é possível graças ao super-complexo algoritmo do Google, que entra em acção a cada pesquisa efectuada – devolvendo-nos os resultados que entende que são os mais relevantes para nós.
Na Internet, existem milhões e milhões de páginas – e mesmo que existam mais de 2 biliões de resultados para a palavra “iphone”, ele sabe o que nós queremos.
Ele é mesmo muito bom a ordenar os resultados por relevância. E é isso que nos faz voltar, vezes e vezes sem conta, a este motor de busca.
Talvez estejas a pensar que os resultados da primeira página pagaram para lá estar – e, se disserem “anúncio”, tratam-se de facto em investimentos Google AdWords, como este exemplo:
Podes encontrar 5 anúncios na página de resultados, mas também encontrarás sempre 10 resultados que estão lá… por mérito.
Estes são chamados resultados orgânicos – e é aqui que queres estar.
São estes que recebem grande parte dos cliques, porque as pessoas sabem que o Google coloca em primeiro os resultados que realmente trazem valor.
Mas como é que ele sabe o que apresentar primeiro? Como é que ele sabe que página merece mais?
Conjugando mais de 200 factores. São de todo o tipo, cada um com um peso diferente.
Eis alguns exemplos:
- Presença da palavra-chave pesquisada no domínio ou no URL;
- Presença da palavra-chave pesquisada na title e heading tag;
- Repetição da palavra-chave pesquisada ao longo do conteúdo;
- Velocidade de carregamento da página;
- Número de Partilhas da página nas redes sociais;
- Site com certificado SSL (HTTPS);
- Site responsive (preparado para dispositivos móveis).
Este último factor, por exemplo, está a ganhar importância rapidamente: em Novembro de 2016, a Google anunciou que deu início a uma série de testes para passar a avaliar a relevância dos sites em mobile, ao invés de desktop.
Se tiveres curiosidade em conhecer os restantes factores, Brian Dean, do conhecido site de SEO Backlinko, lista-os todos (ou quase) neste artigo.
Na grande maioria das vezes, é aqui que um profissional de SEO (Search Engine Optimization, ou Otimização para Motores de Busca) se foca mais. Conhecendo os factores, torna-se mais fácil entender como deve melhorar cada site que desenvolve.
O PageRank
Dos 200 factores, dificilmente algum será mais importante que o PageRank. Se já ouviste falar em práticas de link building, é muito provavelmente devido a este factor.
O PageRank mede a importância de uma página baseado no número de links que recebe de outras páginas. Aos olhos do Google, links recebidos simbolizam votos (especialmente se forem de vários domínios diferentes), pelo que uma página recomendada por vários sites estará, em teoria, em melhor posição para surgir mais acima numa pesquisa efectuada.
Naturalmente, nem todos os links valem o mesmo – uma aparição num site de referência na indústria pesará mais do que um blog de um fã pouco influente, porque o primeira apresenta maior autoridade (e o Google sabe-o).
Para o melhor ou para o pior, não podes conhecer a nota atribuída à tua página, pois o PageRank já não é de domínio público. No passado, quando ainda existia a Google Toolbar, podíamos consultar o PageRank de qualquer página.
O Google está também cada vez melhor a combater o spam, pelo que não vale a pena comprares links ou procederes a outro tipo de tácticas de carácter duvidoso – mesmo que não sejas logo “apanhado”, o mais provável é que sofras as consequências mais tarde e que o teu site seja penalizado.
Mais vale dedicares esse tempo (e dinheiro) a criar bons conteúdos e a garantir que outros sites influentes tomam conhecimento desses mesmos conteúdos.
A conclusão aqui? O Google tem um algoritmo incrivelmente complexo para apresentar os resultados mais relevantes para cada pesquisa realizada. Deves conhecer os factores e jogar com eles, mas sem recorrer a atalhos, ou batotas (que, na gíria, se denominam práticas de black hat).
Conclusão
É importante entender como funcionam os motores de busca para conhecer as regras do jogo – só assim conseguiremos trabalhar para melhorar o posicionamento do nosso site no Google.
Nos dias que correm, temos de garantir que o nosso site agrada às pessoas, tanto ao nível do conteúdo, como noutros campos, como a usabilidade, o design e até a performance – um motor de busca sofisticado avalia todo o tipo de factores.
Deves optimizar os teus sites para robôs, porque uma boa posição no Google será muito vantajosa para o teu site se procuras mais tráfego.
No entanto, não te esqueças de colocar sempre as pessoas primeiro – lê o que eu penso sobre o hacking no Marketing – porque a ideia é garantir que os robôs reconhecem o bom trabalho que andamos a fazer para as pessoas, e não correr atrás deles!
Queres saber mais? Então este meu Guia de SEO é para ti!