O Google fez uma sutil alteração na leitura do documento Robots.txt, influenciando diretamente nas buscas orgânicas e nos resultados do Google Ads.
O arquivo Robots.txt é essencial para indicar aos buscadores quais páginas devem ou não ser indexadas nas pesquisas. Dessa forma, fica mais fácil que futuros clientes encontrem sua empresa e os serviços que ela presta.
O que é Robots.txt?
O Robots.txt é um arquivo de texto, que fica dentro da raiz do site e que sinaliza aos buscadores quais páginas devem (ou não) aparecer nas buscas feitas pelos usuários. O Robots.txt também auxilia a indexação em outros buscadores como o Bing, Yahoo, entre outros.
Para confirmar que o Robots.txt está funcionando, basta adicionar na URL do site a informação /robots.txt. Por exemplo:
meusite.com.br/robots.txt
Vale lembrar que se o robots.txt estiver abrindo de qualquer outra forma diferente da que mostramos, o Google não encontrará o arquivo para leitura! Esse é um ajuste crítico em um projeto de SEO.
Como é a sintaxe do Robots.txt?
A sintaxe do Robots.txt é simples e pode ser feita manualmente em um bloco de notas ou por meio de um gerador online. Confira alguns dos componentes essenciais que devem compor um Robots.txt.
Este comando lista quais os buscadores que podem indexar o seu site. É muito utilizado por empresas que desejam indexar apenas em um buscador como o Google Notícias ou Google Imagens, por exemplo. Por default a criação do User-agent é feita da seguinte forma:
User-agent: *
O asterisco é utilizado para indicar que quase todos os buscadores podem encontrar o site.
Allow e Disallow
Estes dois comandos instruem aos buscadores quais diretórios ou páginas devem (allow) e não devem (disallow) ser incluídas nos resultados de busca. São escritos da seguinte forma:
Disallow: /prod/ (não indexa conteúdo dentro da pasta “prod”)
Allow: /prod/categoria (indexa o subdiretório da pasta bloqueada “prod”)
Dessa forma, o arquivo Robots.txt completo deve ser:
User-agent: *
Disallow: /prod/
Allow: /prod/categoria
Qual foi a mudança do Google para o Robots.txt?
Dentro do documento do google para webmaster, foi revelado que o uso do User-agent: * permite que o site seja encontrado por todos os buscadores, exceto aos diversos rastreadores Google AdsBot (resumindo todos os robôs menos os do Google).
Para acessar a lista completa de Adsbot clique aqui.
Para que o site seja encontrado por esses buscadores, o Robots.txt deve detalhar em quais deles o site poderá ser indexado. Acompanhe:
“O uso de um asterisco (*), corresponderá a todos os rastreadores, exceto aos diversos rastreadores Google AdsBot, que precisam ser nomeados explicitamente.”
Como utilizar o User-agent?
No arquivo Robots.txt, caso você queira que seu site permaneça aparecendo para todos os buscadores do Google, copie e cole no seu arquivo robots as seguintes liberações (sem os subtítulos):
Permite que todos os outros buscadores encontrem o site:
User-agent: *
Allow: /
Buscador do Google:
User-agent: Googlebot
Allow: /
Google Imagens:
User-agent: Googlebot-Image
Allow: /
Sites Parceiros do Google:
User-agent: Mediapartners-Google
Allow: /
Google Ads:
User-agent: Adsbot-Google
Allow: /
Google Ads para Aplicativos Mobile:
User-agent: AdsBot-Google-Mobile-Apps
Allow: /
Google Notícias:
User-agent: Googlebot-News
Allow: /
Youtube:
User-agent: Googlebot-Video
Allow: /
Google Ads Mobile:
User-agent: AdsBot-Google-Mobile
Allow: /
Gostou e quer deixar seu projeto de SEO na mão de especialistas? Entre em contato com o time comercial da DGAZ Marketing e veja como podemos te ajudar!