VERIFICADOR DO ROBOTS.TXT

Exemplo: websiteplanet.com/robots.txt

01

Fácil de usar:

Nunca foi tão fácil testar a precisão do seu arquivo robots.txt. Basta colar sua URL completa com /robots.txt e pressionar enter. Seu relatório estará pronto rapidamente.
02

100% preciso:

Nosso verificador do robots.txt não apenas irá encontrar erros de digitação, sintaxe e "lógica", como também fornecerá dicas úteis de otimização.
03

Preciso:

Considerando tanto o padrão de exclusão dos robôs quanto as extensões específicas dos spiders, nosso verificador do robots.txt irá gerar um relatório de fácil leitura para ajudar a corrigir quaisquer erros existentes no seu arquivo robots.txt.
Perguntas frequentes

A ferramenta Verificador do robots.txt foi projetada para verificar se seu arquivo robots.txt está preciso e sem erros. O robots.txt é um arquivo que faz parte do seu site e que fornece regras de indexação para robôs de mecanismos de busca, com o objetivo de garantir que seu site seja pesquisado (e indexado) corretamente – e que os dados mais importantes do seu site sejam indexados primeiramente.

Esta ferramenta é simples de usar e produz um relatório em segundos – basta digitar a URL completa do seu site, seguida por /robots.txt (ex.: seusite.com.br/robots.txt), e clicar no botão ‘Verificar’. Nosso verificador do robots.txt irá localizar quaisquer erros (como erros ortográficos e de sintaxe ou ‘lógica’) e fornecer dicas para otimizar seu arquivo robots.txt.

Problemas com seu arquivo robots.txt – ou a ausência de um arquivo robots.txt – podem impactar suas pontuações de SEO negativamente, e seu site poderá não ranquear tão bem nas páginas de resultados dos mecanismos de busca (SERPs). Isso se deve ao risco de que um conteúdo não relevante seja pesquisado antes ou em vez do conteúdo que importa.

Verificar o arquivo antes que seu site seja pesquisado significa que você pode evitar problemas como ter todo o conteúdo do seu site pesquisado e indexado, em vez apenas das páginas que você queira indexar. Por exemplo, se você tem uma página que deseja que os visitantes acessem somente após preencher um formulário de inscrição, ou uma página de login para membros, mas não a excluir do seu arquivo robots.txt, ela poderá acabar sendo indexada.

Existe uma variedade de erros que podem afetar seu arquivo robots.txt, além de alguns avisos de ‘práticas recomendadas’ que você poderá receber ao verificar seu site. Trata-se de aspectos que podem afetar seu SEO e que devem ser corrigidos. Os avisos são menos importantes e servem como orientação para aprimorar seu arquivo robots.txt.

Os erros que podem ser exibidos incluem:

URL inválida – você receberá este erro caso seu arquivo robots.txt esteja totalmente ausente.

Potencial erro de wildcard – embora tecnicamente se trate de um aviso, e não de um erro, se você receber esta mensagem, normalmente isso ocorre porque seu arquivo robots.txt file contém um wildcard (*) no campo Disallow (ex.: Disallow: /*.rss). Esse é um problema de práticas recomendadas – o Google permite wildcards no campo Disallow, mas essa prática não é recomendadas.

Agentes do usuário genéricos e específicos no mesmo bloco de código – esse é um erro de sintaxe no seu arquivo robots.txt, o qual deve ser corrigido para evitar problemas de pesquisa do seu site.

Outros avisos possíveis incluem:

Allow: / – o uso da ordem allow não irá prejudicar seu ranking ou afetar seu website, mas essa não é uma prática comum. A maioria dos robôs, incluindo Google e Bing, aceitará essa diretiva, mas nem todos os crawlers aceitarão – em termos gerais, é melhor tornar seu arquivo robots.txt compatível com todos os crawlers, e não apenas com os principais.

Uso de maiúsculas em nomes de campos – embora os nomes de campos não diferenciem maiúsculas de minúsculas necessariamente, alguns crawlers podem exigir o uso de maiúsculas; portanto, é uma boa ideia usar maiúsculas nos nomes de campos para agentes do usuário específicos.

Suporte a sitemap – muitos arquivos robots.txt incluem os detalhes do sitemap do site, mas essa não é considerada uma prática recomendada. No entanto, o Google e o Bing oferecem suporte a esse recurso.

Corrigir os erros em seu arquivo robots.txt dependerá da sua plataforma utilizada. Se você usa o WordPress, é recomendável usar um plugin como o WordPress Robots.txt Optimization ou Robots.txt Editor. Se você conecta seu site ao Google Search Console, também poderá editar seu arquivo robots.txt a partir dele.

Alguns criadores de sites, como o Wix, não permitem editar seu arquivo robots.txt diretamente, mas permitem adicionar tags no-index para páginas específicas.