
Imagina que o teu website é uma festa exclusiva ou um escritório organizado. Nem toda a gente deve ter permissão para entrar na sala dos servidores, na despensa ou nos arquivos confidenciais. No mundo da internet, os convidados são os motores de busca e o segurança à porta é um pequeno ficheiro de texto chamado robots.txt.
Este ficheiro é uma das peças fundamentais do puzzle que é o SEO técnico. Embora não seja visível para o utilizador comum que navega nas tuas páginas, é a primeira paragem para qualquer "bot" de rastreio, como o onipresente Google, informando-os sobre onde podem entrar e onde são "persona non grata".
O que é e para que serve este ficheiro?
O robots.txt é um ficheiro de texto simples (geralmente codificado em UTF-8) localizado na raiz do teu domínio. Faz parte do Protocolo de Exclusão de Robôs e serve como um manual de instruções para os "crawlers" (robôs de rastreio).
Ao contrário do que se possa pensar, o objetivo principal não é esconder segredos — o ficheiro é público e qualquer pessoa o pode ler —, mas sim otimizar o rastreio. Ele é crucial para:
Gerir o "Crawl Budget": Em sites grandes, os motores de busca têm um limite de tempo e recursos para rastrear as tuas páginas. O robots.txt ajuda a garantir que eles não perdem tempo em páginas irrelevantes (como filtros de pesquisa ou pastas temporárias) e focam-se no conteúdo que realmente importa.
Impedir o acesso a áreas sensíveis: Evita que áreas de administração (como o
/wp-adminno WordPress), ambientes de testes (staging) ou scripts irrelevantes apareçam nos resultados de pesquisa.Indicar o mapa do tesouro: É aqui que, por norma, indicamos a localização do
sitemap.xml, facilitando a vida aos motores de busca na descoberta de novas URLs.
Os comandos que tens de conhecer
A linguagem do robots.txt é simples, mas poderosa. Um erro de sintaxe pode fazer desaparecer o teu site dos resultados da Google. Aqui estão os protagonistas:
User-agent: Define a quem se aplicam as regras. Podes usar um asterisco (
*) para falar com todos os robôs, ou especificar nomes comoGooglebotouBingbotpara regras personalizadas.Disallow: O sinal de "Proibido Entrar". Indica os caminhos ou pastas que o robô deve ignorar.
Allow: Uma exceção à regra. Permite dizer "podes entrar nesta subpasta específica, mesmo que a pasta mãe esteja bloqueada".
Sitemap: Indica o URL absoluto onde se encontra o mapa do site.
Como criar e onde colocar o ficheiro
Não precisas de software complexo. Um simples editor de texto, como o Bloco de Notas, serve perfeitamente (evita processadores de texto como o Word, que adicionam formatação oculta).
Planeamento: Decide o que queres bloquear. Pastas de administração, ficheiros PDF internos ou áreas de login são candidatos habituais.
Criação: Cria um ficheiro chamado
robots.txte insere as tuas regras. Exemplo básico:User-agent: *
Disallow: /admin/
Sitemap: https://oteusite.pt/sitemap.xmlAlojamento: O ficheiro deve ser carregado para a pasta raiz do teu servidor (geralmente
public_html).
Para garantir que tudo corre bem, a estabilidade e a facilidade de gestão do teu servidor são essenciais. Se utilizas um serviço de confiança, como o alojamento web da Host TugaTech, terás acesso simplificado via gestor de ficheiros ou FTP para colocar o teu robots.txt no sítio certo, garantindo que os motores de busca o encontram sem falhas de servidor.
O que NÃO fazer: Limitações e perigos
É vital entender que o robots.txt é um "sinal de trânsito", não uma "barreira de betão".
Não é segurança: Não uses este ficheiro para esconder dados privados. Robôs mal-intencionados podem (e vão) ignorar estas instruções. Para proteger dados, usa passwords e autenticação.
Cuidado com o bloqueio total: Uma simples barra (
/) na diretivaDisallow: /bloqueia todo o teu site. É útil para sites em desenvolvimento, mas fatal para sites em produção.Indexação indireta: Mesmo que bloqueies uma página no robots.txt, se outros sites tiverem links para ela, o Google pode indexar o URL (embora não consiga ler o conteúdo da página).
Manutenção e atualização
O teu site é um organismo vivo e o robots.txt deve acompanhar a sua evolução. Sempre que adicionares novas secções que não devem ser públicas ou alterares a estrutura de pastas, verifica este ficheiro.
Antes de fazeres qualquer alteração, é recomendável usar ferramentas de validação, como a disponível na Google Search Console, para testar se não estás a bloquear inadvertidamente páginas importantes. Um robots.txt bem configurado é o herói silencioso de uma estratégia de SEO vencedora, garantindo que os motores de busca veem o teu site exatamente como tu queres.










Nenhum comentário
Seja o primeiro!