
Se geres um site ou trabalhas com SEO, sabes que a forma como o Googlebot percorre as tuas páginas é fundamental para apareceres nos resultados de pesquisa. Agora, a gigante tecnológica atualizou a sua documentação para esclarecer exatamente "quanto" os seus bots conseguem "comer" de uma só vez, definindo limites claros para diferentes tipos de ficheiros.
Embora a maioria destes limites não seja propriamente nova, a Google decidiu torná-los explícitos para ajudar os programadores a otimizar os seus conteúdos e evitar surpresas na indexação.
Os números mágicos: 15MB, 64MB e 2MB
A atualização dos documentos de suporte detalha três limites principais de tamanho que o Googlebot impõe ao descarregar conteúdos para indexação. Estes valores aplicam-se aos dados não comprimidos, o que significa que, mesmo que uses compressão gzip no servidor, o que conta é o tamanho real do ficheiro "aberto".
Os limites definidos são:
15MB para páginas web (HTML): Por defeito, os crawlers da empresa apenas leem os primeiros 15MB de um ficheiro HTML ou de texto. Tudo o que estiver após este limite é ignorado e não será considerado para efeitos de pesquisa.
64MB para ficheiros PDF: Se alojas documentos PDF, o Googlebot consegue ler uma porção significativamente maior, processando os primeiros 64MB do ficheiro.
2MB para outros tipos de ficheiros: Para outros formatos suportados que não sejam HTML ou PDF, o limite é mais conservador, fixando-se nos primeiros 2MB.
O impacto na indexação e recursos
É importante notar que estes limites se aplicam ao ficheiro principal que está a ser acedido. Do ponto de vista da renderização da página, cada recurso referenciado no HTML (como ficheiros CSS ou JavaScript) é descarregado separadamente.
Segundo a informação técnica disponibilizada, cada um destes recursos adicionais está sujeito aos mesmos limites de tamanho de ficheiro (exceto os PDFs). Quando o limite de corte é atingido, o Googlebot interrompe o download e envia apenas a parte que conseguiu transferir para ser considerada na indexação.
Para a vasta maioria dos sites na internet, estes limites são bastante generosos e não devem causar preocupação. No entanto, para páginas extremamente longas ou com código excessivo, é um lembrete importante para manter o conteúdo otimizado, conforme detalhado na documentação oficial de pesquisa.










Nenhum comentário
Seja o primeiro!