1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Google Bot

Se geres um site ou trabalhas com SEO, sabes que a forma como o Googlebot percorre as tuas páginas é fundamental para apareceres nos resultados de pesquisa. Agora, a gigante tecnológica atualizou a sua documentação para esclarecer exatamente "quanto" os seus bots conseguem "comer" de uma só vez, definindo limites claros para diferentes tipos de ficheiros.

Embora a maioria destes limites não seja propriamente nova, a Google decidiu torná-los explícitos para ajudar os programadores a otimizar os seus conteúdos e evitar surpresas na indexação.

Os números mágicos: 15MB, 64MB e 2MB

A atualização dos documentos de suporte detalha três limites principais de tamanho que o Googlebot impõe ao descarregar conteúdos para indexação. Estes valores aplicam-se aos dados não comprimidos, o que significa que, mesmo que uses compressão gzip no servidor, o que conta é o tamanho real do ficheiro "aberto".

Os limites definidos são:

  • 15MB para páginas web (HTML): Por defeito, os crawlers da empresa apenas leem os primeiros 15MB de um ficheiro HTML ou de texto. Tudo o que estiver após este limite é ignorado e não será considerado para efeitos de pesquisa.

  • 64MB para ficheiros PDF: Se alojas documentos PDF, o Googlebot consegue ler uma porção significativamente maior, processando os primeiros 64MB do ficheiro.

  • 2MB para outros tipos de ficheiros: Para outros formatos suportados que não sejam HTML ou PDF, o limite é mais conservador, fixando-se nos primeiros 2MB.

O impacto na indexação e recursos

É importante notar que estes limites se aplicam ao ficheiro principal que está a ser acedido. Do ponto de vista da renderização da página, cada recurso referenciado no HTML (como ficheiros CSS ou JavaScript) é descarregado separadamente.

Segundo a informação técnica disponibilizada, cada um destes recursos adicionais está sujeito aos mesmos limites de tamanho de ficheiro (exceto os PDFs). Quando o limite de corte é atingido, o Googlebot interrompe o download e envia apenas a parte que conseguiu transferir para ser considerada na indexação.

Para a vasta maioria dos sites na internet, estes limites são bastante generosos e não devem causar preocupação. No entanto, para páginas extremamente longas ou com código excessivo, é um lembrete importante para manter o conteúdo otimizado, conforme detalhado na documentação oficial de pesquisa.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech