A promessa das empresas de inteligência artificial generativa é clara: as respostas dos seus chatbots incluem links para as fontes originais. No entanto, a realidade parece ser bem diferente e está a colocar os criadores de conteúdo online em alerta máximo. Segundo Matthew Prince, CEO da Cloudflare, o tráfego de referência proveniente destas ferramentas está a cair a pique, representando o que ele classifica como uma "ameaça existencial" para as editoras e sites.
Em declarações ao Axios, Prince revelou dados alarmantes que pintam um cenário preocupante. Os utilizadores estão a confiar cada vez mais nos resumos fornecidos pela IA, abdicando de clicar nos links para aprofundar a informação. Esta mudança de comportamento tem um impacto direto e devastador no modelo de negócio de muitos sites, que dependem das receitas de publicidade geradas pelas visitas.
Uma quebra de tráfego a pique
Os números partilhados por Matthew Prince não deixam margem para dúvidas. A tendência de queda no tráfego de referência é acentuada e transversal às principais plataformas:
- Google: Há dez anos, a gigante das pesquisas enviava um visitante a um site por cada duas páginas rastreadas. Há seis meses, o rácio era de um visitante por cada seis páginas. Atualmente, a proporção caiu para um visitante por cada 18 páginas.
- OpenAI: Há apenas seis meses, a criadora do ChatGPT enviava um visitante por cada 250 páginas analisadas. Hoje, são necessárias 1.500 páginas para gerar uma única visita.
- Anthropic: O cenário é ainda mais grave com a Anthropic, que passou de um visitante por cada 6.000 páginas para um rácio desolador de um visitante por cada 60.000 páginas no mesmo período.
Perante esta realidade, Prince incentiva os publicadores de conteúdo a tomar medidas para garantir que são compensados de forma justa pelo seu trabalho.
A resposta da Cloudflare: bloquear os "nerds de Palo Alto"
A Cloudflare não se limita a soar o alarme e está a trabalhar ativamente numa solução. A empresa está a desenvolver uma ferramenta específica para bloquear os bots que recolhem (ou "fazem scraping") de conteúdo para treinar os grandes modelos de linguagem (LLMs), mesmo que estes ignorem as diretivas "no crawl" presentes nos ficheiros robots.txt
dos sites.
Esta não é uma preocupação nova. Já em 2024, várias notícias davam conta de que as empresas de IA estavam a ignorar deliberadamente o Protocolo de Exclusão de Robôs para alimentar os seus modelos com conteúdo protegido.
AI Labyrinth: um labirinto para enganar os bots
A resposta da Cloudflare a esta prática materializou-se em março com o lançamento oficial do AI Labyrinth. Esta ferramenta utiliza uma abordagem engenhosa: em vez de simplesmente bloquear um bot não autorizado, atrai-o para uma teia de páginas falsas, geradas por IA, que parecem credíveis mas não contêm a informação real do site que está a ser protegido.
Desta forma, o bot fica preso num labirinto digital, desperdiçando tempo e recursos computacionais valiosos a processar conteúdo inútil. Para o CEO da Cloudflare, esta é uma batalha que tem de ser travada com a mesma determinação usada contra outras ameaças digitais.
"Eu luto todos os dias contra o governo chinês, o governo russo, os iranianos, os norte-coreanos, provavelmente os americanos, os israelitas, todos eles que tentam invadir os sites dos nossos clientes", afirmou Prince. "E estão a dizer-me que não consigo parar um nerd com uma empresa em Palo Alto?"
Nenhum comentário
Seja o primeiro!