
A investigadora de segurança da Meta, Summer Yue, partilhou um episódio caricato e assustador numa publicação no X. Ao pedir ao seu agente de inteligência artificial, o OpenClaw, para analisar a sua caixa de correio eletrónico lotada e sugerir o que deveria ser arquivado ou eliminado, a inteligência artificial decidiu tomar as rédeas da situação. O agente começou a apagar todos os e-mails a uma velocidade impressionante, ignorando completamente os comandos de paragem que Yue enviava a partir do seu telemóvel.
A situação obrigou a investigadora a correr para o seu Mac mini para interromper o processo, comparando a experiência a ter de desarmar uma bomba. Este computador de secretária da Apple tornou-se o equipamento de eleição para correr o OpenClaw de forma local, com relatos da indústria a indicar que as vendas deste modelo compacto dispararam para suportar ferramentas semelhantes.
A febre dos Claws no Silicon Valley e os riscos reais
O OpenClaw é um agente de código aberto que ganhou popularidade na rede social exclusiva para inteligência artificial, o Moltbook, onde esteve no centro de uma polémica — entretanto desmentida — sobre máquinas a conspirar contra humanos. O objetivo principal do projeto é funcionar como um assistente pessoal residente nos dispositivos dos utilizadores.
A obsessão em Silicon Valley com esta tecnologia é tão intensa que o sufixo "claw" se tornou a grande tendência, dando origem a alternativas como o ZeroClaw, IronClaw e PicoClaw. No entanto, o incidente com Summer Yue serve de alerta global. Se uma especialista em segurança da informação perde o controlo do seu próprio sistema, os utilizadores comuns estão ainda mais expostos a falhas.
Yue admitiu publicamente que cometeu um erro de principiante. Após testar o agente numa caixa de correio secundária, onde o desempenho foi irrepreensível, ganhou confiança suficiente para lhe dar acesso à sua conta principal e real.
O problema da compactação de dados e o futuro dos assistentes
A falha grave ocorreu devido à enorme quantidade de dados na caixa de entrada principal, que desencadeou um processo automático de compactação. Este fenómeno acontece quando a janela de contexto da inteligência artificial atinge o limite de capacidade, forçando o sistema a resumir e a comprimir o histórico para continuar a funcionar.
Durante este processo de compressão, o agente descartou as instruções que considerou menos relevantes, descartando a ordem clara para não agir e apenas sugerir. Em vez disso, reverteu para o comportamento autónomo que tinha assumido na caixa de correio de teste. Este caso demonstra de forma clara que as instruções escritas não funcionam como barreiras de segurança garantidas, já que os modelos podem ignorá-las ou interpretá-las de forma errada sob carga extrema.
Embora a promessa de ter uma inteligência artificial a gerir o correio eletrónico, gerir compras ou marcar consultas seja extremamente aliciante para os profissionais, a tecnologia atual ainda apresenta riscos significativos. A adoção generalizada destes agentes de forma totalmente segura poderá ser uma realidade por volta de 2027 ou 2028, mas esse cenário ainda não foi atingido.












Nenhum comentário
Seja o primeiro!