A Meta anunciou duas novas funcionalidades para os seus óculos inteligentes Ray-Ban Meta, concebidas para auxiliar utilizadores cegos ou com baixa visão. Estas novidades, que tiram partido da câmara integrada nos óculos e do acesso à inteligência artificial da Meta (Meta AI), foram reveladas no âmbito do Dia Global da Consciencialização sobre Acessibilidade.
As funcionalidades prometem tornar o dia a dia destes utilizadores mais independente, fornecendo descrições detalhadas do ambiente e a possibilidade de contactar voluntários para assistência visual remota.
Descrições ambientais melhoradas pela IA
Nas próximas semanas, os utilizadores nos Estados Unidos e Canadá terão acesso a uma atualização da Meta AI que permitirá personalizar o nível de detalhe nas descrições do que os rodeia. Ao interagir com o assistente inteligente sobre o seu ambiente, os utilizadores poderão receber informações mais ricas e contextuais. Num vídeo demonstrativo partilhado pela Meta, a IA descreve pormenores de um parque junto à água, incluindo referências a áreas relvadas como estando "bem cuidadas".
Para ativar esta capacidade, bastará ligar as "respostas detalhadas" na secção de Acessibilidade das Definições do Dispositivo, na aplicação Meta AI. Embora o lançamento inicial se restrinja aos EUA e Canadá, a Meta assegura que esta funcionalidade de respostas detalhadas "se expandirá para outros mercados no futuro", não tendo, no entanto, avançado datas ou quais os próximos países a recebê-la.
Assistência em tempo real com a "Be My Eyes"
Outra novidade importante é o lançamento alargado da funcionalidade "Call a Volunteer" (Ligar a um Voluntário), desenvolvida em parceria com a organização Be My Eyes. Anunciada inicialmente em setembro do ano passado e disponibilizada de forma limitada em novembro nos EUA, Canadá, Reino Unido, Irlanda e Austrália, esta ferramenta chegará "a todos os 18 países onde a Meta AI é suportada ainda este mês" (maio de 2025). Não foi especificado se Portugal se encontra entre estes países.
Com esta funcionalidade, os utilizadores cegos ou com baixa visão dos Ray-Ban Meta podem, através de um simples comando de voz como "Hey Meta, Be My Eyes", estabelecer uma ligação com um dos mais de 8 milhões de voluntários com visão que integram a rede da Be My Eyes. O voluntário consegue ver o ambiente do utilizador através de uma transmissão em direto da câmara dos óculos e pode oferecer descrições ou outro tipo de ajuda através dos altifalantes de design aberto dos óculos. Tarefas quotidianas como seguir uma receita ou localizar um objeto numa prateleira podem assim tornar-se mais acessíveis.
Estas inovações sublinham o potencial da inteligência artificial e da tecnologia wearable para criar soluções de acessibilidade mais robustas e intuitivas.
Nenhum comentário
Seja o primeiro!