A Google acaba de confirmar algumas novidades a chegarem ao Gemini, que vai permitir melhorar ainda mais as capacidades da plataforma de IA da empresa. O Gemini Live agora passa a contar com a capacidade de “olhar” para o mundo em redor dos utilizadores.
A funcionalidade já tinha sido revelada o ano passado, mas apenas agora encontra-se finalmente a chegar junto dos utilizadores. Com a mesma, usando o Gemini Live, os utilizadores podem rapidamente usar a câmara dos seus dispositivos para obterem informações.
Por exemplo, os utilizadores podem conversar diretamente com o Gemini Live, enquanto apontam com a câmara para algum objeto ou local. Dessa forma, pode-se adicionar mais contexto para as questões colocadas.
Por exemplo, pode-se usar esta funcionalidade para obter recomendações sobre quais os conjuntos de roupa a usar, ou para descodificar quais as melhores formas de colocar uma roupa a lavar, olhando para a etiqueta da mesma.
A ideia será usar o Gemini Live para colocar questões, enquanto o mesmo analisa o mundo em redor do utilizador. Pode-se filmar uma sala e obter sugestões do Gemini Live de como a reestruturar melhor, ou que alterações a realizar.
Em futuras atualizações, este sistema pode vir a ser usado para rapidamente se obter informações sobre empresas e locais, algo que a Google confirmou que iria chegar quando apresentou a funcionalidade no Android XR.
Mas por agora, as suas capacidades com foco em objetos específicos.
A funcionalidade encontra-se atualmente disponível para o Gemini Advanced, nos dispositivos Pixel 9 e Samsung Galaxy S25. Eventualmente, esta deve ficar disponível para mais dispositivos, conforme a atualização seja alargada aos mesmos.
Nenhum comentário
Seja o primeiro!