
A Google está a preparar uma transformação profunda na forma como interagimos com os nossos telemóveis. De acordo com uma publicação no blogue oficial para programadores da empresa, a experiência tradicional de abrir aplicações e tocar nos menus está prestes a mudar. O sistema operativo Android vai entrar numa nova etapa onde a inteligência artificial atua como intermediária, executando ações complexas dentro das plataformas apenas a partir de um pedido verbal ou escrito do utilizador.
O fim da navegação manual nas aplicações
No universo da inteligência artificial, um agente destaca-se por ir além da simples consulta de informação, passando diretamente para a ação. O plano da fabricante norte-americana passa por implementar sistemas que compreendem a intenção do utilizador, avaliam o contexto do equipamento e decidem autonomamente quais os passos necessários para concluir uma tarefa.
Esta mudança de paradigma afeta também a métrica de sucesso das próprias aplicações. Se até agora o objetivo era manter o utilizador o máximo de tempo possível a interagir diretamente com a interface, no novo ecossistema o foco estará na capacidade da aplicação de colaborar de forma invisível com a inteligência artificial para resolver problemas de imediato.
Como funcionam as novas ferramentas de integração
Para tornar esta visão uma realidade, a empresa está a explorar dois caminhos distintos. O primeiro baseia-se num sistema designado por AppFunctions. Esta não é uma ferramenta visível para o público comum, mas sim um conjunto de recursos que permite aos programadores expor as funções e os dados das suas aplicações a assistentes inteligentes como o Gemini.
Um exemplo prático partilhado pela tecnológica envolve a recentemente apresentada série Galaxy S26. Neste equipamento, o Gemini consegue aceder aos recursos da galeria da Samsung para encontrar fotografias específicas, como imagens de um animal de estimação, recorrendo apenas a um pedido em linguagem natural. O sistema interpreta a ordem, ativa a pesquisa interna da galeria e devolve os resultados sem que seja necessário percorrer as pastas de fotografias manualmente.
Testes iniciais na interface e segurança do utilizador
A segunda abordagem concentra-se na automatização direta da interface. Este método permite ao Gemini lidar com tarefas genéricas de vários passos, mesmo em aplicações que não tenham as integrações específicas preparadas pelos programadores. Em vez de recorrer ao código de bastidores, a inteligência artificial atua diretamente sobre os elementos do ecrã.
Esta funcionalidade encontra-se numa fase de visualização prévia e começará a ser testada através da aplicação do Gemini na mesma série S26 e em alguns modelos Pixel 10. Para já, a experiência de automação de interface estará limitada a uma seleção restrita de serviços de entrega, supermercados e transportes, disponíveis apenas nos Estados Unidos e na Coreia do Sul.
Para acautelar a segurança, o sistema foi desenhado de forma a manter a total transparência. O progresso das tarefas automatizadas pode ser acompanhado pelo utilizador através de notificações ou de uma vista em direto. Fica também garantida a possibilidade de interromper o processo e assumir o controlo manual a qualquer instante, sendo que os utilizadores receberão sempre um aviso prévio antes de a inteligência artificial concretizar ações mais sensíveis, como confirmar uma compra ou pagamento.












Nenhum comentário
Seja o primeiro!