Os utilizadores que usam o Copilot da Microsoft podem brevemente ter uma nova funcionalidade disponível no sistema, que vai ajudar a realizar pesquisas mais aprofundadas sobre os temas colocados ao assistente.
A nova funcionalidade de deep research vai agora ficar disponível para o Copilot, junto de todos os utilizadores com subscrição ao Microsoft 365. Esta funcionalidade permite que o assistente de IA da Microsoft possa realizar uma análise mais aprofundada de pesquisa para as questões colocadas ao mesmo.
O deep research é algo que tem sido integrado em outros modelos de IA, como é o caso do Gemini e ChatGPT, permitindo alargar a pesquisa a determinados temas, para fornecer respostas mais completas e com todos os detalhes. Basicamente, a resposta demora mais a ser fornecida, mas será mais completa e fiável.
No caso do sistema da Microsoft, a empresa irá lançar a novidade como os novos agentes do Copilot, conhecidos como “Researcher” e “Analyst”.
O Researcher é um modelo que combina a investigação aprofundada que já existe no ChatGPT, e combina com um raciocínio avançado para tarefas complexas. A Microsoft afirma que este modelo pode ser usado para realizar análises exaustivas de dados e criar estratégias avançadas para vários temas.
O Analyst, por sua vez, encontra-se baseado no modelo o3-mini da OpenAI, mas com melhorias focadas para tornar a analise de dados mais eficiente e dedicada. Este agente terá a capacidade de analisar os dados, e de realizar um raciocínio avançado de análise dos mesmos.
O que torna os agentes do Copilot diferente dos restantes modelos existentes será o facto destes poderem analisar os documentos e informações de trabalho, que sejam fornecidas ao mesmo como parte do Microsoft 365, como também conjugar essa informação com pesquisas na Internet, que podem alargar substancialmente o contexto fornecido.
A Microsoft afirma que um dos desafios ainda se encontra em tentar evitar que os modelos alucinem demasiado, criando resultados que não são os verdadeiros. A empresa afirma ter trabalhado para reduzir ao máximo essa possibilidade – mas como sempre, ainda são modelos de IA, e portanto podem criar esses resultados inesperados.
Nenhum comentário
Seja o primeiro!