Faz menos de um mês que a DeepSeek revelou o seu modelo de IA R1, trazendo mudanças para o mercado. O R1 foi classificado como tendo um desempenho similar ao modelo da OpenAI, mas sendo inteiramente open source e com um custo final bastante reduzido.
No entanto, tendo em conta que a DeepSeek é uma entidade chinesa, esta terá de limitar a sua versão publicamente acessível do modelo com base nas leis locais. Portanto, algumas questões feitas ao R1 poderiam ser censuradas – sobretudo relacionadas com eventos que o governo da China não pretenda distribuir.
A pensar nisso, a Perplexity acaba de lançar um novo modelo do R1, que não conta com a censura que se aplica na China. O R1 1776 trata-se de um modelo baseado no R1 da DeepSeek, mas que vai ser inteiramente livre de qualquer censura do governo chinês. O mesmo já se encontra disponível diretamente do HuggingFace para os interessados.
Basicamente, a Perplexity terá pegado no modelo aberto do R1, colocando o mesmo a treinar a informação que, de outra forma, seria censurada na China. Portanto, as capacidades do modelo foram melhoradas, ao mesmo tempo que continuam a ser inteiramente abertas, mas agora sem censura direta das respostas.
A nível de benchmarks, o R1 e R1 1776 possuem praticamente os mesmos valores, isto porque são, na prática, o mesmo modelo. As diferenças partem apenas de alguns treinos adicionais feitos para as questões censuradas do governo da China.
Nenhum comentário
Seja o primeiro!