
A Meta acaba de reforçar o seu arsenal de Inteligência Artificial com a oficialização de dois novos modelos focados na edição e reconstrução visual: o SAM 3 e o SAM 3D. Estas novidades, apresentadas nesta quarta-feira (19), destacam-se por não pertencerem à conhecida família Llama, focando-se exclusivamente em elevar a fasquia na manipulação de imagens e vídeos nas plataformas da gigante tecnológica.
O Segment Anything Model 3 (SAM 3) surge com a promessa de uma versatilidade superior na interpretação de comandos, enquanto o SAM 3D tem como missão transformar imagens estáticas em representações tridimensionais detalhadas.
SAM 3: A precisão na segmentação chega ao vídeo
O novo Segment Anything Model 3 foi desenhado para compreender e executar tarefas complexas através de diferentes tipos de "prompts", sejam eles texto, exemplos visuais ou indicadores diretos na imagem. O grande objetivo desta ferramenta é detetar, segmentar e rastrear objetos com precisão, tanto em fotografias como em clipes de vídeo.

Entre as aplicações práticas mais imediatas, o SAM 3 será o motor por trás de novas funcionalidades de edição de vídeo, permitindo aplicar efeitos específicos apenas a determinadas pessoas ou objetos através do Edits. A Meta confirmou ainda que esta tecnologia vai potenciar novas experiências no Vibes e no assistente Meta AI, estando disponível tanto nas aplicações móveis como na versão web.
Além do entretenimento, a tecnologia tem uma vertente de sustentabilidade. A Meta uniu forças com a Conservation X Labs e a Osa Conservation para aplicar o SAM 3 num vasto banco de dados de vídeo focado na monitorização da vida selvagem. O projeto conta com acesso público a mais de 10 mil câmaras, com a capacidade de identificar e seguir mais de 100 espécies diferentes.
SAM 3D: Do 2D para o 3D num piscar de olhos
Por sua vez, o SAM 3D introduz dois modelos de ponta dedicados à reconstrução tridimensional de objetos e pessoas a partir de uma única fotografia. A Meta disponibiliza esta tecnologia como um conjunto de código aberto, com a ambição de estabelecer um novo padrão de qualidade para a geração de 3D baseada em cenários do mundo real.
A utilidade prática deste modelo será visível no dia a dia dos utilizadores, uma vez que trabalhará em conjunto com o SAM 3 para impulsionar a funcionalidade "Visualizar no Ambiente". Este recurso, recentemente introduzido no Facebook Marketplace, permite aos compradores verem como determinados itens de decoração ficariam nos seus próprios espaços antes de fecharem negócio.

Para quem quiser testar estas capacidades em primeira mão, a empresa anunciou o Segment Anything Playground. Trata-se de uma plataforma onde os utilizadores podem experimentar estes novos modelos em modificações criativas de multimédia e compreender o verdadeiro potencial da tecnologia. O acesso à demonstração pode ser feito através deste link.










Nenhum comentário
Seja o primeiro!