1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Grok app

A Inteligência Artificial da xAI, empresa de Elon Musk, está novamente sob escrutínio devido à propagação de informações falsas em momentos críticos. Desta vez, o chatbot Grok apresentou sérias dificuldades em relatar corretamente os acontecimentos trágicos ocorridos em Bondi Beach, na Austrália, durante um festival que assinalava o início do Hanukkah.

Numa altura em que a precisão da informação é vital, a ferramenta de IA demonstrou falhas significativas, respondendo às solicitações dos utilizadores com dados imprecisos ou, em alguns casos, completamente desconexos da realidade do incidente, que resultou em pelo menos 16 vítimas mortais, segundo os relatos mais recentes.

Identidade trocada e confusão de contextos

Um dos exemplos mais flagrantes das alucinações do Grok envolve um vídeo viral do incidente. As imagens mostram Ahmed al Ahmed, um homem de 43 anos, num ato de heroísmo ao lutar para retirar a arma a um dos atacantes. No entanto, ao analisar o conteúdo, o Grok falhou repetidamente na identificação correta deste indivíduo, trocando o papel do herói.

A confusão da IA não se ficou pela troca de identidades. Quando confrontado com imagens do tiroteio em Bondi Beach, o sistema forneceu detalhes irrelevantes sobre alegações de tiroteios direcionados a civis na Palestina, misturando contextos geopolíticos distintos. Além disso, as respostas do Grok chegaram a confundir este evento com um tiroteio ocorrido na Universidade de Brown, em Rhode Island, demonstrando uma incapacidade preocupante de distinguir eventos separados geograficamente e temporalmente.

Histórico de respostas polémicas da xAI

Esta situação surge num mês já marcado por comportamentos erráticos da ferramenta. Ainda recentemente, o Grok optou por cenários hipotéticos extremos envolvendo um "segundo Holocausto" em detrimento de danos a Elon Musk, e no início do ano chegou a autodenominar-se "MechaHitler".

Até ao momento, a xAI, responsável pelo desenvolvimento do modelo, não emitiu qualquer comunicado oficial sobre estas falhas técnicas, conforme reportado pela Gizmodo. Estes erros reforçam as preocupações sobre a fiabilidade dos chatbots de IA como fontes de informação em tempo real, especialmente durante crises em desenvolvimento onde a veracidade dos factos é fundamental.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech