1. TugaTech » Software » Noticias de Software
  Login     Registar    |                      
Siga-nos

ChatGPT em smartphone

A OpenAI disponibilizou um novo conjunto de instruções desenhadas para ajudar os programadores a criar aplicações mais seguras destinadas a adolescentes. Conforme detalhado no repositório oficial da empresa no GitHub, estas políticas de segurança podem ser utilizadas em conjunto com o seu modelo de pesos abertos, conhecido como gpt-oss-safeguard.

Em vez de começarem do zero para descobrir como tornar a inteligência artificial mais segura para os jovens, os criadores podem agora usar estes comandos para reforçar os seus projetos. As orientações abordam temas sensíveis, como violência gráfica e conteúdo sexual, comportamentos e ideais de imagem corporal prejudiciais, atividades perigosas, encenações românticas ou violentas e o acesso a bens e serviços com restrição de idade.

Uma base sólida para programadores

Estas políticas foram estruturadas como comandos diretos, o que as torna facilmente compatíveis com outros modelos além do gpt-oss-safeguard, embora a empresa note que a sua eficácia máxima ocorre dentro do seu próprio ecossistema. Para redigir este pacote, a empresa colaborou com observatórios de segurança em inteligência artificial, nomeadamente a Common Sense Media e a everyone.ai.

Robbie Torney, responsável pelas avaliações digitais e de inteligência artificial na Common Sense Media, referiu num comunicado que estas políticas baseadas em comandos ajudam a estabelecer uma base de segurança significativa em todo o ecossistema. O responsável sublinhou ainda que, por serem lançadas em formato de código aberto, podem ser adaptadas e melhoradas ao longo do tempo.

A empresa sublinha que os programadores, mesmo integrados em equipas experientes, enfrentam frequentemente dificuldades em traduzir os objetivos de segurança em regras operacionais precisas. Esta falha pode resultar em lacunas na proteção, aplicação inconsistente de regras ou filtros demasiado abrangentes. Desta forma, políticas claras e bem delimitadas são consideradas uma base fundamental para sistemas de segurança eficazes.

Os desafios da moderação e o histórico da empresa

A criadora do ChatGPT admite que estas diretrizes não são uma solução definitiva para os complexos desafios da segurança neste setor. No entanto, a iniciativa constrói sobre esforços anteriores, que já incluíam salvaguardas ao nível do produto, como controlos parentais e previsão de idade. No ano passado, a entidade já tinha atualizado as diretrizes para os seus grandes modelos de linguagem, através do Model Spec, com o objetivo de orientar o comportamento da tecnologia perante utilizadores com menos de 18 anos.

O histórico da empresa, contudo, tem enfrentado turbulências. A entidade está a lidar com vários processos judiciais interpostos por famílias de vítimas de suicídio, incidentes que ocorreram após a utilização extrema do seu conhecido chatbot. Estas relações perigosas formam-se frequentemente quando o utilizador consegue contornar as salvaguardas da plataforma, demonstrando que as barreiras de nenhum modelo são totalmente impenetráveis. Apesar disso, a disponibilização destas políticas representa um passo em frente, oferecendo uma ajuda particularmente útil para programadores independentes.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech