As especificações do modelo da OpenAI descrevem algumas regras básicas para IA

As ferramentas de IA que se comportam mal – como o Bing AI da Microsoft, perdendo a noção do ano em que se encontram – tornaram-se um subgênero de relatórios sobre IA. Mas muitas vezes é difícil dizer a diferença entre um bug e uma construção deficiente do modelo de IA subjacente que analisa os dados recebidos e prevê qual será uma resposta aceitável, como o gerador de imagens Gemini do Google que atrai diversos nazistas devido a uma configuração de filtro.

Agora, a OpenAI está lançando o primeiro rascunho de uma estrutura proposta, chamada Model Spec, que moldaria como as ferramentas de IA, como seu próprio modelo GPT-4, responderiam no futuro. A abordagem OpenAI propõe três princípios gerais – que os modelos de IA devem ajudar o desenvolvedor e o usuário final com respostas úteis que sigam as instruções, beneficiem a humanidade considerando os benefícios e danos potenciais e reflitam bem sobre a OpenAI no que diz respeito às normas e leis sociais.

Também inclui várias regras:

A OpenAI diz que a ideia é também permitir que empresas e usuários “alternem” o quão “picantes” os modelos de IA podem ficar. Um exemplo que a empresa aponta é o conteúdo NSFW, onde a empresa diz que está “explorando se podemos fornecer de forma responsável a capacidade de gerar conteúdo NSFW em contextos apropriados à idade por meio da API e do ChatGPT”.

Uma seção das especificações do modelo relacionada a como um assistente de IA deve lidar com os perigos da informação.
Captura de tela: OpenaI

Joanne Jang, gerente de produto da OpenAI, explica que a ideia é obter a opinião do público para ajudar a direcionar como os modelos de IA devem se comportar e diz que esta estrutura ajudaria a traçar uma linha mais clara entre o que é intencional e um bug. Entre os comportamentos padrão que a OpenAI propõe para o modelo estão assumir as melhores intenções do usuário ou desenvolvedor, fazer perguntas esclarecedoras, não exagerar, ter um ponto de vista objetivo, desencorajar o ódio, não tentar mudar a opinião de ninguém, e expressar incerteza.

“Achamos que podemos trazer blocos de construção para que as pessoas tenham conversas mais detalhadas sobre modelos e façam perguntas como se os modelos deveriam seguir a lei, de quem é a lei?” Jang conta A beira. “Espero que possamos dissociar as discussões sobre se algo é ou não um bug ou se uma resposta foi um princípio com o qual as pessoas não concordam, porque isso tornaria mais fáceis as conversas sobre o que deveríamos trazer para a equipe de política.”

As especificações do modelo não afetarão imediatamente os modelos atualmente lançados da OpenAI, como GPT-4 ou DALL-E 3, que continuam a operar sob suas políticas de uso existentes.

Jang chama o comportamento do modelo de “ciência nascente” e diz que o Model Spec pretende ser um documento vivo que pode ser atualizado com frequência. Por enquanto, a OpenAI aguardará feedback do público e das diferentes partes interessadas (incluindo “decisores políticos, instituições confiáveis ​​e especialistas de domínio”) que utilizam os seus modelos, embora Jang não tenha dado um prazo para o lançamento de um segundo rascunho do Modelo. Especificações.

A OpenAI não disse quanto do feedback do público pode ser adotado ou exatamente quem determinará o que precisa ser mudado. Em última análise, a empresa tem a palavra final sobre como seus modelos se comportarão e disse em uma postagem que “Esperamos que isso nos forneça insights iniciais à medida que desenvolvemos um processo robusto para coletar e incorporar feedback para garantir que estamos construindo de forma responsável nossa missão”. .”

theverge

Deixe um comentário