A Stable Diffusion dificultou a cópia de artistas e a geração de pornografia e os usuários estão loucos

Os usuários do gerador de imagem AI Stable Diffusion estão irritados com uma atualização do software que “enfraquece” sua capacidade de gerar saída NSFW e imagens no estilo de artistas específicos.

Stability AI, a empresa que financia e dissemina o software, anunciou Stable Diffusion Versão 2 cedo esta manhã horário europeu. A atualização reprojeta os principais componentes do modelo e melhora certos recursos, como upscaling (a capacidade de aumentar a resolução das imagens) e pintura interna (edição com reconhecimento de contexto). Mas as mudanças também tornam mais difícil para o Stable Diffusion gerar certos tipos de imagens que atraíram tanto controvérsia quanto críticas. Isso inclui produção de nudez e pornografia, fotos fotorrealistas de celebridades e imagens que imitam a arte de artistas específicos.

“Eles nerfaram o modelo”

“Eles nerfaram o modelo”, comentou um usuário em um sub-reddit do Stable Diffusion. “É uma surpresa meio desagradável”, disse outro no servidor Discord oficial do software.

Os usuários observam que pedir à versão 2 do Stable Diffusion para gerar imagens no estilo de Greg Rutkowski – um artista digital cujo nome se tornou uma abreviação literal para produzir imagens de alta qualidade – não cria mais obras de arte que se assemelham muito às suas. (Compare essas duas imagens, por exemplo). “O que você fez com Greg😔,” comentou um usuário no Discord.

As mudanças na difusão estável são notáveis, pois o software é extremamente influente e ajuda a definir normas na cena de IA generativa em movimento rápido. Ao contrário de modelos rivais como o DALL-E da OpenAI, o Stable Diffusion é de código aberto. Isso permite que a comunidade melhore rapidamente a ferramenta e que os desenvolvedores a integrem em seus produtos gratuitamente. Mas também significa que o Stable Diffusion tem menos restrições na forma como é usado e, como consequência, atraiu críticas significativas. Em particular, muitos artistas, como Rutkowski, estão incomodados com o fato de que a Stable Diffusion e outros modelos geradores de imagens foram treinados em suas obras de arte sem seu consentimento e agora podem reproduzir seus estilos. Se esse tipo de cópia habilitada para IA é legal ou não, é uma questão em aberto. Especialistas dizem que o treinamento de modelos de IA em dados protegidos por direitos autorais provavelmente é legal, mas certos casos de uso podem ser contestados no tribunal.

Uma grade de imagens mostrando comparações lado a lado de obras de arte geradas por IA criadas usando diferentes versões do Stable Diffusion.
a:hover]:text-gray-63 text-gray-63 dark:[&>a:hover]:texto-cinza-bd escuro:texto-cinza-bd escuro:[&>a]:texto-cinza-bd [&>a]:sombra-sublinhado-cinza-63 [&>a:hover]:sombra-sublinhado-preto escuro:[&>a]:sombra-sublinhado-cinza escuro:[&>a:hover]:shadow-underline-gray”>Imagem: lkewis via Reddit

Os usuários do Stable Diffusion especularam que as mudanças no modelo foram feitas pela Stability AI para mitigar tais possíveis desafios legais. No entanto, quando The Verge perguntou ao fundador da Stability AI, Emad Mostaque, se esse era o caso em um bate-papo privado, Mostaque não respondeu. Mostaque confirmou, embora Stability AI não tenha removido as imagens dos artistas dos dados de treinamento (como muitos usuários especularam). Em vez disso, a capacidade reduzida do modelo de copiar artistas é resultado de alterações feitas na forma como o software codifica e recupera dados.

“Não houve filtragem específica de artistas aqui”, disse Mostaque The Verge. (Ele também expandiu a base técnica dessas mudanças em uma mensagem postada no Discord.)

O que foi removido dos dados de treinamento do Stable Diffusion, no entanto, são imagens de nudez e pornografia. Os geradores de imagem AI já estão sendo usados ​​para gerar saída NSFW, incluindo fotos fotorrealistas e no estilo anime. No entanto, esses modelos também podem ser usados ​​para gerar imagens NSFW semelhantes a indivíduos específicos (conhecidos como pornografia não consensual) e imagens de abuso infantil.

Discutindo as alterações Stable Diffusion Versão 2 no Discord oficial do software, Mostaque observa que este último caso de uso é o motivo para filtrar o conteúdo NSFW. “não pode ter filhos e nsfw em um modelo aberto”, diz Mostaque (já que os dois tipos de imagens podem ser combinados para criar material de abuso sexual infantil), “portanto, livre-se das crianças ou livre-se do nsfw”.

Um usuário do sub-reddit do Stable Diffusion disse que a remoção do conteúdo NSFW era “censura” e “contra a filosofia do espírito da comunidade Open Source”. Disse o usuário: “Escolher fazer conteúdo NSFW ou não, deve ficar nas mãos do usuário final, não [sic] em um modelo limitado/censurado.” Outros, no entanto, observaram que a natureza de código aberto do Stable Diffusion significa que os dados de treinamento nus podem ser facilmente adicionados de volta a versões de terceiros e que o novo software não afeta as versões anteriores: “Não se preocupe com a falta de artistas / NSFW, você poderá gerar sua celebridade favorita nua em breve e de qualquer maneira você já pode.

Embora as mudanças no Stable Diffusion Versão 2 tenham incomodado alguns usuários, muitos outros elogiaram seu potencial para funcionalidades mais profundas, como a nova capacidade do software de produzir conteúdo que corresponda à profundidade de uma imagem existente. Outros disseram que as mudanças dificultaram a produção rápida de imagens de alta qualidade, mas que a comunidade provavelmente adicionaria essa funcionalidade novamente em versões futuras. Como um usuário do Discord resumiu as mudanças: “2.0 é melhor para interpretar prompts e criar imagens fotográficas coerentes em minha experiência até agora. não vai fazer peitos rutkowski embora.

O próprio Mostaque comparou o novo modelo a uma base de pizza que permite a qualquer pessoa adicionar ingredientes (ou seja, dados de treinamento) de sua escolha. “Um bom modelo deve ser usado por todos e se você quiser adicionar coisas, adicione coisas”, disse ele no Discord.

Mostaque também disse que as versões futuras do Stable Diffusion usariam conjuntos de dados de treinamento que permitiriam aos artistas optar ou não – um recurso que muitos artistas solicitaram e que poderia ajudar a mitigar algumas críticas. “Estamos tentando ser super transparentes à medida que melhoramos os modelos básicos e incorporamos o feedback da comunidade”, disse Mostaque The Verge.

Uma demonstração pública do Stable Diffusion Versão 2 pode ser acessada aqui (embora devido às altas demandas dos usuários, o modelo pode ser inacessível ou lento).



https://linkmycontent.com/wp-content/uploads/situs-judi-slot-gacor-gampang-menang/

https://threeguru.com/wp-content/uploads/situs-slot-gacor-gampang-menang/

https://www.padslakecounty.org/wp-content/uploads/rekomendasi-situs-slot-gacor-gampang-menang/

https://sandpointmedspa.com/wp-content/uploads/bocoran-situs-slot-gacor-gampang-menang/

https://ihmcathedral.com/wp-includes/daftar-situs-slot-gacor-gampang-menang/

https://irisprojects.com/daftar-judi-slot-online-jackpot-terbesar/

www.techeasypay.com/slot-gacor-online-gampang-menang

https://www.clinicavalparaiso.cl/kumpulan-situs-slot-gacor-terbaik-gampang-menang-resmi/

https://www.forumartcentre.com/wp-includes/slot-gacor/

https://lawschoolsecretstosuccess.com/wp-includes/slot-gacor/

https://threeguru.com/wp-includes/link-situs-slot-gacor/