Google proíbe anunciantes de promover serviços pornográficos deepfake

O Google proíbe há muito tempo anúncios sexualmente explícitos – mas até agora, a empresa não proibiu os anunciantes de promover Serviços que as pessoas podem usar para fazer pornografia deepfake e outras formas de nus gerados. Isso está prestes a mudar.

Atualmente, o Google proíbe os anunciantes de promover “conteúdo sexualmente explícito”, que o Google define como “texto, imagem, áudio ou vídeo de atos sexuais explícitos com a intenção de excitar”. A nova política agora proíbe a publicidade de serviços que ajudem os usuários a criar também esse tipo de conteúdo, seja alterando a imagem de uma pessoa ou gerando uma nova.

A mudança, que entrará em vigor em 30 de maio, proíbe “a promoção de conteúdo sintético que tenha sido alterado ou gerado para ser sexualmente explícito ou conter nudez”, como sites e aplicativos que instruem as pessoas sobre como criar pornografia deepfake.

“Esta atualização visa proibir explicitamente anúncios de serviços que oferecem a criação de pornografia deepfake ou conteúdo sintético de nudez”, disse o porta-voz do Google, Michael Aciman. A beira.

Aciman diz que quaisquer anúncios que violem suas políticas serão removidos, acrescentando que a empresa usa uma combinação de análises humanas e sistemas automatizados para fazer cumprir essas políticas. Em 2023, o Google removeu mais de 1,8 bilhão de anúncios por violarem suas políticas sobre conteúdo sexual, de acordo com o Relatório Anual de Segurança de Anúncios da empresa.

A mudança foi relatada pela primeira vez por 404 Mídia. Como 404 observa que, embora o Google já tenha proibido os anunciantes de promover conteúdo sexualmente explícito, alguns aplicativos que facilitam a criação de pornografia deepfake contornaram isso anunciando-se como não sexuais nos anúncios do Google ou na Google Play Store. Por exemplo, um aplicativo de troca de rosto não se anunciava como sexualmente explícito na Google Play Store, mas o fazia em sites pornográficos.

A pornografia deepfake não consensual tornou-se um problema consistente nos últimos anos. Dois estudantes do ensino médio da Flórida foram presos em dezembro passado por supostamente criarem fotos nuas de seus colegas de classe geradas por IA. Ainda esta semana, um homem de Pittsburgh, de 57 anos, foi condenado a mais de 14 anos de prisão por possuir material falso de abuso sexual infantil. No ano passado, o FBI emitiu um comunicado sobre um “aumento” nos esquemas de extorsão que envolviam chantagem de pessoas com nus gerados por IA. Embora muitos modelos de IA tornem difícil – se não impossível – para os usuários criarem nus gerados por IA, alguns serviços permitem que os usuários gerem conteúdo sexual.

Em breve poderá haver uma ação legislativa sobre pornografia deepfake. No mês passado, a Câmara e o Senado introduziram a Lei DEFIANCE, que estabeleceria um processo através do qual as vítimas de “falsificação digital” poderiam processar pessoas que fizessem ou distribuíssem deepfakes não consensuais delas.

theverge