Google, Meta, Discord e outros se unem para combater o abuso infantil online


Um novo programa chamado Lantern visa combater a exploração e abuso sexual infantil online (OCSEA) com compartilhamento de sinais multiplataforma entre empresas online como Meta e Discord. A Tech Coalition, um grupo de empresas de tecnologia com o objetivo cooperativo de combater a exploração sexual infantil online, escreveu no anúncio de hoje que o programa é uma tentativa de impedir que os predadores evitem a detecção, movendo potenciais vítimas para outras plataformas.

O Lantern serve como um banco de dados central para as empresas contribuírem com dados e verificarem suas próprias plataformas. Quando as empresas veem sinais, como endereços de e-mail ou nomes de usuário que violam a política OCSEA, hashes de material de abuso sexual infantil (CSAM) ou palavras-chave CSAM, elas podem sinalizá-los em seus próprios sistemas. O anúncio observa que, embora os sinais não provem estritamente o abuso, eles ajudam as empresas a investigar e possivelmente a tomar medidas como encerrar uma conta ou denunciar a atividade às autoridades.

Uma visualização mostrando como o Lantern funciona.
Imagem: A Coalizão Tecnológica

Meta escreveu em uma postagem de blog anunciando sua participação no programa que, durante a fase piloto do Lantern, usou informações compartilhadas por um dos parceiros do programa, Mega, para remover “mais de 10.000 perfis violadores do Facebook, páginas e contas do Instagram” e denunciá-los a o Centro Nacional para Crianças Desaparecidas e Exploradas.

O anúncio da coalizão também cita John Redgrave, chefe de confiança e segurança do Discord, que afirma: “O Discord também agiu com base em dados compartilhados conosco por meio do programa, o que ajudou em muitas investigações internas”.

As empresas participantes do Lantern até agora incluem Discord, Google, Mega, Meta, Quora, Roblox, Snap e Twitch. Os membros da coligação têm desenvolvido o Lantern nos últimos dois anos e o grupo afirma que, além de criar soluções técnicas, teve de submeter o programa a uma “verificação de elegibilidade” e garantir que está em conformidade com os requisitos legais e regulamentares e que é “eticamente compatível”. ”

Um dos grandes desafios de programas como este é ter certeza de que são eficazes e não apresentam novos problemas. Em um incidente de 2021, um pai foi investigado pela polícia depois que o Google o sinalizou para CSAM por causa de fotos de uma infecção na virilha de seu filho. Vários grupos alertaram que problemas semelhantes poderiam surgir com o recurso automatizado de digitalização CSAM da biblioteca de fotos iCloud da Apple, agora cancelado.

A coalizão supervisionará o Lantern e diz que é responsável por estabelecer diretrizes e regras claras para o compartilhamento de dados. Como parte do programa, as empresas devem realizar formação obrigatória e verificações de rotina, e o grupo irá rever regularmente as suas políticas e práticas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *