Explosão no Pentágono – uma imagem falsa criada por inteligência artificial circulou nas redes sociais

Na segunda-feira, 22 de maio, uma foto falsa de uma explosão no Pentágono apareceu nas redes sociais. Esta publicação levou a uma queda das ações no mercado de ações. Esta é provavelmente a primeira vez na história que uma foto gerada por IA impacta o mercado, de acordo com a Bloomberg.

A foto apareceu pela primeira vez no Facebook. Mostrava uma coluna de fumaça subindo do prédio do Pentágono. A imagem logo chegou ao Twitter, onde passou a ser compartilhada por contas com milhões de seguidores e checkmarks de verificação azuis, que já estão disponíveis para os assinantes da versão paga da rede social. Entre as contas que postaram a foto estão o recurso de propaganda russa RT e o site de notícias financeiras ZeroHedge.

VOCÊ TERÁ INTERESSE

O Pentágono respondeu ao pedido de Bloomberg de que não havia relatos de incidentes perto do prédio do departamento militar. A declaração correspondente foi feita pela polícia.

Os usuários das redes sociais começaram a especular que a foto poderia ter sido gerada por inteligência artificial. O investigador do Bellingcat, Nick Waters, disse que o “choque” da explosão do Pentágono o levou a estudar a foto. Ele notou estranhezas na fachada do prédio, bem como o fato de a cerca se fundir com a cerca restritiva. Além disso, Waters chamou a atenção para o fato de que nenhuma outra foto ou vídeo da explosão apareceu nas redes sociais.

Depois disso, as contas do Twitter começaram a excluir a foto e o ZeroHedge não apenas excluiu a imagem, mas também escreveu que era falsa. Mas o índice de ações S&P 500 caiu cerca de 0,3% no momento da distribuição mais ativa de fotos na rede, mas depois se recuperou rapidamente.

Quem e por que criou e distribuiu a imagem é desconhecido. A conta que postou no Facebook foi sinalizada como espalhando informações falsas.

A sugestão de que foi gerado por IA levanta preocupações de que novas tecnologias criem condições para a criação de fotografias e outros conteúdos que serão usados ​​para espalhar desinformação.

Anteriormente, os cientistas descobriram que a inteligência artificial pode criar rostos sintéticos de pessoas que parecem mais críveis do que os reais e inspiram mais confiança. Os rostos criados pela rede neural foram capazes de enganar até observadores experientes.

Notou um erro?
Selecione-o com o mouse e pressione Ctrl+Enter ou Enviar um erro

Deixe uma resposta