Microsoft oferece às vítimas de pornografia deepfake uma ferramenta para limpar imagens da pesquisa do Bing


O avanço das ferramentas de IA generativas criou um novo problema para a internet: a proliferação de imagens sintéticas de nudez que lembram pessoas reais. Na quinta-feira, a Microsoft deu um passo importante para dar às vítimas de pornografia de vingança uma ferramenta para impedir que seu mecanismo de busca Bing retorne essas imagens.

A Microsoft anunciou uma parceria com PareNCII, uma organização que permite que vítimas de pornografia de vingança criem uma impressão digital dessas imagens explícitas, reais ou não, em seus dispositivos. Os parceiros da StopNCII então usam essa impressão digital, ou “hash”, como é tecnicamente conhecido, para limpar a imagem de suas plataformas. O Bing da Microsoft se junta ao Facebook, Instagram, Threads, TikTok, Snapchat, Reddit, Pornhub e OnlyFans na parceria com a StopNCII e no uso de suas impressões digitais para impedir a disseminação da pornografia de vingança.

Em um postagem de blogA Microsoft diz que já tomou medidas em 268.000 imagens explícitas retornadas pela busca de imagens do Bing em um piloto até o final de agosto com o banco de dados do StopNCII. Anteriormente, a Microsoft oferecia uma ferramenta de denúncia direta, mas a empresa diz que isso provou não ser suficiente.

“Ouvimos preocupações de vítimas, especialistas e outras partes interessadas de que os relatórios de usuários por si só podem não ter impacto efetivo ou abordar adequadamente o risco de que as imagens possam ser acessadas por meio de pesquisa”, disse a Microsoft em sua postagem de blog na quinta-feira.

Você pode imaginar o quanto esse problema seria pior em um mecanismo de busca significativamente mais popular: o Google.

O Google Search oferece suas próprias ferramentas para denunciar e remover imagens explícitas de seus resultados de pesquisa, mas enfrentou críticas de ex-funcionários e vítimas por não fazer parceria com o StopNCII, de acordo com um Investigação com fio. Desde 2020, usuários do Google na Coreia do Sul relataram 170.000 links de pesquisa e do YouTube com conteúdo sexual indesejado, informou a Wired.

O problema do deepfake nu da IA ​​já é generalizado. As ferramentas do StopNCII só funcionam para pessoas com mais de 18 anos, mas os sites de “despir” já estão criando problemas para estudantes do ensino médio em todo o país. Infelizmente, os Estados Unidos não têm uma lei de pornografia deepfake de IA para responsabilizar alguém, então o país está contando com uma abordagem de retalhos de leis estaduais e locais para resolver o problema.

Os promotores de São Francisco anunciaram um processo em agosto para derrubar 16 dos sites mais “despir”. De acordo com um rastreador para leis de pornografia deepfake criado pela Wired, 23 estados americanos aprovaram leis para lidar com deepfakes não consensuais, enquanto nove rejeitaram propostas.


Add a Comment

Your email address will not be published. Required fields are marked *