Quando Gabi Belle soube que havia uma foto dela nua circulando na internet, seu corpo ficou gelado. A influenciadora do YouTube nunca havia posado para a imagem, que a mostrava em um campo sem roupas. Ela sabia que era falsa.
Mas quando Belle, 26, enviou uma mensagem a um colega pedindo ajuda para remover a imagem, ele lhe disse que havia quase 100 fotos falsas espalhadas pela web, a maioria hospedada em sites conhecidos por hospedar pornografia gerada por inteligência artificial. Elas foram retiradas em julho, diz Belle, mas novas imagens que a retratavam em situações sexuais explícitas já surgiram.
“Eu me senti nojenta e violada”, disse Belle em uma entrevista. “Essas partes íntimas não foram feitas para o mundo ver, porque eu não consenti com isso. Então, é muito estranho que alguém faça imagens de mim.” Esse tipo de caso não vem acontecendo somente nos EUA. No início deste mês, no Rio de Janeiro, alunos de um colégio de elite criaram imagens pornográficas falsas de colegas e estão sendo investigados.
A inteligência artificial (IA) está alimentando um boom sem precedentes este ano em imagens e vídeos pornográficos falsos. Isso é possível graças ao aumento de ferramentas de IA baratas e fáceis de usar que podem “despir” pessoas em fotografias – analisando como seus corpos nus ficariam e impondo isso em uma imagem – ou trocar um rosto em um vídeo pornográfico.
Nos 10 principais sites que hospedam fotos pornográficas geradas por IA, os nudes falsos aumentaram em mais de 290% desde 2018, de acordo com Genevieve Oh, analista da área. Esses sites apresentam celebridades e figuras políticas, como a deputada Alexandria Ocasio-Cortez, de Nova York, EUA, ao lado de adolescentes comuns, cujas semelhanças foram aproveitadas por agentes mal-intencionados para extorquir dinheiro ou realizar fantasias particulares.
As vítimas têm pouco recurso. Não há nenhuma lei federal nos EUA que regule a pornografia deep fake, e apenas alguns estados promulgaram regulamentações. A ordem executiva de IA do presidente Biden emitida na segunda-feira, 30, recomenda, mas não exige, que as empresas rotulem fotos, vídeos e áudio gerados por IA para indicar o trabalho gerado por computador.
Enquanto isso, estudiosos do direito advertem que as imagens falsas de IA podem não se enquadrar nas proteções de direitos autorais para semelhanças pessoais, porque elas se baseiam em conjuntos de dados preenchidos por milhões de imagens. “Esse é claramente um problema muito sério”, diz Tiffany Li, professora de direito da Universidade de São Francisco.
O advento das imagens de IA representa um risco especial para mulheres e adolescentes, muitos dos quais não estão preparados para essa visibilidade. Um estudo de 2019 da Sensity AI, uma empresa que monitora deep fakes, descobriu que 96% das imagens deep fake são pornográficas e 99% dessas fotos têm como alvo as mulheres.
“Agora, o alvo são as meninas”, diz Sophie Maddocks, pesquisadora e defensora dos direitos digitais da Universidade da Pensilvânia. “Meninas e mulheres jovens que não estão sob os olhos do público.”
‘O que eles fizeram comigo?’
Em 17 de setembro, Miriam Al Adib Mendiri estava voltando de uma viagem para sua casa no sul da Espanha quando encontrou sua filha de 14 anos perturbada. Sua filha compartilhou uma foto de si mesma nua. “Olhe, mamãe. O que eles fizeram comigo?”, Al Adib Mendiri se lembra da filha dizendo.
Ela nunca havia posado nua. Mas um grupo de meninos locais pegou fotos vestidas dos perfis de mídia social de várias meninas de sua cidade e usou um aplicativo “nudificador” de IA para criar as fotos nuas, de acordo com a polícia.
O aplicativo é uma das muitas ferramentas de IA que usam imagens reais para criar fotos nuas, que inundaram a web nos últimos meses. Ao analisar milhões de imagens, o software de IA pode prever melhor como um corpo ficará nu e sobrepor com fluidez um rosto em um vídeo pornográfico, disse Gang Wang, especialista em IA da Universidade de Illinois, EUA.
Embora muitos geradores de imagens de IA impeçam os usuários de criar material pornográfico, o software de código aberto, como o Stable Diffusion, torna seu código público, permitindo que desenvolvedores amadores adaptem a tecnologia – geralmente para fins nefastos. A Stability AI, fabricante do Stable Diffusion, não retornou um pedido de comentário.
Quando esses aplicativos se tornam públicos, eles usam programas de indicação que incentivam os usuários a compartilhar essas fotos geradas por IA nas mídias sociais em troca de dinheiro, disse Oh.
Quando Oh examinou os 10 principais sites que hospedam imagens pornográficas falsas, ela descobriu que mais de 415 mil foram carregadas este ano, obtendo quase 90 milhões de visualizações.
Os vídeos pornôs gerados por IA também explodiram na internet Depois de vasculhar os 40 sites mais populares em busca de vídeos falsos, Oh descobriu que mais de 143 mil vídeos foram adicionados em 2023 – um número que supera todos os novos vídeos de 2016 a 2022. Os vídeos falsos receberam mais de 4,2 bilhões de visualizações, segundo Oh.
Em junho, o FBI alertou sobre o aumento da extorsão sexual por parte de golpistas que exigem pagamento ou fotos em troca da não distribuição de imagens sexuais. Embora não esteja claro qual porcentagem dessas imagens é gerada por IA, a prática está se expandindo. Em setembro, mais de 26,8 mil pessoas foram vítimas de campanhas de “sextortion”, um aumento de 149% em relação a 2019, disse o FBI ao The Washington Post.
‘Você não está segura como mulher’
Em maio, um autor de um fórum popular de pornografia iniciou um tópico chamado “I can fake your crush” (em português, “Eu posso fingir sua paixão”). A ideia era simples: “Envie-me quem você quiser ver nu e eu posso fingir que isso é real usando IA”, escreveu o moderador.
Em poucas horas, as fotos de mulheres começaram a chegar. “Você pode fazer essa garota? Não é uma celebridade ou influenciadora”, perguntou um usuário. “Minha colega de trabalho e minha vizinha?”, acrescentou outro.
Minutos depois de uma solicitação, uma versão nua da imagem aparecia no tópico. “Thkx a lot bro, it’s perfect” (em português, “Muito obrigado, amigo, está perfeito”), escreveu um usuário.
As celebridades são um alvo popular para os criadores de pornografia falsa que pretendem capitalizar o interesse de pesquisa por fotos de atores famosos nus. Mas os sites que apresentam pessoas famosas podem levar a um aumento de outros tipos de nus. Os sites geralmente incluem conteúdo “amador” de indivíduos desconhecidos e hospedam anúncios que comercializam ferramentas de criação de pornografia com IA.
O Google tem políticas para evitar que imagens sexuais não consensuais apareçam nos resultados de pesquisa, mas suas proteções para imagens deep fake não são tão robustas.
A pornografia deep fake e as ferramentas para produzi-la aparecem com destaque nos mecanismos de pesquisa da empresa, mesmo sem uma busca específica por conteúdo gerado por IA. Oh documentou mais de uma dúzia de exemplos em capturas de tela, que foram confirmadas de forma independente pelo The Washington Post.
Ned Adriance, porta-voz do Google, disse em um comunicado que a empresa está “trabalhando ativamente para trazer mais proteções para a pesquisa” e que a empresa permite que os usuários solicitem a remoção de pornografia falsa involuntária.
O Google está no processo de “criar salvaguardas mais amplas” que não exigiriam que as vítimas solicitassem individualmente a remoção do conteúdo, disse ele.
Li, da Universidade de São Francisco, disse que pode ser difícil penalizar os criadores desse conteúdo. A leia Seção 230 protege as empresas de mídia social da responsabilidade pelo conteúdo publicado em seus sites, deixando pouca carga para os sites policiarem as imagens.
As vítimas podem solicitar que as empresas removam fotos e vídeos com sua imagem. Mas como a IA utiliza uma infinidade de imagens em um conjunto de dados para criar uma foto falsa, é mais difícil para a vítima alegar que o conteúdo é derivado exclusivamente de sua imagem, disse Li.
“Talvez você ainda possa dizer: ‘É uma violação de direitos autorais, está claro que eles pegaram minha foto original protegida por direitos autorais e adicionaram um pouco a ela’”, disse Li. “Mas no caso de falsificações profundas… não está tão claro… quais eram as fotos originais.”
Na ausência de leis federais, pelo menos nove estados – incluindo Califórnia, Texas e Virgínia – aprovaram leis voltadas para deep fakes. Mas essas leis variam em seu escopo: Em alguns estados, as vítimas podem entrar com processos criminais, enquanto outros permitem apenas ações civis, embora possa ser difícil saber quem pode ser processado.
A pressão para regulamentar imagens e vídeos gerados por IA geralmente tem o objetivo de evitar a distribuição em massa, abordando preocupações sobre interferência eleitoral, diz Sam Gregory, diretor executivo da organização de defesa dos direitos humanos em tecnologia Witness.
Mas essas regras fazem pouco pela pornografia deep fake, em que imagens compartilhadas em pequenos grupos podem causar estragos na vida de uma pessoa, acrescentou Gregory.
Belle, a influenciadora do YouTube, ainda não tem certeza de quantas fotos deep fake dela são públicas e disse que são necessárias regras mais rígidas para lidar com sua experiência.
“Você não está segura como mulher”, disse ela. / traduzido por Alice Labate
Crédito: Pranshu Verma / The Washington Post no ESTADÃO – @ disponível na internet 07/11/2023