Os pedófilos estão usando a tecnologia de inteligência artificial (IA) para criar e vender material de abuso sexual infantil realista, descobriu a BBC.
Alguns estão acessando as imagens pagando assinaturas de contas em sites de compartilhamento de conteúdo convencionais, como o Patreon.
Patreon disse que tinha uma política de “tolerância zero” sobre tais imagens em seu site.
O Conselho do Chefe da Polícia Nacional disse que era “ultrajante” que algumas plataformas estivessem obtendo “lucros enormes”, mas não assumindo “responsabilidade moral”.
E a GCHQ, a agência de inteligência, segurança e cibernética do governo, respondeu ao relatório, dizendo: “Os criminosos de abuso sexual infantil adotam todas as tecnologias e alguns acreditam que o futuro do material de abuso sexual infantil está no conteúdo gerado por IA”.
Os criadores das imagens de abuso estão usando um software de IA chamado Stable Diffusion, destinado a gerar imagens para uso em arte ou design gráfico.
A IA permite que os computadores executem tarefas que normalmente requerem inteligência humana.
O software Stable Diffusion permite que os usuários descrevam, usando prompts de palavras, qualquer imagem que desejem – e o programa então cria a imagem.
Mas a BBC descobriu que está sendo usado para criar imagens realistas de abuso sexual infantil, incluindo o estupro de bebês e crianças.
As equipes de investigação de abuso infantil on-line da polícia do Reino Unido dizem que já estão encontrando esse tipo de conteúdo.
A pesquisadora e jornalista freelancer Octavia Sheepshanks vem investigando esse problema há vários meses. Ela contatou a BBC por meio da instituição de caridade infantil NSPCC para destacar suas descobertas.
“Desde que as imagens geradas por IA se tornaram possíveis, houve uma grande inundação… não são apenas meninas muito jovens, eles [pedófilos] estão falando sobre crianças pequenas”, disse ela.
- O que é IA e é perigoso?
Uma “pseudoimagem” gerada por um computador que retrata o abuso sexual infantil é tratada da mesma forma que uma imagem real e é ilegal possuir, publicar ou transferir no Reino Unido.
O líder do Conselho Nacional de Chefes de Polícia (NPCC) sobre proteção infantil, Ian Critchley, disse que seria errado argumentar que, porque nenhuma criança real foi retratada em tais imagens “sintéticas” – ninguém foi ferido.
Ele alertou que um pedófilo poderia “se mover ao longo dessa escala de ofensa do pensamento, para sintético, para realmente o abuso de uma criança viva”.
As imagens de abuso estão sendo compartilhadas por meio de um processo de três estágios:
- Pedófilos criam imagens usando software de IA
- Eles promovem fotos em plataformas como o site japonês de compartilhamento de fotos chamado Pixiv
- Essas contas têm links para direcionar os clientes para suas imagens mais explícitas, que as pessoas podem pagar para visualizar em contas em sites como o Patreon
Alguns dos criadores de imagens estão postando em uma popular plataforma de mídia social japonesa chamada Pixiv, que é usada principalmente por artistas que compartilham mangás e animes.
Mas como o site está hospedado no Japão, onde o compartilhamento de desenhos e desenhos infantis sexualizados não é ilegal, os criadores o utilizam para divulgar seus trabalhos em grupos e por meio de hashtags – que indexam os assuntos por meio de palavras-chave.
Um porta-voz da Pixiv disse que ela colocou muita ênfase em abordar essa questão. Ele disse em 31 de maio que proibiu todas as representações fotorrealistas de conteúdo sexual envolvendo menores.
A empresa disse que fortaleceu proativamente seus sistemas de monitoramento e estava alocando recursos substanciais para neutralizar os problemas relacionados aos desenvolvimentos da IA.
Sheepshanks disse à BBC que sua pesquisa sugere que os usuários parecem estar fazendo imagens de abuso infantil em escala industrial.
“O volume é enorme, então as pessoas [criadores] dirão ‘nós pretendemos fazer pelo menos 1.000 imagens por mês'”, disse ela.
Comentários de usuários sobre imagens individuais no Pixiv deixam claro que eles têm interesse sexual em crianças, com alguns usuários até se oferecendo para fornecer imagens e vídeos de abuso que não foram gerados por IA.
A Sra. Sheepshanks tem monitorado alguns dos grupos na plataforma.
“Dentro desses grupos, que terão 100 membros, as pessoas estarão compartilhando, ‘Oh, aqui está um link para coisas reais'”, diz ela.
Diferentes níveis de preços
Muitas das contas no Pixiv incluem links em suas biografias direcionando as pessoas para o que chamam de “conteúdo sem censura” no site de compartilhamento de conteúdo Patreon, com sede nos Estados Unidos.
O Patreon está avaliado em aproximadamente US$ 4 bilhões (£ 3,1 bilhões) e afirma ter mais de 250.000 criadores – a maioria deles contas legítimas pertencentes a celebridades, jornalistas e escritores conhecidos.
Os fãs podem apoiar os criadores fazendo assinaturas mensais para acessar blogs, podcasts, vídeos e imagens – pagando apenas $ 3,85 (£ 3) por mês.
Mas nossa investigação com Octavia Sheepshanks encontrou contas do Patreon que oferecem imagens obscenas fotorrealistas geradas por IA para venda, com diferentes níveis de preços, dependendo do tipo de material solicitado.
Um escreveu em sua conta: “Eu treino minhas garotas no meu PC”, acrescentando que elas mostram “submissão”. Por US $ 8,30 (£ 6,50) por mês, outro usuário ofereceu “arte exclusiva sem censura”.
A BBC enviou ao Patreon um exemplo, que a plataforma confirmou ser “semi-realista e violar nossas políticas”. Ele disse que a conta foi removida imediatamente.
O Patreon disse que tinha uma política de “tolerância zero”, insistindo: “Os criadores não podem financiar conteúdo dedicado a temas sexuais envolvendo menores”.
A empresa disse que o aumento de conteúdo nocivo gerado por IA na Internet é “real e angustiante”, acrescentando que “identificou e removeu quantidades crescentes” desse material.
“Já banimos material sintético de exploração infantil gerado por IA”, afirmou, descrevendo-se como “muito proativo”, com equipes, tecnologia e parcerias dedicadas para “manter os adolescentes seguros”.
O gerador de imagens AI Stable Diffusion foi criado como uma colaboração global entre acadêmicos e várias empresas, lideradas pela empresa britânica Stability AI.
Várias versões foram lançadas, com restrições escritas no código que controlam o tipo de conteúdo que pode ser feito.
Mas no ano passado, uma versão anterior de “código aberto” foi lançada ao público, permitindo aos usuários remover quaisquer filtros e treiná-lo para produzir qualquer imagem – incluindo as ilegais.
A Stability AI disse à BBC que “proíbe qualquer uso indevido para fins ilegais ou imorais em nossas plataformas, e nossas políticas são claras de que isso inclui CSAM (material de abuso sexual infantil).
“Apoiamos fortemente os esforços de aplicação da lei contra aqueles que fazem uso indevido de nossos produtos para fins ilegais ou nefastos”.
À medida que a IA continua se desenvolvendo rapidamente, foram levantadas questões sobre os riscos futuros que ela poderia representar para a privacidade das pessoas, seus direitos humanos ou sua segurança.
Jo [nome completo omitido por motivos de segurança], líder da missão contra o abuso sexual infantil (CCSA) do GCHQ, disse à BBC: “O GCHQ apóia a aplicação da lei para ficar à frente de ameaças emergentes, como conteúdo gerado por IA, e garantir que não haja espaço seguro para infratores”.
Ian Critchley, do NPCC, disse que também estava preocupado que a enxurrada de IA realista ou imagens “sintéticas” pudesse retardar o processo de identificação de vítimas reais de abuso.
Ele explica: “Isso cria uma demanda adicional, em termos de policiamento e cumprimento da lei, para identificar onde uma criança real, onde quer que esteja no mundo, está sendo abusada em oposição a uma criança artificial ou sintética”.
Critchley disse acreditar que foi um momento crucial para a sociedade.
“Podemos garantir que a internet e a tecnologia permitam as oportunidades fantásticas que criam para os jovens – ou podem se tornar um lugar muito mais prejudicial”, disse ele.
A instituição de caridade infantil NSPCC pediu na quarta-feira que as empresas de tecnologia tomem conhecimento.
“A velocidade com que essas tecnologias emergentes foram cooptadas por abusadores é de tirar o fôlego, mas não é surpreendente, já que as empresas que foram alertadas sobre os perigos sentaram-se em suas mãos enquanto murmuravam banalidades vazias sobre segurança”, disse Anna Edmundson, da instituição de caridade. chefe de política e assuntos públicos.
“As empresas de tecnologia agora sabem como seus produtos estão sendo usados para facilitar o abuso sexual infantil e não pode haver mais desculpas para a inação”.
Um porta-voz do governo respondeu: “A Lei de Segurança Online exigirá que as empresas tomem medidas proativas para lidar com todas as formas de abuso sexual infantil online, incluindo aliciamento, transmissão ao vivo, material de abuso sexual infantil e imagens proibidas de crianças – ou enfrentará multas pesadas. “