Dados são da organização inglesa IWF, que monitora crimes na rede
Segundo a Internet Watch Foundation (IWF), foram descobertas milhares de novas imagens de abuso sexual infantil geradas por sistemas de inteligência artificial (IA). Um pesadelo legal e social que está se tornando realidade – ainda que por ferramentas virtuais -, à medida que criminosos conseguem criar conteúdo perturbador usando vítimas reais. A IWF também alerta sobre o risco de a tecnologia começar a “saturar” a internet.
Como funciona? Não se trata de criar uma situação fantasiosa. A IA é utilizada para alterar e reproduzir imagens de vítimas reais que foram abusadas, ampliando um circo de crueldade criminosa pelo ambiente digital. Além disso, a tecnologia é usada para “despir” crianças que aparecem vestidas em imagens corriqueiras para inseri-las em situações de abuso.
A IWF já identificou e removeu quase três mil imagens de abuso sexual infantil geradas por IA no Reino Unido. Em junho, a entidade confirmou pela primeira vez a descoberta de sete sites contendo imagens de abuso sexual infantil geradas por IA na internet aberta. Geralmente esse conteúdos circulavam de modo mais restrito em grupos de mensagens ou em sites clandestinos na dark web – ambiente digital que se vale de servidores de rede acessíveis somente com ferramentas, configurações ou autorizações específicas. Só assim os criminosos conseguem manter anonimato .
Susie Hargreaves, diretora-executiva da IWF, expressou preocupação, afirmando: “Nossos piores pesadelos estão se tornando realidade. O que é assustador é que estamos vendo criminosos treinando deliberadamente a IA em imagens de vítimas reais. Ou seja, crianças que foram vítimas de abuso no passado estão agora sendo incorporadas em novas situações, porque alguém, em algum lugar, deseja isso.”
Números assustadores
Em um relatório, a fundação compartilhou os resultados de sua investigação, que captou 11.108 imagens de IA compartilhadas em um fórum de abuso infantil na dark web. Dentre essas imagens, 2.978 eram de abuso sexual gerado por inteligência artificial, sendo que 2.562 delas eram tão realistas que a lei britânica as trata como se fossem imagens reais de abuso. Metade dessas imagens retratava crianças entre 6 e 10 anos. Havia 143 imagens de crianças de 3 a 6 anos e duas imagens de bebês menores de 2 anos.
Mais de 560 imagens foram classificadas como Categoria A pela legislação britânica, o que inclui violação, tortura sexual e brutalidade.
A uma semana da Cúpula Internacional sobre Segurança da IA, a IWF tenta expor o problema para obrigar as autoridades a agir com mais vigor. Hargreaves alerta que se essa ameaça não for controlada, esse material poderá sobrecarregar a internet.
O relatório também destaca o aumento do comércio de imagens de abuso sexual geradas por IA. As meninas são as principais vítimas, presentes em 99% dos registros. À medida que a tecnologia de IA se desenvolve, as resultados se tornam cada vez mais convincentes, dificultando a distinção entre o que é real e artificial.
A IWF adverte que a capacidade tecnológica representará “mais obstáculos” para especialistas e forças policiais, uma vez que sistemas de IA conseguem “despir” crianças, removendo suas roupas nas imagens compartilhadas na internet. Em alguns sites essas ferramentas são oferecidas gratuitamente, de acordo com a característica de navegação do usuário.
Ian Critchley, chefe do Conselho Nacional de Chefes de Polícia para a Proteção da Criança, destaca que esses conteúdos contribuem para a normalização da violação e do abuso de crianças reais. No entanto, ele acredita que a IA pode ser usada como uma ferramenta para combater aqueles que a usam para atacar crianças, mediante ferramentas de monitoramento de tráfego que analisem opções de plataforma gráfica e adulteração de conteúdos.
O que MONEY REPORT publicou