Pesquisar
PATROCINADORES
PATROCINADORES

IA amplia circulação de vídeos fakes de abuso sexual infantil

Deepfakes cada vez mais realistas saem da darkweb à internet aberta com uso de rostos de vítimas ou de crianças famosas, alerta relatório da IWF

Era inevitável, mas mesmo assim assustador. O mais recente relatório da Internet Watch Foundation (IWF), publicado nesta segunda-feira (22), informa que a inteligência artificial (IA) já permite “deepfake altamente realistas” na quais são inseridos rostos e corpos infantis em clipes de abuso sexual quase perfeitos. A britânica IWF informa que identificou “exemplos convincentes” usados por perpetradores que se “gabam em fóruns da dark web sobre a possibilidade de ‘criar qualquer pornografia infantil que desejarmos (…) em alta definição'”.

A entidade monitora o que chama de circulação de material de abuso sexual infantil (CSAM) de forma oculta na dark web. Em 2023 foram identificados os primeiros conteúdos gerados por IA de ampla divulgação. Um ano depois, o material ganhou maior realismo gráfico. Entre março e abril foram detectados nove produções criminosas circulando em plataformas clandestinas. Até uma produção de 18 segundos que mostra a violação de uma menina de aparente dez anos foi encontrada na internet aberta.

Menina de 10 anos

“Alguns dos vídeos deepfake apresentam pornografia adulta que é alterada para mostrar o rosto de uma criança. Outros são vídeos existentes de abuso sexual infantil que apresentam o rosto de outra criança sobreposto”, explica o relatório. Como os vídeos originais de abuso sexual são de crianças reais, os analistas da IWF dizem que os deepfakes são convincentes, porém trazem a vantagem de dificultar a vítima.

Há um aspecto aterrador para as vítimas. “Sobreviventes de alguns dos piores tipos de trauma agora não têm trégua, sabendo que os infratores podem usar imagens de seu sofrimento para criar qualquer cenário”, alertou a CEO da IWF, Susie Hargreaves. “Sem controle adequado, as ferramentas de IA generativas fornecem um playground para predadores online realizarem as suas fantasias mais perversas e repugnantes”, continuou.

O que foi descoberto
  • Mais de 3,5 mil novas imagens criminais de abuso sexual infantil geradas por IA foram carregadas no mesmo fórum da dark web analisado anteriormente em outubro de 2023;
  • Das imagens geradas por IA confirmadas como abuso sexual infantil no fórum, foi constatado que os perpetradores estsão mais capazes de gerar cenários “hardcore” complexos;
  • Vídeos de abuso sexual infantil gerados por IA, principalmente deepfakes, são compartilhados após vídeos pornográficos adultos ganharem rostos de crianças;
  • Aumento sensível nas imagens de abuso sexual infantil geradas por IA expostas na internet aberta, inclusive em alguns sites comerciais;
  • Uso de IA para gerar novas imagens com celebridades infantis ou vítimas já conhecidas.

Compartilhe

Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

- Informações atualizadas a cada 10 minutos
- Gráfico mostra valor fechado do dia

Pergunte para a

Mônica

Pergunte para a

Mônica.

[monica]
Pesquisar

©2017-2020 Money Report. Todos os direitos reservados. Money Report preza a qualidade da informação e atesta a apuração de todo o conteúdo produzido por sua equipe.