A Inteligência Artificial (IA) generativa multiplicou o número de imagens de exploração e abuso sexual de crianças na rede. Os dados são da Internet Watch Foundation (IWF), que constatou 20.254 imagens, geradas por IA, em apenas setembro de 2023, partilhadas em fórum de pedófilos, como Material de Abuso Sexual Infantil (CSAM, sigla em inglês). A maioria das imagens encontradas é realista o suficiente para ser considerada “real”. Outras são de crianças famosas, de crianças conhecidas dos agressores e de crianças que já foram vítimas de abuso sexual.
Do total das imagens partilhadas no fórum da dark web, a IWF – organização britânica que identifica conteúdos on-line potencialmente criminosos – avaliou 11.108, que teriam maior probabilidade de serem criminais. Destas, 2.562 imagens foram identificadas como pseudofotografias criminais e 416 como imagens criminais proibidas. Os recursos da própria tecnologia generativa permitem a produção cada vez mais realista de um número infindável de imagens de crianças, por meio de elementos que podem ser baixados legalmente.
“Existem agora provas razoáveis de que a IA CSAM aumentou o potencial de revitimização de vítimas conhecidas de abuso sexual infantil, bem como de vitimização de crianças famosas e de crianças conhecidas dos perpetradores. A IWF encontrou muitos exemplos de imagens geradas por IA apresentando vítimas conhecidas e crianças famosas”, esclarece a entidade na apresentação do relatório de dados obtidos com as investigações.
A IWF ressalva os benefícios da IA no dia a dia da população. No entanto, destaca que ela trabalha com uma tecnologia distinta daquelas usadas anteriormente, a produção off-line de imagens, o que retira a possibilidade de detecção antecipada. A Inteligência Artificial generativa é capaz de gerar conteúdos a partir de uma base de dados. Tecnologias como ChatGPT ou Gemini, treinadas com padrões complexos, criam textos, imagens, vídeos, códigos, de acordo com instruções de comando.





























