Relatório Alerta: Aumento de 154% nas Denúncias de Imagens de Abuso Infantil Geradas por IA

Aumento das denúncias e rápida evolução tecnológica geram preocupação entre especialistas

O aumento nas denúncias de imagens de abuso sexual infantil geradas por inteligência artificial (IA) saltou impressionantes 154% em apenas um ano. O dado mais recente revela que foram registradas 491 denúncias desse tipo em 2025, comparado a apenas 193 em 2024.

Esse levantamento é feito pela Internet Watch Foundation (IWF), que monitora conteúdos ilegais na internet. Para os analistas da IWF, esse aumento não diz respeito apenas a números, mas aponta para uma transformação alarmante na capacidade das ferramentas de IA.

Nossos vídeos em destaque

Conforme a própria instituição ressalta, houve um “avanço rápido e assustador” na produção dessas imagens, o que significa que conteúdos falsos, mas extremamente realistas, podem ser gerados em questão de segundos a partir de comandos simples ou da modificação de imagens já existentes.

E a situação se agrava ainda mais com o aumento no número de vídeos. Em 2025, foram identificados 3.443 vídeos desse tipo, um crescimento impressionante em comparação aos apenas 13 registrados em 2024. Isso sugere que a tecnologia não só progrediu, como também se tornou mais acessível e fácil de utilizar.

Leia Mais

Udemy sofre vazamento e expõe 1,4 milhão de usuários

O relatório indica também que esse conteúdo está se difundindo de formas inovadoras. Além de ser compartilhado em setores mais ocultos da internet, como a dark web, ele também aparece em sites comuns e até em anúncios em redes sociais.

Outro aspecto preocupante é a gravidade do material, já que as imagens geradas por IA têm maior chance de serem classificadas nas categorias mais severas de abuso. Nos últimos dois anos, quase metade dos registros classificados como criminosos se enquadrou na categoria C, que une imagens sexualizadas de crianças, mesmo na ausência de violência explícita, mas com presença significativa de conteúdos mais extremos.

A IWF adverte que o impacto vai além da esfera digital. “O material de abuso sexual infantil gerado por IA representa um risco significativo e crescente”, afirmou a organização no relatório. Segundo a entidade, essas imagens podem reforçar ciclos de exploração e causar danos duradouros às vítimas, especialmente porque frequentemente usam rostos ou corpos de crianças reais.

No Reino Unido, a Lei de Segurança Online já exige que plataformas removam esse tipo de conteúdo, mas há críticas de que as ações ainda são insuficientes. No Brasil, iniciativas recentes, como o ECA Digital, buscam ampliar a responsabilidade das plataformas na proteção de menores, embora especialistas argumentem que a implementação prática ainda está em fase inicial.

Leia Mais

Após ataque à NPM, criminosos distribuem versão maliciosa do Bitwarden para roubar dados e credenciais

A própria Internet Watch Foundation afirma que empresas de tecnologia precisam incorporar mecanismos de segurança desde o desenvolvimento dos produtos, antes mesmo de lançá-los ao público.

Rolar para cima