
Ler Resumo
Um relatório do Fundo das Nações Unidas para a Infância, o Unicef, publicado na quarta-feira 4, apontou que 1,2 milhão de crianças em 11 países diferentes foram alvo de “deepfakes” sexualmente explícitosem 2025. A técnica de inteligência artificial (IA) utilizada para criar imagens, vídeos e sons falsos extremamente realistas, simulando vozes e rostos de pessoas reais, faz parecer que alguém disse ou fez algo que, na realidade, nunca aconteceu.
Segundo o relatório, uma das práticas mais preocupantes é a chamada “nudificação” de crianças, em que IA é usada para remover ou alterar roupas em fotos reais, criando imagens falsas de nudez ou com conotação sexual.
“Precisamos ser claros. Imagens sexualizadas de crianças geradas ou manipuladas usando ferramentas de IA são material de abuso sexual infantil. Abuso de deepfake é abuso, e não há nada de falso no dano que causa”, afirmou a agência das Nações Unidas em comunicado.
O levantamento mostra que, em média, uma em cada 25 crianças nos onze países analisados — Brasil, México, Colômbia, República Dominicana, Marrocos, Macedônia do Norte, Armênia, Montenegro, Paquistão, Sérvia e Tunísia — foi afetada por esse tipo de abuso. Ao todo, cerca de 1.000 pequenos usuários de internet, entre 12 e 17 anos, e outros 1.000 pais, mães ou cuidadores, foram entrevistados em cada país.
De acordo com María José Ravalli, chefe regional de advocacia e comunicação do Unicef para a América Latina e o Caribe, as próprias crianças demonstram estar conscientes do risco. Em alguns países, até dois terços dos entrevistados disseram temer que a IA seja usada para falsificar imagens ou vídeos seus com caráter sexual.
O relatório também destacou que o problema se agrava quando ferramentas de IA são integradas diretamente às redes sociais, permitindo a rápida disseminação do material.
Diante do cenário, o Unicef pediu que os países criminalizem explicitamente a criação de imagens de abuso sexual infantil geradas por IA. A agência também cobrou que desenvolvedores adotem medidas de segurança desde a concepção dos modelos de IA, com barreiras de proteção para evitar o uso indevido das ferramentas.
“Mesmo sem uma vítima identificável, o material de abuso sexual infantil gerado por IA normaliza a exploração sexual de crianças, alimenta a demanda por conteúdo abusivo e apresenta desafios significativos para as autoridades na identificação e proteção de crianças que precisam de ajuda”, completou o Unicef.