IA criminosa: o que está por trás do escândalo das imagens sexualizadas do Grok, de Musk

Ler Resumo

Uma ferramenta criada para brincar com imagens virou um dos maiores escândalos globais da indústria de tecnologia. Pudera. Misture a altivez arrogante de Elon Musk com os recursos cada vez mais precisos dos algoritmos de inteligência artificial (IA) e a ganância por cliques e dinheiro — eis a receita perfeita para muita confusão, quando não crime atrelado à pornografia. E não deu outra: ao incentivar a criação de fotos e vídeos com recriação de registros sexualizados de meninas e mulheres dentro da plataforma X (o ex-Twitter que virou vale-tudo), e cujo puxadinho de IA é o Grok, Musk voltou a atrair incômodo planetário, para dizer o mínimo. Era segredo de polichinelo a inclusão no aplicativo de um recurso apelidado de spicy mode.

CONSTRANGIMENTO - A brasileira Julie Yukari, depois de postar fotos de ano-novo: “Quis sumir e apagar tudo”
CONSTRANGIMENTO – A brasileira Julie Yukari, depois de postar fotos de ano-novo: “Quis sumir e apagar tudo” (@julieyukari/Instagram)

Na semana passada, o bolo desandou, deixando o rei nu, e enfim houve uma saraivada de críticas e decisões governamentais. Na Indonésia e na Malásia, o Grok foi banido temporariamente. No Reino Unido, a Ofcom, autoridade independente de segurança on-­line, anunciou severa investigação — em movimento que ecoa uma decisão de autoridades da União Europeia. No Brasil, o Instituto de Defesa de Consumidores (Idec) pediu ao governo federal, na segunda 12, a suspensão da ferramenta. “É medida para evitar outros danos, enquanto não há legislação específica”, diz Julia Abad, pesquisadora do programa de telecomunicações e direitos digitais do instituto.

Deu-se a faísca do escândalo, do mau uso da IA, com duas denúncias que circularam o mundo. A jornalista britânica Samantha Smith fez barulho depois de uma fotografia sua ter sido alterada inúmeras vezes por um boçal qualquer. De roupa discreta, como sempre, ela despontou de biquíni — e os idiotas de plantão gostam de pedir ao Grok que tire as roupas das mulheres e as mostre em “Brazilian bikini”. Samantha foi direto ao ponto: “Me senti desumanizada e reduzida a um estereótipo sexual”. Sensação semelhante teve a brasileira Julie Yukari, vocalista da banda de rock alternativo Adaga Exe, cuja denúncia viralizou. “Quis sumir e apagar todas as fotos em minhas redes sociais”, disse ela. Julie fez registro de ocorrência policial e aguarda não apenas que os responsáveis pelo estupro eletrônico sejam punidos, como algum tipo de indenização. No retrato original, ela aparecia candidamente sentada, ao lado de seu bicho de estimação. “É violência digital com estética de verdade”, resume Alberto Leite, do Grupo FS, dedicado à cibersegurança.

ESTRATÉGIA - Elon Musk, que não perde a chance de fazer barulho: acesso liberado para ganhar cliques e mercado
ESTRATÉGIA - Elon Musk, que não perde a chance de fazer barulho: acesso liberado para ganhar cliques e mercado (Stefani Reynolds/Bloomberg/Getty Images)
Continua após a publicidade

A estatística ampara o desconforto de Samantha e Julie, além de evidenciar o tamanho do problema. Pesquisadores da AI Forensics, organização sem fins lucrativos europeia que investiga algoritmos, analisaram mais de 20 000 imagens aleatórias geradas pelo Grok e 50 000 solicitações de usuários entre 25 de dezembro do ano passado e 1º de janeiro. Os pesquisadores encontraram alta prevalência de termos como “remover roupa” e “colocar biquíni”. Mais da metade dos registros gerados “continha indivíduos com vestimentas mínimas”. Um outro estudo revelou que, entre 5 e 6 de janeiro, a Grok gerou uma média de 6 700 montagens indevidas por hora — ante 79, em média, de cinco sites concorrentes.

MODO SPICY - Ferramenta de edição de imagens Grok: finalidade explícita de estimular erotização
MODO SPICY - Ferramenta de edição de imagens Grok: finalidade explícita de estimular erotização (Cheng Xin/Getty Images)

A novidade amplificou um problema que já vinha crescendo nas redes sociais, o da postagem de imagens sem autorização. Dados do Instituto de Segurança Pública do Rio de Janeiro mostram que, entre 2020 e 2024, os registros de divulgação não autorizada de intimidade sexual cresceram 300%. Nos últimos anos, 87,8% das vítimas desse tipo de crime no estado foram mulheres. Em quase 40% dos casos, os autores eram ex-companheiros. Em Belo Horizonte, ao menos dezessete alunas de um colégio particular denunciaram que tiveram fotos adulteradas por IA e disseminadas em grupos no Telegram. A escola precisou acionar a polícia e o Ministério Público.

Continua após a publicidade

arte IA criminosa

Musk, que não está nem aí para a onda desrespeitosa que ele mesmo alimenta, e se espraia ao léu, respondeu às acusações sobre o Grok com genuína desfaçatez: “A geração e edição de imagens estão atualmente limitadas a assinantes que pagam pelo serviço”. Em vez de estabelecer salvaguardas exigidas por lei para impedir que a IA gere conteúdo impróprio, a ideia agora é apenas fazer o usuário pensar antes de postar, porque terá de pagar — mas às favas qualquer incômodo ético. A reação de quem não parece muito assustado com a Justiça é coerente, ao menos no ecossistema torto do bilionário nascido na África do Sul, o ex-amigão de Donald Trump. Para ele, a responsabilidade por garantir a legalidade das invenções da IA é do usuário, e não das empresas. Assim: “Qualquer pessoa que use o Grok para criar conteúdo ilegal ou o X para publicar conteúdo ilegal enfrentará consequências. A responsabilidade legal permanece com o indivíduo que cria e carrega o serviço”. O cálculo de Musk e seus pares de big techs é simples: menos barreiras significam mais acesso, mais viralização, mais tráfego de dados — e, é claro, muito mais dinheiro.

 

arte IA criminosa

Continua após a publicidade

Punir a pessoa que comete o desvio é fundamental — mas não se pode, de modo algum, eximir as companhias de culpa no cartório. Por isso, em bom passo, insista-se, há movimentação (ainda insuficiente) das autoridades. No Brasil, tramita na Câmara dos Deputados, ainda em fase inicial, um projeto de lei destinado a regular o uso da IA. O nó: como adaptar a Lei Geral de Proteção de Dados, a LGPD, a terreno movediço, em constante mudança e criatividade do mal, digamos assim. Em outras palavras: a tecnologia é nova, mas o crime é antigo. “A violação de imagem e da honra e a violência psicológica sempre existiram”, diz Patricia Punder, advogada especializada em LGPD. “O que mudou foi a capacidade de produzir milhares de ataques em minutos.” É corrida inglória. “A rapidez e possibilidades dos algoritmos se disseminam em velocidade vertiginosa, mas a legislação, não”, constata Andressa Michelotti, cientista política que vem estudando a regulação de plataformas digitais.

BOM CAMINHO - O uso de IA nas investigações de delitos: fundamental no avanço e rapidez das conclusões
BOM CAMINHO – O uso de IA nas investigações de delitos: fundamental no avanço e rapidez das conclusões (iStock/Getty Images)

Depois de tanto barulho, o Grok piscou, em recuo pequeníssimo e longe de ser suficiente: apenas assinantes do serviço terão direito à edição de imagens. Representa algum freio, sim, mas é pouco para o tamanho do estrago. O bode continua na sala e é útil saber que a explosão sem-vergonha da IA de Musk é apenas a ponta de um iceberg que só cresce, em saltos exponenciais. Há crimes cibernéticos em profusão (veja no quadro), cujo plano, na maioria dos casos, é roubar dinheiro do consumidor, ter acesso a contas bancárias, vender gato por lebre. A aposentada Regina Matos, por exemplo, perdeu 300 000 reais aplicados no banco Itaú. Ela recebeu uma ligação no WhatsApp com o número de telefone, a foto e a voz do gerente que conhecia havia quinze anos. “Me senti uma tonta”, diz.

Continua após a publicidade

GRITO DE ALERTA - Paolla Oliveira protestou com estardalhaço: “A gente não pode ser manipulado assim”
GRITO DE ALERTA – Paolla Oliveira protestou com estardalhaço: “A gente não pode ser manipulado assim” (@paollaoliveirareal/Instagram)

Não se trata de condenar a IA, de tangenciar a ideia romântica de que a vida era mais tranquila antes dos brilhos tecnológicos, e que vivemos no pior dos mundos. Não. Em São Paulo, por exemplo, a polícia já usa sistemas de IA para cruzar grandes bases de dados, localizar foragidos e acelerar atendimentos que antes levariam dias. São aplicações que salvam tempo, dinheiro e, em alguns casos, vidas. O problema da IA, portanto, é o mau uso que se faz dela — ou a falta de legislação onde seria compulsória, como nos casos das roupas tiradas sem consentimento. Um bom porto é ouvir o que dizem as vítimas de ataques, especialmente os mais famosos, com poder de reverberar os danos sofridos. A atriz Paolla Oliveira postou nas redes sociais um vídeo em que revela ter sido alvo de crime. Imagens em vídeos de um corpo que não é dela, mas com seu rosto e voz idêntica, foram usadas para a promoção de bets e outros produtos. “Não confiem em tudo o que vocês veem na internet, desconfiem”, disse. “A gente não pode ser manipulado assim, e a gente não vai ser, porque isso é muito sério. Bora abrir os olhos, cobrar as plataformas e o governo. E principalmente: verifiquem as informações.” É bom conselho, em momento que exige vigilância permanente. Na ágora das redes sociais — campo extraordinário, mas perigoso — toda nudez, real ou inventada, precisa ser castigada, dentro da lei e do sagrado direito à individualidade.

Publicado em VEJA de 16 de janeiro de 2026, edição nº 2978

VER NA FONTE