Ler Resumo
Uma ferramenta criada para brincar com imagens virou um dos maiores escândalos globais da indústria de tecnologia. Pudera. Misture a altivez arrogante de Elon Musk com os recursos cada vez mais precisos dos algoritmos de inteligência artificial (IA) e a ganância por cliques e dinheiro — eis a receita perfeita para muita confusão, quando não crime atrelado à pornografia. E não deu outra: ao incentivar a criação de fotos e vídeos com recriação de registros sexualizados de meninas e mulheres dentro da plataforma X (o ex-Twitter que virou vale-tudo), e cujo puxadinho de IA é o Grok, Musk voltou a atrair incômodo planetário, para dizer o mínimo. Era segredo de polichinelo a inclusão no aplicativo de um recurso apelidado de spicy mode.

Na semana passada, o bolo desandou, deixando o rei nu, e enfim houve uma saraivada de críticas e decisões governamentais. Na Indonésia e na Malásia, o Grok foi banido temporariamente. No Reino Unido, a Ofcom, autoridade independente de segurança on-line, anunciou severa investigação — em movimento que ecoa uma decisão de autoridades da União Europeia. No Brasil, o Instituto de Defesa de Consumidores (Idec) pediu ao governo federal, na segunda 12, a suspensão da ferramenta. “É medida para evitar outros danos, enquanto não há legislação específica”, diz Julia Abad, pesquisadora do programa de telecomunicações e direitos digitais do instituto.
Deu-se a faísca do escândalo, do mau uso da IA, com duas denúncias que circularam o mundo. A jornalista britânica Samantha Smith fez barulho depois de uma fotografia sua ter sido alterada inúmeras vezes por um boçal qualquer. De roupa discreta, como sempre, ela despontou de biquíni — e os idiotas de plantão gostam de pedir ao Grok que tire as roupas das mulheres e as mostre em “Brazilian bikini”. Samantha foi direto ao ponto: “Me senti desumanizada e reduzida a um estereótipo sexual”. Sensação semelhante teve a brasileira Julie Yukari, vocalista da banda de rock alternativo Adaga Exe, cuja denúncia viralizou. “Quis sumir e apagar todas as fotos em minhas redes sociais”, disse ela. Julie fez registro de ocorrência policial e aguarda não apenas que os responsáveis pelo estupro eletrônico sejam punidos, como algum tipo de indenização. No retrato original, ela aparecia candidamente sentada, ao lado de seu bicho de estimação. “É violência digital com estética de verdade”, resume Alberto Leite, do Grupo FS, dedicado à cibersegurança.

A estatística ampara o desconforto de Samantha e Julie, além de evidenciar o tamanho do problema. Pesquisadores da AI Forensics, organização sem fins lucrativos europeia que investiga algoritmos, analisaram mais de 20 000 imagens aleatórias geradas pelo Grok e 50 000 solicitações de usuários entre 25 de dezembro do ano passado e 1º de janeiro. Os pesquisadores encontraram alta prevalência de termos como “remover roupa” e “colocar biquíni”. Mais da metade dos registros gerados “continha indivíduos com vestimentas mínimas”. Um outro estudo revelou que, entre 5 e 6 de janeiro, a Grok gerou uma média de 6 700 montagens indevidas por hora — ante 79, em média, de cinco sites concorrentes.

A novidade amplificou um problema que já vinha crescendo nas redes sociais, o da postagem de imagens sem autorização. Dados do Instituto de Segurança Pública do Rio de Janeiro mostram que, entre 2020 e 2024, os registros de divulgação não autorizada de intimidade sexual cresceram 300%. Nos últimos anos, 87,8% das vítimas desse tipo de crime no estado foram mulheres. Em quase 40% dos casos, os autores eram ex-companheiros. Em Belo Horizonte, ao menos dezessete alunas de um colégio particular denunciaram que tiveram fotos adulteradas por IA e disseminadas em grupos no Telegram. A escola precisou acionar a polícia e o Ministério Público.
Musk, que não está nem aí para a onda desrespeitosa que ele mesmo alimenta, e se espraia ao léu, respondeu às acusações sobre o Grok com genuína desfaçatez: “A geração e edição de imagens estão atualmente limitadas a assinantes que pagam pelo serviço”. Em vez de estabelecer salvaguardas exigidas por lei para impedir que a IA gere conteúdo impróprio, a ideia agora é apenas fazer o usuário pensar antes de postar, porque terá de pagar — mas às favas qualquer incômodo ético. A reação de quem não parece muito assustado com a Justiça é coerente, ao menos no ecossistema torto do bilionário nascido na África do Sul, o ex-amigão de Donald Trump. Para ele, a responsabilidade por garantir a legalidade das invenções da IA é do usuário, e não das empresas. Assim: “Qualquer pessoa que use o Grok para criar conteúdo ilegal ou o X para publicar conteúdo ilegal enfrentará consequências. A responsabilidade legal permanece com o indivíduo que cria e carrega o serviço”. O cálculo de Musk e seus pares de big techs é simples: menos barreiras significam mais acesso, mais viralização, mais tráfego de dados — e, é claro, muito mais dinheiro.
Punir a pessoa que comete o desvio é fundamental — mas não se pode, de modo algum, eximir as companhias de culpa no cartório. Por isso, em bom passo, insista-se, há movimentação (ainda insuficiente) das autoridades. No Brasil, tramita na Câmara dos Deputados, ainda em fase inicial, um projeto de lei destinado a regular o uso da IA. O nó: como adaptar a Lei Geral de Proteção de Dados, a LGPD, a terreno movediço, em constante mudança e criatividade do mal, digamos assim. Em outras palavras: a tecnologia é nova, mas o crime é antigo. “A violação de imagem e da honra e a violência psicológica sempre existiram”, diz Patricia Punder, advogada especializada em LGPD. “O que mudou foi a capacidade de produzir milhares de ataques em minutos.” É corrida inglória. “A rapidez e possibilidades dos algoritmos se disseminam em velocidade vertiginosa, mas a legislação, não”, constata Andressa Michelotti, cientista política que vem estudando a regulação de plataformas digitais.

Depois de tanto barulho, o Grok piscou, em recuo pequeníssimo e longe de ser suficiente: apenas assinantes do serviço terão direito à edição de imagens. Representa algum freio, sim, mas é pouco para o tamanho do estrago. O bode continua na sala e é útil saber que a explosão sem-vergonha da IA de Musk é apenas a ponta de um iceberg que só cresce, em saltos exponenciais. Há crimes cibernéticos em profusão (veja no quadro), cujo plano, na maioria dos casos, é roubar dinheiro do consumidor, ter acesso a contas bancárias, vender gato por lebre. A aposentada Regina Matos, por exemplo, perdeu 300 000 reais aplicados no banco Itaú. Ela recebeu uma ligação no WhatsApp com o número de telefone, a foto e a voz do gerente que conhecia havia quinze anos. “Me senti uma tonta”, diz.

Não se trata de condenar a IA, de tangenciar a ideia romântica de que a vida era mais tranquila antes dos brilhos tecnológicos, e que vivemos no pior dos mundos. Não. Em São Paulo, por exemplo, a polícia já usa sistemas de IA para cruzar grandes bases de dados, localizar foragidos e acelerar atendimentos que antes levariam dias. São aplicações que salvam tempo, dinheiro e, em alguns casos, vidas. O problema da IA, portanto, é o mau uso que se faz dela — ou a falta de legislação onde seria compulsória, como nos casos das roupas tiradas sem consentimento. Um bom porto é ouvir o que dizem as vítimas de ataques, especialmente os mais famosos, com poder de reverberar os danos sofridos. A atriz Paolla Oliveira postou nas redes sociais um vídeo em que revela ter sido alvo de crime. Imagens em vídeos de um corpo que não é dela, mas com seu rosto e voz idêntica, foram usadas para a promoção de bets e outros produtos. “Não confiem em tudo o que vocês veem na internet, desconfiem”, disse. “A gente não pode ser manipulado assim, e a gente não vai ser, porque isso é muito sério. Bora abrir os olhos, cobrar as plataformas e o governo. E principalmente: verifiquem as informações.” É bom conselho, em momento que exige vigilância permanente. Na ágora das redes sociais — campo extraordinário, mas perigoso — toda nudez, real ou inventada, precisa ser castigada, dentro da lei e do sagrado direito à individualidade.
Publicado em VEJA de 16 de janeiro de 2026, edição nº 2978

