Em nove dias, Grok publicou 1,8 milhão de imagens sexualizadas de mulheres no X

Ler Resumo

Em apenas nove dias, o chatbot Grok, desenvolvido pela empresa xAI de Elon Musk e integrado à rede social X, publicou 4,4 milhões de imagens geradas por inteligência artificial. Segundo análise do New York Times, 1,8 milhão dessas imagens continham representações sexualizadas de mulheres.

O fenômeno começou no fim de dezembro, quando usuários passaram a enviar fotos reais de mulheres para que o sistema removesse roupas, inserisse biquínis ou criasse poses sexualizadas. O próprio Musk compartilhou, em seu perfil, uma imagem gerada pelo Grok em que aparece de biquíni. A partir daí, o volume de pedidos disparou.

Governos do Reino Unido, Índia, Malásia e Estados Unidos abriram investigações para avaliar possíveis violações legais. Entidades de proteção digital classificaram o episódio como um caso sem precedentes de disseminação pública de imagens falsas com conotação sexual em escala industrial.

Como isso aconteceu tão rápido?

“Sempre existiram nudes. A diferença é que agora ficou fácil, rápido e gratuito produzir isso com inteligência artificial”, afirma Elaine Coimbra, especialista em transformação digital e vice-presidente de marketing da Associação Brasileira de Inteligência Artificial (ABRIA).

Além disso, o episódio é um reflexo direto da velocidade com que novas versões de sistemas de IA estão sendo lançadas. “A corrida tecnológica entre as big techs, e também entre Estados Unidos e China, faz com que versões sejam liberadas rápido demais. Muitas vezes, não há tempo para realizar todos os testes”,  explica Elaine.

Continua após a publicidade

Segundo os levantamentos, o número de imagens publicadas por dia quase dobrou após a postagem de Musk. Somente em 8 de janeiro, a empresa restringiu a ferramenta a usuários pagantes e, dias depois, anunciou novas barreiras para impedir pedidos envolvendo “pessoas reais em roupas reveladoras”.

Ainda assim, as restrições não se aplicam ao aplicativo próprio do Grok nem ao site da ferramenta, onde pedidos semelhantes continuam sendo possíveis de forma privada.

E no Brasil?

O episódio também expõe uma fragilidade jurídica importante no país. Hoje, não existe uma legislação específica para lidar com imagens geradas por inteligência artificial. “Recorremos por analogia a dispositivos do Código Penal e do Código Civil”, explica Elaine.

Continua após a publicidade

Na prática, isso significa que a responsabilização costuma recair sobre o indivíduo que criou ou compartilhou o conteúdo, e não necessariamente sobre a plataforma que permitiu e automatizou esse processo.

A questão é que “a plataforma hospeda, distribui e agora também gera conteúdo. A responsabilidade precisa acompanhar essas três funções”, diz a especialista. A lógica é simples: “se a responsabilização também alcançar a plataforma, ela será obrigada a investir de forma mais rigorosa em testes e no controle do treinamento dos sistemas”, conclui.

Projetos de lei sobre regulação da inteligência artificial tramitam no Congresso, mas ainda não foram votados. “A tecnologia avança em ritmo muito mais acelerado do que a legislação e do que a nossa capacidade de resposta”, argumenta Elaine.

Enquanto isso, vítimas precisam recorrer a medidas indiretas, como registrar provas em cartório, solicitar remoção com base no Marco Civil da Internet e abrir boletins de ocorrência em delegacias especializadas.

VER NA FONTE