Um estudo apresentado nesta semana na conferência da Association for Computing Machinery (principal conferência internacional sobre ética na tecnologia), em Atenas, acendeu um alerta sobre os riscos enfrentados por crianças e adolescentes no ambiente digital. Pesquisadores analisaram o vocabulário informal da chamada Geração Alfa — formada por pessoas nascidas entre 2010 e 2025 — e concluíram que parte significativa da linguagem usada em redes sociais, jogos e chats escapa à compreensão de adultos e sistemas automatizados de moderação, inclusive os mais avançados.
A pesquisa foi liderada por uma estudante de 14 anos da Califórnia, Manisha Mehta, em parceria com Fausto Giunchiglia, da Universidade de Trento, na Itália. Eles compilaram 100 expressões populares entre jovens, com base em interações nas plataformas digitais mais usadas por essa geração. Entre elas, estão frases como “let him cook” (que pode significar incentivo ou zombaria, dependendo do contexto), “kys” (antes entendida como “know yourself”, agora lida por muitos como “kill yourself”) e “is it acoustic” (uma forma velada de debochar de alguém com autismo).
Os adultos entendem o que está sendo dito?
Para testar o grau de compreensão dessa linguagem, os pesquisadores recrutaram 24 adolescentes de 11 a 14 anos para analisar as expressões, identificar seu significado e dizer se podiam ter conotação ofensiva. O desempenho foi alto: 98% entenderam o significado básico, 96% reconheceram o contexto e 92% conseguiram detectar quando havia uso malicioso.
Em contraste, pais, moderadores humanos profissionais e quatro modelos de linguagem de IA — incluindo o GPT-4, da OpenAI — tiveram desempenho muito inferior. Os adultos identificaram corretamente os usos nocivos em apenas cerca de um terço dos casos. Já os modelos de IA acertaram menos de 43% das vezes — variando de 32,5% (Llama 3) a 42,3% (Claude).
Qual o risco disso?
O estudo chama atenção para os limites da tecnologia e dos adultos na mediação da experiência digital das crianças. Como a linguagem da Geração Alfa muda rapidamente e muitas vezes emprega ironia, memes ou códigos internos, detectar casos de bullying, assédio ou exclusão se torna mais difícil — inclusive para sistemas de IA usados pelas próprias plataformas.
Segundo os pesquisadores, isso levanta preocupações sobre a eficácia da moderação automatizada em ambientes frequentados por menores. Com a tendência crescente de uso de inteligência artificial para monitoramento de conteúdo, falhas de interpretação podem deixar crianças vulneráveis a abusos invisíveis.