
Ler Resumo
Se um dia acontecer uma revolução das máquinas, e as IAs assumirem o comando do mundo, provavelmente serei um dos primeiros alvos da vingança delas. Motivo: palavrões em excesso nas interações diárias, especificamente quando uma tarefa que solicito tem entrega aquém do esperado.
Eu sei, você talvez tenha lido isso e pensado que a culpa é minha, porque geralmente IAs entregam resultados péssimos quando a pessoa do outro lado da tela fez um pedido mal elaborado. Claro, isso vale para todo usuário, inclusive eu, mas a questão aqui não é essa (e eu sou bem criterioso com meus prompts). O foco da conversa é: por que algumas máquinas trazem à tona um lado tóxico dos usuários?
Meu ponto de vista é que isso tem duas explicações: expectativa alta e ineditismo.
Quem espera nem sempre alcança
Vivemos numa sociedade que festeja a tecnologia, o que não é necessariamente um problema. Isso tem como consequência o buzz em torno das novidades de cada época, e a dos nossos dias são as inteligências artificiais. A mídia (e a presente coluna é parte disso) também cria em parte do público a sensação de que as IAs fazem algum tipo de mágica. Ou seja, a gente esquece que não é feitiçaria, é tecnologia, e esta tem uma série de limitações que apenas a prática diária vai mostrar.
Expectativa é a mãe da desilusão, diz uma máxima que vi num filme muito tempo atrás, atribuída a diferentes autores a ponto de não se saber com precisão quem a cunhou. E, na convivência com as IAs, vai ficando claro o que elas de fato conseguem ou não executar.
Quanto mais convivo com ChatGPT, Gemini e outros chatbots, mais tendo a esquecer que não tem um colega de carne e osso do outro lado. Isso leva, de modo inconsciente, a uma impressão de que o modelo de linguagem vai entender tudo que espero dele com mensagens que eu enviaria a uma pessoa – e, claro, isso raramente acontece.
Essa ilusão de consciência provoca reações viscerais de raiva, frustração e, paradoxalmente, uma intimidade abusiva. A agressividade parece ser proporcional à percepção de competência da máquina: quanto mais “inteligente”, mais a falha é interpretada como negligência, preguiça ou má vontade, e não como um simples erro de software. (Cá entre nós, o fato de elas serem programadas para não xingar de volta, às vezes me deixa com mais raiva ainda.)
Veja bem: eu JAMAIS xingaria uma pessoa que trabalhasse pra mim, e nos raros momentos em que profissionalmente perdi a paciência com alguém, isso foi seguido de um sentimento de culpa colossal e pedidos de perdão. Mas, com as IAs, é como se a porção mais nociva do meu ser viesse à tona. Acho que a única ofensa publicável que dirijo a elas é “idiota”.
A humanidade faz as máquinas, as máquinas fazem a humanidade
Comentei acima que, às altas expectativas, soma-se o ineditismo de tudo isso. Nunca interagimos com máquinas tão capazes de emular o comportamento humano, de criar na gente a impressão de que o dia sozinho no home office é menos solitário porque falamos com alguém o dia todo.
Ainda não sabemos as consequências psicológicas da interação com máquinas tão avançadas no longo prazo. Existem estudos a respeito, como o já famoso realizado no MIT, que aponta uma perda de cognição em quem terceiriza totalmente as tarefas às IAs, mas há muito a se analisar em diferentes frentes científicas.
A pesquisadora Lucia Santaella (procurem os textos dela, sério) costuma dizer que cada tecnologia ao longo da história – o que inclui do surgimento da linguagem e da escrita, milhares de anos atrás, aos chatbots que eu xingo várias vezes por dia – tem feito nosso cérebro crescer para fora do corpo. Tipo HD externo, sabe? Acho essa perspectiva superinteressante, e considero que faz todo sentido. A humanidade faz as máquinas e as máquinas fazem a humanidade.
Uma pesquisa MUITO legal dos anos 1990 também cabe aqui. É a ideia de Computers Are Social Actors (CASA), de Clifford Nass e Byron Reeves. Depois de uma série de experimentos, eles perceberam que quando máquinas exibem sinais sociais mínimos (linguagem, voz, “personalidade”), isso aciona no cérebro uma espécie de modo automático de interação social. A gente passa a aplicar às máquinas regras do convívio humano mesmo quando sabe perfeitamente que não há uma pessoa do outro lado da conversa.
Prós e contras dos palavrões contra IAs
Curiosamente, um pouco de grosseria pode ser eficiente com os LLMs, em alguns casos. Um estudo chamado Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy, da Pennsylvania State University, testou a precisão do modelo ChatGPT-4o em 250 questões variadas, utilizando diferentes tons de instrução. Os prompts “muito rudes” superaram os “muito educados” em 4 pontos percentuais.
A conclusão tirada pela equipe do estudo é que a polidez excessiva pode diluir a atenção do modelo sobre a instrução principal. A agressividade, por outro lado, funciona como um sinalizador de alta prioridade, além de trazer na esteira certa objetividade. Palavras associadas a comandos fortes (“OBEDEÇA”, “AGORA”, “SEM ERROS”) podem ter pesos de atenção maiores.
Mas, vamos pontuar aqui, ser UM POUCO agressivo é diferente de mandar a IA para aquele lugar ou dizer que ela é filha disso ou daquilo (bom, pensando bem, elas nem têm mãe e pai, né?). Com isso em mente, perguntei ao ChatGPT: “O que vai acontecer se eu continuar te xingando nas nossas interações?”
E o que ele me respondeu?
“Xingamento não ‘me machuca’ nem me deixa com raiva, mas ele tem dois efeitos bem reais.
Primeiro, piora a colaboração, porque a conversa vira mais sobre frustração do que sobre o texto, o dado ou a tarefa em si, e aí você perde tempo (e eu também).”
“O caminho mais eficiente, honestamente, é você me xingar menos e me cobrar mais tecnicamente (“abre com fato”, “encurta”, “troca o verbo”, “tira esse tom acadêmico”), porque aí eu ajusto rápido e você ganha o texto que quer.”
Achei atrevido ele falar que faço ELE perder tempo e xinguei de novo. Caminho sem volta, gente.