O Cenário Vicioso: A Armadilha da Substituição

Ler Resumo

Em dezembro de 2024, um dos maiores escritórios de advocacia do mundo cortou cerca de 50 posições em Londres — algo em torno de 10% do seu back-office. A justificativa incluía, explicitamente, o aumento do uso de inteligência artificial. Semanas depois, o relatório Citi/Hildebrandt, referência no setor, projetou que 63% dos grandes escritórios esperam mudanças estruturais em seus modelos de leverage até 2035. E Bruce MacEwen, um dos consultores mais respeitados do mercado jurídico, declarou que não consegue ver o modelo de hora faturável sobrevivendo à chegada da IA generativa. Não são previsões. São decisões operacionais, dados quantitativos e leituras de incentivos feitas por quem vive o setor.

Se o artigo anterior mostrou o cenário virtuoso — a IA como alavanca de inovação e prosperidade —, este mostra o que acontece quando o mesmo movimento é canalizado apenas para substituição. A diferença entre os dois não está na tecnologia. Está nas escolhas.

Existe uma diferença enorme entre “IA como ferramenta” e “IA como força institucional”. Ferramenta é quando você decide usar, em um caso específico, para ganhar velocidade ou clareza. Força institucional é quando, mesmo que você pessoalmente não queira, a tecnologia começa a mudar como escritórios contratam, treinam, cobram, entregam e erram — e como clientes e tribunais reagem. É aqui que a conversa deixa de ser só sobre produtividade e vira sobre estabilidade: a estabilidade do trabalho, da formação profissional, do modelo econômico da advocacia e, no limite, da confiança social no sistema de justiça.

O que torna 2025–2026 um ponto de virada é que a mudança já deixou de ser hipótese de futuro e virou decisão operacional concreta. Quando um grande escritório aponta IA como fator de corte de pessoal, isso funciona como sinal público — não apenas para o mercado, mas para a cultura interna de toda a indústria. O recado implícito é: o trabalho que sustentava certas funções agora pode ser reconfigurado. Não importa se a IA é a única causa; basta que ela seja uma causa admitida para inaugurar um novo tipo de justificativa social para reestruturações.

A reação em cadeia é previsível porque o mundo jurídico, especialmente em grandes firmas, é uma máquina de engrenagens muito específicas. Você não contrata dezenas ou centenas de profissionais juniores apenas por altruísmo ou tradição: você contrata porque o modelo econômico foi construído sobre uma base larga. Essa base faz triagem, pesquisa, revisão, diligências, primeiras versões de documentos — tarefas repetitivas e volumosas. Ela aprende fazendo. E, fazendo muito, ela também financia o topo, porque a diferença entre custo interno e preço cobrado por hora alimenta margens. Quando uma IA começa a fazer uma parte relevante dessas tarefas em minutos, o modelo não perde só tempo: ele perde uma parte da lógica que sustentava a pirâmide.

Continua após a publicidade

É por isso que a discussão mais séria não é “vai ter IA nos escritórios?”, mas “qual forma organizacional sobrevive quando a IA encurta a base?”. O próprio relatório Citi/Hildebrandt descreve a aceleração de um movimento “da pirâmide para o cilindro”, com base mais enxuta e maior dependência de profissionais seniores — porque o trabalho repetitivo e de baixo valor é justamente o mais automatizável. As firmas podem continuar crescendo o total de associados, mas planejam crescer menos nos primeiros anos. A escada começa a faltar justamente nos degraus iniciais.

A consequência mais importante aqui não é um gráfico de headcount. É uma pergunta de formação: se dezenas de milhares de horas de trabalho júnior desaparecem, onde acontece o aprendizado que transformava um recém-formado em alguém que, anos depois, consegue aconselhar estrategicamente um cliente sob pressão real? A própria executiva do Citi citada na reportagem descreve isso como a grande questão: como crescer pessoas para virarem conselheiros estratégicos quando o treino de base é nocauteado pela automação. E quando MacEwen diz que as firmas estão lamentavelmente despreparadas e que o modelo de hora faturável não sobrevive, não é apenas retórica apocalíptica; é uma leitura de incentivos. Se o valor entregue deixa de ser proporcional ao tempo gasto, insistir em cobrar tempo vira um atrito estrutural com o cliente — e a pressão por mudança não vem de dentro, vem de fora.

Aqui entra o ponto que conecta advocacia, economia e sociedade: o Direito não é só uma profissão, ele é infraestrutura. Ele reduz incerteza, organiza promessas, define riscos, viabiliza crédito, dá previsibilidade a contratos e disputas. Quando a infraestrutura muda rápido demais, a sociedade sente. E a velocidade, hoje, é parte do choque. O Thomson Reuters Institute, ao discutir cenários de inteligência artificial avançada, descreve exatamente o dilema: se o trabalho júnior some, como a expertise é construída e como as carreiras começam quando os degraus mais baixos da escada deixam de existir? E, no mesmo raciocínio, afirma que o modelo de hora faturável se torna completamente insustentável em cenários de sistemas capazes de produzir trabalho de alta qualidade em minutos. A pergunta retórica é direta: por que pagar US$ 500 por hora por pesquisa que um sistema muito avançado faz em segundos?

Continua após a publicidade

Imagine um ciclo vicioso simples: quanto maior a participação da IA na produção de trabalho jurídico, menos oportunidades reais de treinamento humano existem. Com menos treino, cai a produtividade humana independente — a capacidade de fazer sem IA e, principalmente, de supervisionar a IA com rigor. Com produtividade humana menor, cai a demanda por humanos para tarefas que antes eram a escola prática — e isso incentiva ainda mais a adoção de IA para preencher o buraco. O ciclo se reforça sozinho: mais IA reduz treino; menos treino aumenta dependência; mais dependência aumenta espaço para IA. Em profissões de alta responsabilidade, a perda de competência não é abstrata: ela vira erro em petição, cláusula mal interpretada, prazo perdido, orientação equivocada, condenação, dano reputacional.

E o erro, com IA, tem um traço novo: escala. Antes, a falha profissional tinha o ritmo humano. Agora, uma falha pode ser reproduzida em dezenas de peças em poucos minutos. O banco de dados de Damien Charlotin documenta a progressão de casos envolvendo alucinações de IA em arquivamentos judiciais: de um punhado em 2023 para mais de 300 instâncias identificadas. O ponto central não é moralista; é institucional: não se trata mais de lapsos individuais, e sim de uma falha profissional sistemática em escala inédita. Esse é o tipo de consequência que destrói confiança. E confiança é o combustível invisível do Direito.

E aqui aparece uma segunda armadilha econômica: verificação custa. Se a IA acelera a produção, mas a checagem precisa ser quase total — porque o risco de inventar uma citação ou distorcer um fato é real —, você pode estar trocando horas de produção por horas de verificação, e não necessariamente ganhando eficiência líquida. A dependência pode evoluir de uso como assistente para cegueira de dependência: quando a pessoa já não consegue reconhecer a falha porque desaprendeu a base.

Continua após a publicidade

Existe ainda um terceiro movimento que atinge a sociedade fora da bolha jurídica: a popularização da IA dá a não-advogados a sensação de que podem resolver sozinhos questões complexas. Isso pode ter um lado positivo, porque amplia acesso a informação e pode ajudar pessoas sem representação a entenderem se existe um problema jurídico. Mas também tem um lado perigoso: excesso de confiança. O relatório da Task Force on Artificial Intelligence da New York State Bar Association trata explicitamente do uso de IA por não-advogados e do risco de receber informação enganosa com aparência confiante, além da dificuldade de um leigo perceber vieses, casos falsos e outras alucinações. A maioria das partes em casos civis nos tribunais estaduais americanos não tem advogado. A tentação de substituir orientação por um chatbot é real — e a consequência pode ser piorar a qualidade do acesso à justiça, não melhorar, se as pessoas forem empurradas para decisões ruins com confiança falsa.

Esse ponto toca diretamente a dinâmica econômica mais ampla, porque a mesma força que reduz empregos na base do Direito reduz renda, e renda reduz consumo, e consumo reduz lucro agregado, e lucros menores reduzem investimento e estabilidade institucional. O Direito não escapa dessa cadeia: menos renda significa menos capacidade de pagar por assistência jurídica; mais pessoas ficam sem representação; o sistema fica mais congestionado; decisões demoram; a incerteza econômica aumenta.

Quando você junta todas essas peças, a instabilidade institucional fica clara e, principalmente, causal. Se você quiser um norte simples, dá para resumir a dinâmica assim: quando a IA entra para cortar tempo, ela mexe no preço; quando mexe no preço, mexe no modelo de receita; quando mexe no modelo de receita, mexe na estrutura de contratação; quando mexe na contratação, mexe no treinamento; quando mexe no treinamento, mexe na qualidade futura; quando mexe na qualidade futura, mexe na confiança; quando mexe na confiança, mexe no próprio papel institucional do Direito na economia. Esse encadeamento é tão forte que não depende de opinião — ele depende de incentivos.

Continua após a publicidade

Até aqui, parece um quadro inevitavelmente pessimista. Mas ele não é. Ele é condicional. E é aqui que entra a parte central do argumento: a IA pode ajudar ou piorar a vida — depende de como indivíduos e instituições adotam. O cenário virtuoso do artigo anterior e o cenário vicioso deste artigo não são destinos. São possibilidades. A mesma IA que pode reduzir desigualdade de acesso pode aumentar desigualdade de renda. A mesma automação que pode libertar o advogado de tarefas mecânicas pode destruir a escada que formava advogados competentes. A mesma velocidade que pode tornar o Direito mais barato pode torná-lo mais frágil se a confiança for corroída por erros em escala.

O desfecho, então, não é “aceitar ou rejeitar IA”. É escolher o tipo de profissão e o tipo de sociedade que você constrói com ela. Mas o que exatamente determina essa escolha? O que está nas mãos de empresas e indivíduos? Esse é o tema do próximo e último artigo desta série.

VER NA FONTE