
Em 2016, Geoffrey Hinton previu o fim dos radiologistas. “É óbvio que em cinco anos o deep learning será melhor que radiologistas”, declarou o pioneiro da IA. “Deveríamos parar de treinar radiologistas agora mesmo.”
Nove anos depois, o oposto aconteceu: há mais radiologistas empregados do que nunca, ganhando 48% mais que em 2015. Este paradoxo, documentado por Deena Mousa em seu fascinante artigo para Works in Progress, oferece lições cruciais para advogados brasileiros enfrentando previsões similares.
No artigo original, Mousa revela dados surpreendentes: apenas 48% dos radiologistas americanos usam IA regularmente. Entre os que usam, a tecnologia é aplicada em apenas 10% dos casos. Mais intrigante ainda: verificar os outputs da IA frequentemente toma tanto tempo que elimina qualquer ganho de eficiência.
No direito brasileiro, vemos padrão idêntico. O TJSC multou advogado que apresentou jurisprudências completamente inventadas pelo ChatGPT. O TSE aplicou multa de R$ 2.400 em caso similar. Um juiz do TRF1 incluiu 8 precedentes fictícios do STJ em decisão. A verificação tornou-se tão trabalhosa que, como descobriu o escritório americano Paul Weiss após 18 meses testando IA, “qualquer ganho de eficiência é difícil de medir.”
Mousa documenta como seguradoras médicas recusam cobrir diagnósticos autônomos de IA. Algumas apólices incluem “Exclusão Absoluta de IA” - cobertura aplica-se apenas a interpretações revisadas por médico licenciado.
No Brasil, a estrutura é ainda mais rígida. A Recomendação 001/24 da OAB proíbe delegação de julgamento profissional à IA sem supervisão. A Resolução CNJ 615/2025 veta sistemas que impeçam revisão humana. Enquanto a advocacia for atividade privativa com responsabilidade pessoal indelegável, IA permanecerá ferramenta auxiliar.
O artigo original cita estudos da Stanford mostrando que as melhores IAs jurídicas têm taxa de erro entre 17-34%, mesmo usando RAG (Retrieval-Augmented Generation). No contexto brasileiro, o problema amplifica: modelos treinados em inglês e common law não compreendem nuances do direito civil brasileiro, português jurídico técnico, ou complexidade de um sistema com legislação federal, estadual e municipal em constante mudança.
Mousa revela que radiologistas dedicam apenas 36,4% do tempo à interpretação de imagens. O restante envolve comunicação, ensino, procedimentos - tarefas profundamente humanas.
Advogados brasileiros seguem proporção similar. Negociação requer leitura de sinais não-verbais. Aconselhamento sintetiza lei, negócios e ética. Estratégia considera apetite de risco do cliente. IA processa volume; humanos fornecem sabedoria contextual.
O artigo menciona paralelo crucial: a máquina Therac-25 que, entre 1985-1987, administrou doses letais de radiação por confiar demais em automação. Pacientes receberam 25.000 rads em vez de 180 prescritos. A “solução temporária”? Arrancar uma tecla do teclado e cobrir contatos com fita isolante.
No direito brasileiro, vemos ecos menos letais mas igualmente instrutivos: juízes produzindo 969 sentenças/mês com IA (média normal: 80), advogados apresentando dezenas de jurisprudências fantasmas. O viés de automação - tendência a confiar cegamente em sistemas aparentemente autoritativos - é real e perigoso.
Aqui está a virada: quando tecnologia torna serviço mais eficiente, demanda aumenta em vez de emprego diminuir.
Na radiologia, digitalização aumentou produtividade 27-98%, mas volume de exames cresceu 60% entre 2000-2008. Nenhum radiologista foi demitido. A profissão ficou mais ocupada.
No Brasil, o mercado legal tech cresceu 3.000% (2017-2022), de 20 para 600+ empresas. Grandes escritórios reportam lucros recordes. A eLaw atende 200 multinacionais com 8 agentes de IA, mas isso não eliminou advogados - liberou-os de tarefas repetitivas para trabalho estratégico de maior valor.
Como conclui Mousa: “Para já, o paradoxo se mantém.” Profissões de conhecimento resistem à automação porque sua essência não é encontrar padrões, mas aplicar julgamento contextual único.
66% dos tribunais brasileiros já usam IA. O STF tem VICTOR (analisa recursos em 5 segundos vs. 44 minutos humanos). Mas VICTOR não julga - identifica temas. A decisão final permanece inquestionavelmente humana.
A pergunta não é se IA substituirá advogados. A resposta é estruturalmente não. A pergunta é: que tipo de advogado você será na era da IA?
Aquele que delega pensamento a máquinas e colhe sanções? Ou aquele que usa ferramentas sob supervisão sábia, liberando tempo para o trabalho insubstituível de servir clientes com excelência humana?
A escolha, diferente da IA, é sua.
Para discussão: Como você equilibra uso de IA e desenvolvimento de habilidades jurídicas fundamentais? Compartilhe experiências nos comentários.
Artigo Principal:
Fontes de Apoio Mencionadas:
Casos Brasileiros e Regulamentação:
Mercado Legal Tech Brasileiro:
Bruno Pellizzetti, CEO da ProcStudio e ProcStudio IA, é um advogado previdenciário com mais de 15 anos de experiência no mundo jurídico e nos últimos anos tem se especializado em tecnologia e inteligência artificial. O responsável para implantação de soluções tecnológicas em processos jurídicos nas empresas com o objetivo de democratizar o acesso ao conhecimento jurídico para todos e aumentar a eficiência e precisão das equipes jurídicas.