
Em um mundo cada vez mais dependente de inteligência artificial, uma pequena alteração nos Termos de Serviço (ToS) pode ter implicações profundas para a nossa privacidade e segurança de dados. Uma recente mudança na política da Anthropic, empresa por trás do assistente de IA Claude, serve como um poderoso lembrete sobre a importância da vigilância digital.
No final de agosto de 2025, a Anthropic alterou silenciosamente sua abordagem de privacidade para usuários da versão de consumidor do Claude. Antes, a empresa adotava uma postura exemplar: nenhum dado de conversa era usado para treinar seus modelos sem um consentimento explícito do usuário, como o feedback direto através dos botões “gostei” ou “não gostei”.
Agora, a regra foi invertida. Por padrão, todas as conversas são elegíveis para se tornarem material de treinamento para o Claude, a menos que o usuário navegue ativamente até as configurações da sua conta e desative essa opção (um sistema de opt-out).
Esta análise foi inspirada por um artigo de Nate, publicado em seu Substack, intitulado “The Default Trap: Why Anthropic’s Data Policy Change Matters”. Nate cunhou o termo “A Armadilha do Padrão” (The Default Trap) para descrever exatamente este cenário. As empresas de tecnologia sabem que a maioria dos usuários não altera as configurações padrão. Ao tornar o compartilhamento de dados a opção automática, elas transformam a inércia do usuário em consentimento presumido.
O ponto crucial destacado por Nate é a diferença de tratamento: clientes empresariais e corporativos da Anthropic estão protegidos dessa mudança. Seus dados continuam sendo seus dados, por contrato. A alteração afeta apenas os usuários comuns, o que revela a dinâmica de poder e o valor dos dados neste ecossistema.
Para nós, do universo jurídico e tecnológico, essa mudança levanta uma bandeira vermelha. A distinção entre uma conta “consumidor” e uma “enterprise” é clara para a empresa de IA, mas pode ser turva para o profissional que a utiliza.
Um advogado ou profissional que usa uma conta pessoal do Claude para auxiliar em pesquisas, redigir minutas ou até mesmo organizar ideias sobre um caso pode, sem saber, estar fornecendo dados sensíveis ou confidenciais de clientes para o treinamento de um modelo de linguagem. A mudança de um modelo de opt-in (onde você precisa autorizar) para opt-out (onde você precisa negar) transfere o ônus da proteção de dados inteiramente para o usuário.
Isso toca em um ponto central do direito digital e de leis como a LGPD (Lei Geral de Proteção de Dados) no Brasil: a natureza do consentimento. O consentimento deve ser livre, informado e inequívoco. Um botão “OK” clicado apressadamente em um pop-up que anuncia a mudança dificilmente se enquadra nessa definição.
A Anthropic argumenta que precisa de dados do mundo real para melhorar a segurança e as capacidades do seu modelo. É um argumento válido. Contudo, a forma como esses dados são obtidos importa.
O episódio serve de lição para todos que utilizam ferramentas de IA, seja para fins pessoais ou profissionais:
Como bem colocou Nate, devemos tratar cada ferramenta de IA como um “carro alugado”: inspecione-o a cada uso. Entenda o que você está concordando hoje, não o que você concordou no mês passado.
Na ProcStudio IA, nossa missão é democratizar o acesso ao conhecimento jurídico com tecnologia, mas sempre com a segurança e a privacidade como pilares. Este evento reforça nossa convicção de que a transparência e o controle do usuário sobre seus próprios dados não são um luxo, mas uma necessidade fundamental na era da inteligência artificial.
A conveniência não pode vir ao custo do consentimento informado. Mantenha-se vigilante. Suas escolhas ativas sobre seus dados são a sua melhor linha de defesa.
Acha que o opt-out realmente respeita o consentimento ou estamos diante de um retrocesso perigoso em termos de privacidade? Deixe sua opinião nos comentários — seu ponto de vista pode ajudar a enriquecer esse debate!
Bruno Pellizzetti, CEO da ProcStudio e ProcStudio IA, é um advogado com mais de 15 anos de experiência no mundo jurídico e, nos últimos anos, tem se especializado em tecnologia e inteligência artificial. É o responsável pela implantação de soluções tecnológicas em processos jurídicos, com o objetivo de democratizar o acesso ao conhecimento jurídico e aumentar a eficiência das equipes jurídicas.