Chile reconhece 'neurodireitos' na constituição: como isso pode influenciar a regulação de IA financeira

O único país do mundo com proteção constitucional de neurodireitos -- precedente regulatório para IA em finanças na AL.

Em outubro de 2021, o Chile se tornou o primeiro e único país do mundo a incluir neurodireitos na Constituição. A Lei 21.383 adicionou proteção explicita a "atividade cerebral e as informações derivadas dela", tratando dados neurais com o mesmo status legal de um órgão humano -- algo que não pode ser comprado, vendido, traficado ou manipulado. Em agosto de 2023, a Suprema Corte chilena reforçou esse precedente ao condenar a empresa americana Emotiv por uso indevido de dados neurais de um senador chileno. Pode parecer distante do mundo financeiro, mas as implicações são profundas e diretas.

Neste post, analisamos o que os neurodireitos chilenos significam para a regulação de IA na América Latina -- é por que equipes financeiras devem prestar atenção.

O que são neurodireitos e por que o Chile os constitucionalizou

Neurodireitos são direitos fundamentais relacionados a proteção da atividade mental e dos dados gerados pelo cérebro. O conceito surgiu com o avanco da neurotecnologia -- dispositivos capazes de ler, interpretar e, em alguns casos, influenciar a atividade cerebral.

A legislação chilena reconhece especificamente:

  • Direito a identidade pessoal: proteção contra alterações da individualidade por neurotecnologias.
  • Direito ao livre-arbitrio: proteção contra manipulação de decisões por tecnologias que acessam dados cerebrais.
  • Direito a privacidade mental: dados neurais são dados pessoais sensitiveis e devem ser protegidos como tal.
  • Direito ao acesso equitativo: tecnologias de aprimoramento cognitivo não devem criar desigualdades injustas.
  • Proteção contra vieses algorítmicos: algoritmos que processam dados neurais devem ser livres de discriminação.

O Chile não fez isso por acaso. O país foi palco de uma campanha liderada pela NeuroRights Foundation, vinculada a Universidade Columbia, que identificou a necessidade de proteção legal antes que a neurotecnologia se torne ubiqua.

O caso Emotiv: o precedente que chamou a atenção do mundo

Em 2023, o senador chileno Guido Girardi Lavin entrou com uma ação contra a Emotiv Inc., empresa de San Francisco que fabrica headsets portateis de eletroencefalografia (EEG). O dispositivo Insight da Emotiv -- um headset sem fio com sensores que coletam informações sobre a atividade elétrica do cérebro -- era usado por Girardi.

O que a Corte decidiu:

A Suprema Corte chilena determinou que a Emotiv violou os direitos constitucionais do senador a integridade física e psíquica é a privacidade. O ponto central: a Emotiv reteve dados neurais do usuário para fins de pesquisa, mesmo em formato anonimizado, sem obter consentimento previo para esse uso específico.

Por que isso importa para além da neurotecnologia:

A decisão estabeleceu dois princípios que se estendem a qualquer tecnologia que processe dados pessoais:

  1. Consentimento granular: não basta um consentimento genérico. O usuário deve concordar especificamente com cada uso de seus dados.
  2. Dados anonimizados não são carta branca: a anonimização não elimina a necessidade de consentimento para usos não previstos originalmente.

Esses dois princípios têm impacto direto sobre como empresas financeiras podem usar dados de clientes em modelos de IA.

A conexão com IA financeira: mais próxima do que parece

A primeira reação de muitos profissionais de finanças ao ouvir sobre neurodireitos e: "isso não têm nada a ver com o meu trabalho." Mas têm. É a conexão opera em três níveis:

Nível 1: Precedente regulatório para dados pessoais em IA

O Chile está construindo um arcabouco jurídico que trata dados processados por algoritmos como merecedores de proteção especial -- não apenas dados neurais, mas qualquer dado que revele padrões intimos sobre uma pessoa. Modelos de credit scoring que inferem comportamento financeiro a partir de padrões de consumo, localização e hábitos digitais estão no mesmo espectro conceitual.

Nível 2: A lei de IA chilena em tramitação

O Chile não parou nós neurodireitos. Em maio de 2024, o Executivo chileno apresentou um projeto de lei de regulação de IA que foi aprovado pela Câmara dos Deputados em outubro de 2025 e enviado ao Senado. O projeto adota uma abordagem baseada em risco, similar ao EU AI Act, com categorias que vão de risco inaceitável a risco não evidente. Sistemas de IA em serviços financeiros se enquadram naturalmente nas categorias de risco alto.

Nível 3: Efeito cascata na América Latina

O Chile não esta sozinho. O modelo chileno esta influenciando toda a região:

  • Brasil: o PL 2338/2023, aprovado pelo Senado em dezembro de 2024, adota classificação baseada em risco e inclui princípios de transparência e não discriminação. O Banco Central terá papel na supervisão de IA em serviços financeiros.
  • Colombia: esta considerando atualizar sua lei de proteção de dados para incluir seções específicas sobre processamento de dados por IA e neurotecnologias.
  • Mexico: também está em discussão legislação sobre proteção de dados no contexto de IA.
  • Parlatino: o Parlamento Latino-Americano e Caribenho publicou em 2022 um Modelo de Lei de Neurodireitos que serve como referência para legislações nacionais, incluindo a criação de autoridades independentes de supervisão.

O que os neurodireitos revelam sobre a direção da regulação

Além do conteúdo específico da legislação chilena, o movimento dos neurodireitos revela tendências regulatórias mais amplas que afetam diretamente equipes financeiras:

Tendência 1: Proteção constitucional de dados

Quando um direito sobe ao nível constitucional, ele ganha uma força jurídica que legislações ordinárias não têm. O Chile colocou a proteção de dados neurais no mesmo nível de direitos fundamentais como liberdade de expressão e propriedade. Se outros países seguirem esse caminho com dados pessoais em geral, as obrigações de empresas que usam IA para processar dados de pessoas serão significativamente mais rigorosas.

Tendência 2: Consentimento como pilar central

O caso Emotiv reforçou que consentimento deve ser específico, informado e granular. Para equipes financeiras, isso significa que o consentimento genérico nos termos de uso pode não ser suficiente para justificar o uso de dados de clientes em modelos de IA de credit scoring ou personalização.

Tendência 3: Responsabilidade algorítmica

A legislação chilena inclui proteção contra vieses algorítmicos. Isso antecipa um mundo onde empresas serão legalmente responsáveis não apenas pelos dados que coletam, mas pelas decisões que seus algoritmos tomam com base nesses dados.

Tendência 4: Regulação regional coordenada

O Modelo de Lei do Parlatino é a influência chilena sobre as legislações de Brasil, Colombia e Mexico sugerem que a América Latina pode caminhar para uma regulação relativamente harmonizada de IA -- diferente do cenário fragmentado em outras regiões.

O que isso significa para empresas brasileiras

Para empresas financeiras brasileiras, o cenário regulatório está se formando rapidamente:

  • O PL 2338/2023 está em tramitação na Câmara dos Deputados, com comissão especial analisando o texto.
  • O Banco Central será uma das autoridades setoriais responsáveis por supervisionar IA em serviços financeiros.
  • A LGPD já impoe obrigações sobre uso de dados pessoais em decisões automatizadas (art. 20), incluindo o direito a explicação.
  • O precedente chileno pode influenciar a jurisprudência brasileira, especialmente em casos envolvendo discriminação algorítmica em crédito e seguros.

A janela para se preparar e agora -- não quando a regulação estiver em vigor.

Preparação prática: o que fazer hoje

Independentemente de quando a regulação final será aprovada no Brasil, as tendências são claras o suficiente para justificar ação:

Revisar bases legais para uso de dados em IA

Verifique se o consentimento obtido dos clientes cobre especificamente o uso de seus dados em modelos de IA. O padrão de consentimento esta subindo, como o caso Emotiv demonstrou.

Documentar decisões algorítmicas

Para cada modelo de IA que toma decisões sobre clientes (crédito, cobrança, limites, preços), documente a lógica, os dados utilizados e os controles contra vieses. Isso será exigido em auditorias regulatórias.

Monitorar vieses ativamente

Implemente testes periódicos de vieses em modelos de crédito e risco. Não espere uma reclamação ou ação judicial para descobrir que seu modelo discrimina.

Acompanhar a regulação regional

Monitore não apenas o PL brasileiro, mas também as legislações chilena e colombiana. Empresas com operações regionais precisarão atender múltiplas jurisdicoes.

O que levar deste post

  1. Revise as bases legais de consentimento para uso de dados de clientes em modelos de IA -- o padrão de consentimento esta subindo, como demonstra o caso Emotiv no Chile.
  2. Documente a lógica de decisões algorítmicas em modelos de crédito, cobrança e risco -- isso será exigido por regulações em tramitação no Brasil e na região.
  3. Implemente testes periódicos de vieses em todos os modelos que tomam decisões sobre pessoas, antes que a regulação exija.
  4. Acompanhe a tramitação do PL 2338/2023 no Brasil é a regulação de IA no Chile e na Colombia -- a tendência e de harmonização regional.