Chile reconhece 'neurodireitos' na constituicao: como isso pode influenciar a regulação de IA financeira
O unico pais do mundo com protecao constitucional de neurodireitos -- precedente regulatorio para IA em finanças na AL.
Em outubro de 2021, o Chile se tornou o primeiro e unico pais do mundo a incluir neurodireitos na Constituicao. A Lei 21.383 adicionou protecao explicita a "atividade cerebral e as informacoes derivadas dela", tratando dados neurais com o mesmo status legal de um orgao humano -- algo que não pode ser comprado, vendido, traficado ou manipulado. Em agosto de 2023, a Suprema Corte chilena reforçou esse precedente ao condenar a empresa americana Emotiv por uso indevido de dados neurais de um senador chileno. Pode parecer distante do mundo financeiro, mas as implicacoes são profundas e diretas.
Neste post, analisamos o que os neurodireitos chilenos significam para a regulação de IA na America Latina -- e por que equipes financeiras devem prestar atencao.
O que são neurodireitos e por que o Chile os constitucionalizou
Neurodireitos são direitos fundamentais relacionados a protecao da atividade mental e dos dados gerados pelo cerebro. O conceito surgiu com o avanco da neurotecnologia -- dispositivos capazes de ler, interpretar e, em alguns casos, influenciar a atividade cerebral.
A legislacao chilena reconhece especificamente:
- Direito a identidade pessoal: protecao contra alteracoes da individualidade por neurotecnologias.
- Direito ao livre-arbitrio: protecao contra manipulacao de decisões por tecnologias que acessam dados cerebrais.
- Direito a privacidade mental: dados neurais são dados pessoais sensitiveis e devem ser protegidos como tal.
- Direito ao acesso equitativo: tecnologias de aprimoramento cognitivo não devem criar desigualdades injustas.
- Protecao contra vieses algoritmicos: algoritmos que processam dados neurais devem ser livres de discriminacao.
O Chile não fez isso por acaso. O pais foi palco de uma campanha liderada pela NeuroRights Foundation, vinculada a Universidade Columbia, que identificou a necessidade de protecao legal antes que a neurotecnologia se torne ubiqua.
O caso Emotiv: o precedente que chamou a atencao do mundo
Em 2023, o senador chileno Guido Girardi Lavin entrou com uma acao contra a Emotiv Inc., empresa de San Francisco que fabrica headsets portateis de eletroencefalografia (EEG). O dispositivo Insight da Emotiv -- um headset sem fio com sensores que coletam informacoes sobre a atividade eletrica do cerebro -- era usado por Girardi.
O que a Corte decidiu:
A Suprema Corte chilena determinou que a Emotiv violou os direitos constitucionais do senador a integridade fisica e psiquica e a privacidade. O ponto central: a Emotiv reteve dados neurais do usuario para fins de pesquisa, mesmo em formato anonimizado, sem obter consentimento previo para esse uso especifico.
Por que isso importa para além da neurotecnologia:
A decisao estabeleceu dois principios que se estendem a qualquer tecnologia que processe dados pessoais:
- Consentimento granular: não basta um consentimento generico. O usuario deve concordar especificamente com cada uso de seus dados.
- Dados anonimizados não são carta branca: a anonimizacao não elimina a necessidade de consentimento para usos não previstos originalmente.
Esses dois principios tem impacto direto sobre como empresas financeiras podem usar dados de clientes em modelos de IA.
A conexao com IA financeira: mais proxima do que parece
A primeira reacao de muitos profissionais de finanças ao ouvir sobre neurodireitos e: "isso não tem nada a ver com o meu trabalho." Mas tem. E a conexao opera em tres niveis:
Nivel 1: Precedente regulatorio para dados pessoais em IA
O Chile esta construindo um arcabouco juridico que trata dados processados por algoritmos como merecedores de protecao especial -- não apenas dados neurais, mas qualquer dado que revele padroes intimos sobre uma pessoa. Modelos de credit scoring que inferem comportamento financeiro a partir de padroes de consumo, localizacao e habitos digitais estão no mesmo espectro conceitual.
Nivel 2: A lei de IA chilena em tramitacao
O Chile não parou nos neurodireitos. Em maio de 2024, o Executivo chileno apresentou um projeto de lei de regulação de IA que foi aprovado pela Camara dos Deputados em outubro de 2025 e enviado ao Senado. O projeto adota uma abordagem baseada em risco, similar ao EU AI Act, com categorias que vão de risco inaceitavel a risco não evidente. Sistemas de IA em serviços financeiros se enquadram naturalmente nas categorias de risco alto.
Nivel 3: Efeito cascata na America Latina
O Chile não esta sozinho. O modelo chileno esta influenciando toda a regiao:
- Brasil: o PL 2338/2023, aprovado pelo Senado em dezembro de 2024, adota classificação baseada em risco e inclui principios de transparencia e não discriminacao. O Banco Central terá papel na supervisao de IA em serviços financeiros.
- Colombia: esta considerando atualizar sua lei de protecao de dados para incluir secoes especificas sobre processamento de dados por IA e neurotecnologias.
- Mexico: também esta em discussao legislacao sobre protecao de dados no contexto de IA.
- Parlatino: o Parlamento Latino-Americano e Caribenho publicou em 2022 um Modelo de Lei de Neurodireitos que serve como referencia para legislacoes nacionais, incluindo a criacao de autoridades independentes de supervisao.
O que os neurodireitos revelam sobre a direcao da regulação
Além do conteudo especifico da legislacao chilena, o movimento dos neurodireitos revela tendencias regulatorias mais amplas que afetam diretamente equipes financeiras:
Tendencia 1: Protecao constitucional de dados
Quando um direito sobe ao nivel constitucional, ele ganha uma forca juridica que legislacoes ordinarias não tem. O Chile colocou a protecao de dados neurais no mesmo nivel de direitos fundamentais como liberdade de expressao e propriedade. Se outros paises seguirem esse caminho com dados pessoais em geral, as obrigacoes de empresas que usam IA para processar dados de pessoas serão significativamente mais rigorosas.
Tendencia 2: Consentimento como pilar central
O caso Emotiv reforçou que consentimento deve ser especifico, informado e granular. Para equipes financeiras, isso significa que o consentimento generico nos termos de uso pode não ser suficiente para justificar o uso de dados de clientes em modelos de IA de credit scoring ou personalização.
Tendencia 3: Responsabilidade algortimica
A legislacao chilena inclui protecao contra vieses algoritmicos. Isso antecipa um mundo onde empresas serão legalmente responsaveis não apenas pelos dados que coletam, mas pelas decisões que seus algoritmos tomam com base nesses dados.
Tendencia 4: Regulação regional coordenada
O Modelo de Lei do Parlatino e a influencia chilena sobre as legislacoes de Brasil, Colombia e Mexico sugerem que a America Latina pode caminhar para uma regulação relativamente harmonizada de IA -- diferente do cenario fragmentado em outras regioes.
O que isso significa para empresas brasileiras
Para empresas financeiras brasileiras, o cenario regulatorio esta se formando rapidamente:
- O PL 2338/2023 esta em tramitacao na Camara dos Deputados, com comissao especial analisando o texto.
- O Banco Central será uma das autoridades setoriais responsaveis por supervisionar IA em serviços financeiros.
- A LGPD já impoe obrigacoes sobre uso de dados pessoais em decisões automatizadas (art. 20), incluindo o direito a explicacao.
- O precedente chileno pode influenciar a jurisprudencia brasileira, especialmente em casos envolvendo discriminacao algortimica em credito e seguros.
A janela para se preparar e agora -- não quando a regulação estiver em vigor.
Preparacao pratica: o que fazer hoje
Independentemente de quando a regulação final será aprovada no Brasil, as tendencias são claras o suficiente para justificar acao:
Revisar bases legais para uso de dados em IA
Verifique se o consentimento obtido dos clientes cobre especificamente o uso de seus dados em modelos de IA. O padrao de consentimento esta subindo, como o caso Emotiv demonstrou.
Documentar decisões algoritmicas
Para cada modelo de IA que toma decisões sobre clientes (credito, cobranca, limites, precos), documente a logica, os dados utilizados e os controles contra vieses. Isso será exigido em auditorias regulatorias.
Monitorar vieses ativamente
Implemente testes periodicos de vieses em modelos de credito e risco. Não espere uma reclamacao ou acao judicial para descobrir que seu modelo discrimina.
Acompanhar a regulação regional
Monitore não apenas o PL brasileiro, mas também as legislacoes chilena e colombiana. Empresas com operações regionais precisarao atender multiplas jurisdicoes.
O que levar deste post
- Revise as bases legais de consentimento para uso de dados de clientes em modelos de IA -- o padrao de consentimento esta subindo, como demonstra o caso Emotiv no Chile.
- Documente a logica de decisões algoritmicas em modelos de credito, cobranca e risco -- isso será exigido por regulacoes em tramitacao no Brasil e na regiao.
- Implemente testes periodicos de vieses em todos os modelos que tomam decisões sobre pessoas, antes que a regulação exija.
- Acompanhe a tramitacao do PL 2338/2023 no Brasil e a regulação de IA no Chile e na Colombia -- a tendencia e de harmonizacao regional.