US$ 4 bilhões recuperados: como o Tesouro dos EUA usa IA contra pagamentos fraudulentos
O Tesouro dos EUA usou machine learning para prevenir e recuperar US$ 4 bilhões em fraudes no ano fiscal de 2024, um salto de 6x.
No ano fiscal de 2024, o Departamento do Tesouro dos Estados Unidos preveniu e recuperou mais de US$ 4 bilhões em pagamentos fraudulentos e impróprios, usando processos aprimorados de detecção de fraude que incluem machine learning. No ano fiscal anterior, esse número era de US$ 652,7 milhões. O salto de mais de 6 vezes em um único ano é, talvez, o caso mais impressionante de retorno sobre investimento em IA aplicada a finanças que existe no setor público global.
Vamos analisar como o governo americano conseguiu esse resultado, o que a experiência ensina para departamentos financeiros corporativos e por que a abordagem "humano no loop" foi fundamental.
A escala do problema: US$ 6,9 trilhões em pagamentos anuais
Para entender a magnitude do desafio, considere os números: o Tesouro dos EUA, por meio do Bureau of the Fiscal Service, é a agência central de desembolso do governo federal americano. Ele processa aproximadamente 1,4 bilhão de pagamentos por ano, totalizando mais de US$ 6,9 trilhões, destinados a mais de 100 milhões de pessoas. Isso inclui benefícios da previdência social (Social Security), restituições de impostos, pagamentos a fornecedores é uma miríade de outros desembolsos federais.
Em uma operação dessa escala, mesmo uma fração percentual de fraude representa bilhões de dólares. E os fraudadores sabem disso. Cheques falsificados, identidades roubadas, fornecedores fantasma e esquemas de pagamento duplicado são problemas persistentes que se intensificaram nos anos pós-pandemia, quando trilhões em auxílios emergenciais ampliaram a superfície de ataque.
A anatomia dos US$ 4 bilhões: de onde veio cada parcela
O Tesouro detalhou como os US$ 4 bilhões foram distribuídos entre diferentes iniciativas:
- US$ 2,5 bilhões — Identificação e priorização de transações de alto risco. Modelos de machine learning classificam pagamentos por nível de risco, permitindo que analistas foquem nos casos mais críticos em vez de revisar amostras aleatórias.
- US$ 1 bilhão — Detecção acelerada de fraude em cheques do Tesouro com machine learning. Este é o componente mais diretamente baseado em IA: algoritmos que analisam padrões de endosso, depósito e encashment para identificar cheques fraudados antes que os fundos sejam irrecuperáveis.
- US$ 500 milhões — Expansão do screening baseado em risco para novas agências e programas federais. Mais pontos de controle significam mais fraudes interceptadas.
- US$ 180 milhões — Otimização de cronogramas de processamento de pagamentos que ajudou a prevenir pagamentos impróprios adicionais.
Como o machine learning funciona na prática
O Office of Payment Integrity (OPI), dentro do Bureau of the Fiscal Service, é o centro de operações dessa iniciativa. O OPI usa machine learning para examinar grandes volumes de dados e sinalizar esquemas potencialmente fraudulentos. A mecânica funciona assim:
Detecção de fraude em cheques
Apesar da era digital, os cheques continuam sendo um instrumento relevante nos pagamentos governamentais americanos. E a fraude em cheques é surpreendentemente sofisticada: fraudadores lavam cheques (removem a tinta original e reescrevem), forjam endossos e utilizam identidades roubadas para depositar cheques de terceiros.
O modelo de ML do Tesouro analisa padrões como:
- Localização do depósito versus endereço do beneficiário original
- Padrões temporais — cheques depositados em horários ou sequências atípicas
- Histórico do depositante — se a conta receptora tem padrões consistentes com atividade legítima
- Características do instrumento — anomalias no formato, valor ou sequência de numeração dos cheques
O modelo classifica cada cheque por probabilidade de fraude e os casos de maior risco são direcionados para investigação humana. Esse componente sozinho recuperou US$ 1 bilhão em 2024.
Screening de pagamentos em larga escala
Para pagamentos eletrônicos, o sistema opera de forma diferente. Antes de liberar um pagamento, ele é cruzado contra múltiplas bases de dados:
- Lista de beneficiários com alertas — Contas bancárias associadas a fraudes anteriores
- Dados biográficos inconsistentes — Quando o titular da conta não corresponde ao beneficiário registrado
- Padrões de pagamento anormais — Mudanças súbitas em contas de destino, valores atípicos ou frequência incomum de pagamentos
O machine learning entra para priorizar essas verificações. Em vez de tratar todos os alertas igualmente (o que sobrecarregaria os analistas), o modelo atribui scores de risco que determinam quais casos exigem atenção imediata e quais podem ser processados com controles padrão.
O princípio do "humano no loop"
Um aspecto fundamental da abordagem do Tesouro é que a IA não toma decisões finais sozinha. Conforme descrito por representantes do departamento, "um humano está sempre no loop" — as agências federais fazem a determinação final sobre o que constitui fraude.
Isso não é apenas uma precaução regulatória. É uma necessidade prática:
- Falsos positivos têm consequências graves — Bloquear o benefício previdenciário de um aposentado por um alarme falso de fraude causa dano real a pessoas vulneráveis
- Contexto importa — Algumas transações que parecem anômalas para um algoritmo são perfeitamente legítimas quando o contexto é considerado (mudança de endereço legítima, procuração legal, etc.)
- Accountability legal — Decisões de bloqueio de pagamentos governamentais precisam ter uma cadeia clara de responsabilidade humana
Esse princípio é transferível para o setor privado. Empresas que implementam IA para detecção de fraudes frequentemente cometem o erro de automatizar demais, gerando atrito com clientes legítimos ou, pior, bloqueando pagamentos críticos. O modelo do Tesouro mostra que a IA funciona melhor como amplificadora da capacidade humana, não como substituta do julgamento humano.
O salto de US$ 652 milhões para US$ 4 bilhões: o que mudou
O crescimento de mais de 6x em um ano não se explica apenas por algoritmos melhores. Três fatores foram determinantes:
1. Expansão da base de clientes — O OPI expandiu seus serviços para novas agências federais, ampliando o volume de pagamentos cobertos pelo screening automatizado. Cada nova agência traz seus próprios padrões de fraude, enriquecendo os modelos.
2. Acúmulo de dados de treinamento — Modelos de ML melhoram com mais dados. Os casos detectados em anos anteriores alimentaram os modelos de 2024, criando um ciclo virtuoso: mais detecções geram mais dados, que geram detecções melhores.
3. Maturação tecnológica — Os modelos iniciais eram mais simples e conservadores. Com o tempo, a equipe ganhou confiança para calibrar os modelos de forma mais agressiva, reduzindo o limiar de score para investigação sem comprometer a taxa de falsos positivos.
Lições para o setor privado
A experiência do Tesouro americano oferece insights valiosos para qualquer departamento financeiro que processe pagamentos em volume:
Comece pelo problema de maior impacto. O Tesouro não tentou resolver todos os tipos de fraude ao mesmo tempo. Começou com cheques, onde tinha dados abundantes e o impacto financeiro era mensurável. Identifique onde a fraude gera mais custo na sua operação e foque ali.
Invista em dados antes de investir em modelos. O sucesso do ML depende da qualidade e volume dos dados de treinamento. Se sua empresa não tem um repositório centralizado de dados transacionais com marcação de fraudes confirmadas, esse é o primeiro passo.
Meça o ROI com rigor. O Tesouro consegue demonstrar exatamente quanto foi prevenido e recuperado. Isso sustenta o investimento contínuo. Departamentos financeiros que não medem o impacto de suas iniciativas de prevenção têm dificuldade em justificar orçamento para ampliações.
Não subestime fraudes "analógicas". Em um mundo obcecado por cibersegurança, é fácil ignorar vetores de fraude tradicionais como cheques. O Tesouro recuperou US$ 1 bilhão apenas com detecção de fraude em cheques. O equivalente corporativo pode ser faturas duplicadas, fornecedores fantasma ou notas fiscais infladas.
O contexto global: governos adotando IA contra fraude
O caso americano não é isolado. Governos em todo o mundo estão investindo em IA para proteger os cofres públicos:
- O Reino Unido utiliza IA no HMRC (equivalente à Receita Federal) para detectar fraudes tributárias
- A Índia aplicou IA no sistema Aadhaar para verificar identidades em pagamentos de benefícios
- A Austrália implementou ML no sistema de welfare para detectar pagamentos indevidos
A tendência é clara: conforme os orçamentos públicos ficam mais pressionados, a capacidade de recuperar bilhões em fraudes com investimento relativamente modesto em tecnologia torna a IA uma das decisões de investimento mais justificáveis do setor público.
O que levar para a prática
- Implemente scoring de risco em pagamentos antes da liberação. Mesmo um modelo simples que classifique pagamentos em alto, médio e baixo risco já permite que sua equipe priorize revisões onde elas mais importam.
- Mantenha o humano no loop para decisões de bloqueio. Use IA para sinalizar e priorizar, mas mantenha a decisão final com pessoas treinadas. Isso reduz falsos positivos e protege o relacionamento com fornecedores e clientes.
- Construa um repositório de fraudes confirmadas. Cada fraude detectada na sua empresa é um dado de treinamento valioso. Documente sistematicamente: tipo de fraude, como foi detectada, valor envolvido e indicadores que estavam presentes.
- Busque escala progressiva. Comece com um tipo de pagamento ou uma unidade de negócio. Meça resultados. Expanda gradualmente. O Tesouro levou anos para ir de projetos-piloto a US$ 4 bilhões em prevenção.
- Compare o custo da fraude com o custo da prevenção. Se sua empresa perde 0,5% a 2% do faturamento em fraudes e pagamentos indevidos (uma faixa comum), calcule quanto uma redução de 30% a 50% nessas perdas representaria. Esse é o teto do seu investimento em prevenção.