US$ 4 bilhões recuperados: como o Tesouro dos EUA usa IA contra pagamentos fraudulentos

O Tesouro dos EUA usou machine learning para prevenir e recuperar US$ 4 bilhões em fraudes no ano fiscal de 2024, um salto de 6x.

No ano fiscal de 2024, o Departamento do Tesouro dos Estados Unidos preveniu e recuperou mais de US$ 4 bilhões em pagamentos fraudulentos e impróprios, usando processos aprimorados de detecção de fraude que incluem machine learning. No ano fiscal anterior, esse número era de US$ 652,7 milhões. O salto de mais de 6 vezes em um único ano é, talvez, o caso mais impressionante de retorno sobre investimento em IA aplicada a finanças que existe no setor público global.

Vamos analisar como o governo americano conseguiu esse resultado, o que a experiência ensina para departamentos financeiros corporativos e por que a abordagem "humano no loop" foi fundamental.

A escala do problema: US$ 6,9 trilhões em pagamentos anuais

Para entender a magnitude do desafio, considere os números: o Tesouro dos EUA, por meio do Bureau of the Fiscal Service, é a agência central de desembolso do governo federal americano. Ele processa aproximadamente 1,4 bilhão de pagamentos por ano, totalizando mais de US$ 6,9 trilhões, destinados a mais de 100 milhões de pessoas. Isso inclui benefícios da previdência social (Social Security), restituições de impostos, pagamentos a fornecedores é uma miríade de outros desembolsos federais.

Em uma operação dessa escala, mesmo uma fração percentual de fraude representa bilhões de dólares. E os fraudadores sabem disso. Cheques falsificados, identidades roubadas, fornecedores fantasma e esquemas de pagamento duplicado são problemas persistentes que se intensificaram nos anos pós-pandemia, quando trilhões em auxílios emergenciais ampliaram a superfície de ataque.

A anatomia dos US$ 4 bilhões: de onde veio cada parcela

O Tesouro detalhou como os US$ 4 bilhões foram distribuídos entre diferentes iniciativas:

  • US$ 2,5 bilhões — Identificação e priorização de transações de alto risco. Modelos de machine learning classificam pagamentos por nível de risco, permitindo que analistas foquem nos casos mais críticos em vez de revisar amostras aleatórias.
  • US$ 1 bilhão — Detecção acelerada de fraude em cheques do Tesouro com machine learning. Este é o componente mais diretamente baseado em IA: algoritmos que analisam padrões de endosso, depósito e encashment para identificar cheques fraudados antes que os fundos sejam irrecuperáveis.
  • US$ 500 milhões — Expansão do screening baseado em risco para novas agências e programas federais. Mais pontos de controle significam mais fraudes interceptadas.
  • US$ 180 milhões — Otimização de cronogramas de processamento de pagamentos que ajudou a prevenir pagamentos impróprios adicionais.

Como o machine learning funciona na prática

O Office of Payment Integrity (OPI), dentro do Bureau of the Fiscal Service, é o centro de operações dessa iniciativa. O OPI usa machine learning para examinar grandes volumes de dados e sinalizar esquemas potencialmente fraudulentos. A mecânica funciona assim:

Detecção de fraude em cheques

Apesar da era digital, os cheques continuam sendo um instrumento relevante nos pagamentos governamentais americanos. E a fraude em cheques é surpreendentemente sofisticada: fraudadores lavam cheques (removem a tinta original e reescrevem), forjam endossos e utilizam identidades roubadas para depositar cheques de terceiros.

O modelo de ML do Tesouro analisa padrões como:

  • Localização do depósito versus endereço do beneficiário original
  • Padrões temporais — cheques depositados em horários ou sequências atípicas
  • Histórico do depositante — se a conta receptora tem padrões consistentes com atividade legítima
  • Características do instrumento — anomalias no formato, valor ou sequência de numeração dos cheques

O modelo classifica cada cheque por probabilidade de fraude e os casos de maior risco são direcionados para investigação humana. Esse componente sozinho recuperou US$ 1 bilhão em 2024.

Screening de pagamentos em larga escala

Para pagamentos eletrônicos, o sistema opera de forma diferente. Antes de liberar um pagamento, ele é cruzado contra múltiplas bases de dados:

  • Lista de beneficiários com alertas — Contas bancárias associadas a fraudes anteriores
  • Dados biográficos inconsistentes — Quando o titular da conta não corresponde ao beneficiário registrado
  • Padrões de pagamento anormais — Mudanças súbitas em contas de destino, valores atípicos ou frequência incomum de pagamentos

O machine learning entra para priorizar essas verificações. Em vez de tratar todos os alertas igualmente (o que sobrecarregaria os analistas), o modelo atribui scores de risco que determinam quais casos exigem atenção imediata e quais podem ser processados com controles padrão.

O princípio do "humano no loop"

Um aspecto fundamental da abordagem do Tesouro é que a IA não toma decisões finais sozinha. Conforme descrito por representantes do departamento, "um humano está sempre no loop" — as agências federais fazem a determinação final sobre o que constitui fraude.

Isso não é apenas uma precaução regulatória. É uma necessidade prática:

  • Falsos positivos têm consequências graves — Bloquear o benefício previdenciário de um aposentado por um alarme falso de fraude causa dano real a pessoas vulneráveis
  • Contexto importa — Algumas transações que parecem anômalas para um algoritmo são perfeitamente legítimas quando o contexto é considerado (mudança de endereço legítima, procuração legal, etc.)
  • Accountability legal — Decisões de bloqueio de pagamentos governamentais precisam ter uma cadeia clara de responsabilidade humana

Esse princípio é transferível para o setor privado. Empresas que implementam IA para detecção de fraudes frequentemente cometem o erro de automatizar demais, gerando atrito com clientes legítimos ou, pior, bloqueando pagamentos críticos. O modelo do Tesouro mostra que a IA funciona melhor como amplificadora da capacidade humana, não como substituta do julgamento humano.

O salto de US$ 652 milhões para US$ 4 bilhões: o que mudou

O crescimento de mais de 6x em um ano não se explica apenas por algoritmos melhores. Três fatores foram determinantes:

1. Expansão da base de clientes — O OPI expandiu seus serviços para novas agências federais, ampliando o volume de pagamentos cobertos pelo screening automatizado. Cada nova agência traz seus próprios padrões de fraude, enriquecendo os modelos.

2. Acúmulo de dados de treinamento — Modelos de ML melhoram com mais dados. Os casos detectados em anos anteriores alimentaram os modelos de 2024, criando um ciclo virtuoso: mais detecções geram mais dados, que geram detecções melhores.

3. Maturação tecnológica — Os modelos iniciais eram mais simples e conservadores. Com o tempo, a equipe ganhou confiança para calibrar os modelos de forma mais agressiva, reduzindo o limiar de score para investigação sem comprometer a taxa de falsos positivos.

Lições para o setor privado

A experiência do Tesouro americano oferece insights valiosos para qualquer departamento financeiro que processe pagamentos em volume:

Comece pelo problema de maior impacto. O Tesouro não tentou resolver todos os tipos de fraude ao mesmo tempo. Começou com cheques, onde tinha dados abundantes e o impacto financeiro era mensurável. Identifique onde a fraude gera mais custo na sua operação e foque ali.

Invista em dados antes de investir em modelos. O sucesso do ML depende da qualidade e volume dos dados de treinamento. Se sua empresa não tem um repositório centralizado de dados transacionais com marcação de fraudes confirmadas, esse é o primeiro passo.

Meça o ROI com rigor. O Tesouro consegue demonstrar exatamente quanto foi prevenido e recuperado. Isso sustenta o investimento contínuo. Departamentos financeiros que não medem o impacto de suas iniciativas de prevenção têm dificuldade em justificar orçamento para ampliações.

Não subestime fraudes "analógicas". Em um mundo obcecado por cibersegurança, é fácil ignorar vetores de fraude tradicionais como cheques. O Tesouro recuperou US$ 1 bilhão apenas com detecção de fraude em cheques. O equivalente corporativo pode ser faturas duplicadas, fornecedores fantasma ou notas fiscais infladas.

O contexto global: governos adotando IA contra fraude

O caso americano não é isolado. Governos em todo o mundo estão investindo em IA para proteger os cofres públicos:

  • O Reino Unido utiliza IA no HMRC (equivalente à Receita Federal) para detectar fraudes tributárias
  • A Índia aplicou IA no sistema Aadhaar para verificar identidades em pagamentos de benefícios
  • A Austrália implementou ML no sistema de welfare para detectar pagamentos indevidos

A tendência é clara: conforme os orçamentos públicos ficam mais pressionados, a capacidade de recuperar bilhões em fraudes com investimento relativamente modesto em tecnologia torna a IA uma das decisões de investimento mais justificáveis do setor público.

O que levar para a prática

  1. Implemente scoring de risco em pagamentos antes da liberação. Mesmo um modelo simples que classifique pagamentos em alto, médio e baixo risco já permite que sua equipe priorize revisões onde elas mais importam.
  2. Mantenha o humano no loop para decisões de bloqueio. Use IA para sinalizar e priorizar, mas mantenha a decisão final com pessoas treinadas. Isso reduz falsos positivos e protege o relacionamento com fornecedores e clientes.
  3. Construa um repositório de fraudes confirmadas. Cada fraude detectada na sua empresa é um dado de treinamento valioso. Documente sistematicamente: tipo de fraude, como foi detectada, valor envolvido e indicadores que estavam presentes.
  4. Busque escala progressiva. Comece com um tipo de pagamento ou uma unidade de negócio. Meça resultados. Expanda gradualmente. O Tesouro levou anos para ir de projetos-piloto a US$ 4 bilhões em prevenção.
  5. Compare o custo da fraude com o custo da prevenção. Se sua empresa perde 0,5% a 2% do faturamento em fraudes e pagamentos indevidos (uma faixa comum), calcule quanto uma redução de 30% a 50% nessas perdas representaria. Esse é o teto do seu investimento em prevenção.