Unit21 relança plataforma de IA para crime financeiro com 99% de precisão

Resumo do dia: Unit21 reestreia como infraestrutura de IA para risco, HPE reduz relatórios em 40% com agentes, Experian prevê fraude máquina a máquina e Oliver Wyman aponta 4x mais precisão em compliance

Unit21 relança plataforma como infraestrutura de IA para crime financeiro com 99% de precisão. A empresa anunciou rebranding completo e plataforma reconstruída em torno de agentes autônomos que tunam regras, investigam alertas, executam fluxos e protocolam relatórios regulatórios — sem que o analista precise conduzir cada etapa. Desde o lançamento em maio, o AI Agent revisou mais de 300 mil alertas com 99% de precisão e automatiza até 90% das operações de fraude e AML. Clientes como Underdog Fantasy cortaram alertas em 72% e a Nexo reduziu 57%. Com mais de 200 instituições usando a plataforma, incluindo Intuit, Chime e Sallie Mae, a Unit21 aposta que compliance orientado por IA deixou de ser diferencial e passou a ser sobrevivência: "vamos perder se não usarmos IA", afirma a fundadora Trisha Kothari. (Business Wire)

HPE CFO reduz ciclo de relatórios financeiros em 40% com agentes de IA chamados de "Alfred". A CFO da Hewlett Packard Enterprise, Marie Myers, detalhou em entrevista ao CFO Dive como a empresa desenvolve com a Deloitte o CFO Insights — ferramenta que combina IA generativa e agentes autônomos sobre um "tecido de dados" unificado com informações financeiras, de supply chain e operacionais. Agentes são configurados como "mini personas" de analistas específicos (receita, backlog, AP) e executam consultas recorrentes sozinhos. O resultado: 40% a menos no tempo do ciclo de reporting e 25% a menos nos custos de processamento. A reunião semanal de 90 minutos com 100 slides preparados manualmente deu lugar a conversas mais estratégicas. (CFO Dive)

Experian alerta: "caos máquina a máquina" será a maior ameaça de fraude em 2026. No seu Fraud Forecast anual, a Experian identifica o uso de agentes de IA por fraudadores como o principal risco do ano — sistemas autônomos que cometem fraudes sem supervisão humana, dificultando a atribuição de responsabilidade legal. Golpes com deepfake cresceram mais de 2.000% nos últimos três anos; um relatório da Citi estima que 50% de toda fraude já envolve alguma forma de IA. A empresa prevê que interações máquina a máquina chegarão a um ponto de inflexão que vai forçar conversas urgentes sobre responsabilidade, regulação e o papel da IA no comércio digital. (Experian)

Oliver Wyman: IA agêntica pode automatizar 70% do trabalho de compliance e quadruplicar a precisão na detecção de riscos. Em novo relatório, a consultora detalha como agentes de IA estão reestruturando as operações de compliance em bancos — atuando como orquestradores semiautônomos de fluxos complexos de monitoramento, em vez de ferramentas isoladas. A análise indica que automatizar até 70% do trabalho manual pode melhorar a precisão de detecção de risco em até quatro vezes e viabilizar monitoramento regulatório contínuo. A consequência para as equipes de compliance é uma mudança de perfil: de revisores manuais para configuradores de playbooks de IA e gestores de exceções. (Oliver Wyman)

JPMorgan: mercados de crédito são "a última fronteira" da automação por IA. Sanjay Jhamna, responsável pelo trading de crédito do banco, afirmou ao Bloomberg que a IA generativa está prestes a transformar o trabalho dos traders de crédito — área que, ao contrário de renda variável e câmbio, ainda depende fortemente de análise manual de dados não estruturados como documentos, prospectos e notas de rating. O banco, que já destina US$ 19,8 bilhões ao orçamento de tecnologia em 2026, está implementando agentes autônomos capazes de gerar memorandos de crédito de 50 páginas em segundos. Para Jhamna, o crédito chega tarde à automação exatamente por sua complexidade — mas a IA o torna o próximo mercado a ser transformado. (Bloomberg)

Setor financeiro brasileiro investe mais em IA, mas confiança ainda trava adoção. Levantamento publicado pela TI Inside mostra que, apesar do crescimento dos aportes — o orçamento dos bancos brasileiros em IA, analytics e big data deve saltar de R$ 1,12 bilhão em 2024 para R$ 1,8 bilhão em 2025 — a desconfiança persiste como principal obstáculo à adoção em escala. Os entraves apontados incluem explicabilidade dos modelos, alinhamento com LGPD e PL 2338/2023 (o projeto de lei de IA), e resistência cultural interna. O diagnóstico é claro: o Brasil tem infraestrutura de dados competitiva (Open Finance com mais de 100 milhões de consentimentos ativos), mas ainda precisa construir a camada de governança que converta investimento em confiança operacional. (TI Inside)

Forrester cria categoria "Bot & Agent Trust Management" para tratar fraude por agentes de IA. Em análise publicada em março, o Security Boulevard destaca que a Forrester renomeou oficialmente a categoria "Bot Management" para incorporar a nova realidade: usuários não visitam mais sites por conta própria — enviam agentes de IA para registrar contas, fazer login, comprar e executar transações. Sem frameworks claros de classificação de agentes e políticas de responsabilidade, organizações ficam expostas a disputas jurídicas sem precedente (quem responde quando um agente autônomo faz uma compra contestada?). Com o EU AI Act estabelecendo requisitos para sistemas autônomos, a capacidade de verificar, auditar e atribuir ações de agentes deixa de ser boa prática e vira obrigação de compliance. (Security Boulevard)