by Anusha Parisutham4minutos • Inteligência artificial e tecnologia • abril 28, 2025
Como a IA Está Ajudando a Contra-Atacar Crimes Financeiros
Embora seja verdade que os atores mal intencionados atualmente exploram a IA com poucas restrições, os “atores bem intencionados” nos serviços financeiros possuem suas próprias forças únicas, particularmente quando se trata de aproveitar a IA para defesa contra fraude e crimes financeiros.
Entendendo Como os Fraudadores Usam a IA
Os atores mal intencionados enfrentam uma barreira de entrada muito baixa para usar a Inteligência Artificial. Eles têm liberdade para usar a tecnologia para qualquer novo esquema que possam imaginar e não hesitam em explorar os dados de outras pessoas. Os atores legítimos, por outro lado, devem navegar por uma teia complicada de regulamentações e considerações éticas. Embora essencial, conciliar privacidade de dados, segurança, conformidade regulatória e a necessidade de IA justa e imparcial pode inadvertidamente criar obstáculos para o desenvolvimento responsável de modelos de IA por instituições financeiras.
Como a IA pode fortalecer as instituições financeiras.
Os atores legítimos não devem se desencorajar. É possível reverter a situação contra os criminosos — seguindo uma página do manual deles. Especificamente, quando se trata de colaboração e compartilhamento de inteligência.
Tendências da Inteligência Artificial na Prevenção de Fraudes e Crimes Financeiros para 2025
Instituições financeiras do mundo inteiro estão adotando a inteligência artificial em um ritmo acelerado. A inteligência artificial agora é uma […]

Os criminosos compartilham informações com facilidade. Isso levanta a questão: por que os profissionais do setor financeiro não adotam uma abordagem colaborativa semelhante para combater essa ameaça em comum?
Imagine-se fazendo dos “Vingadores” versão Serviços Financeiros. Cada super-herói traz seu próprio conjunto de habilidades especiais para a luta contra a ameaça comum. Nos serviços financeiros, tal esforço une instituições financeiras em toda a indústria, provedores de tecnologia, reguladores, equipes de segurança cibernética, analistas de fraude e enriquecedores de terceiros contra fraudadores. Os membros desse time de super-heróis podem usar a IA para combinar diferentes insights e analisar as últimas ameaças de fraude e crimes financeiros.
Superando Barreiras para a Prevenção de Fraude Impulsionada por IA
Historicamente, preocupações com o compartilhamento de dados dificultaram a colaboração entre instituições. Embora regulamentações como o Artigo 314B do US Patriot Act incentivem a troca de dados sob suspeita de lavagem de dinheiro, os incentivos para uma participação mais ampla têm sido limitados.
No entanto, a chave para uma colaboração eficaz reside no compartilhamento de sinais de risco anonimizados, padrões de fraude e metadados – insights, não dados brutos de clientes – o que pode reforçar significativamente a segurança de todo o ecossistema de serviços financeiros. Técnicas como o aprendizado federado facilitam ainda mais isso, permitindo que modelos de fraude aprendam em várias fontes de dados sem comprometer a privacidade ou a segurança.
Colaboração: A Chave para a Prevenção de Fraude Impulsionada por IA
Reunir vários participantes em todo o ecossistema financeiro é um passo crítico na colaboração contra a fraude. A coleta de múltiplos insights de diversas instituições financeiras e provedores de tecnologia permite que as organizações aprendam padrões importantes de crimes financeiros, protegendo, assim, os dados dos clientes. Aplicando técnicas de aprendizado federado em várias fontes de dados, os modelos de fraude podem inovar e melhorar continuamente sem comprometer a privacidade ou a segurança dos dados.
Construindo sobre esta base de inteligência colaborativa, é crucial que os atores bem intencionados também adotem a mentalidade de seus adversários. É aqui que a IA adversarial e o aprendizado de máquina se tornam inestimáveis. Mesmo que você ainda não veja um ataque de fraude, pode usar testes adversariais para simular um possível ataque ou padrão de fraude. Seu sistema de IA pode imitar padrões de fraude adquiridos com a inteligência colaborativa e mirar nas defesas do seu sistema. Usando esses dados, você vê onde seu sistema é mais vulnerável.
Inspirando-se nas práticas de segurança cibernética, onde as ‘equipes vermelhas’ simulam ataques para testar as defesas das ‘equipes azuis’, as instituições financeiras podem aproveitar a IA para testes adversariais. Ao imitar padrões de fraude aprendidos com a inteligência colaborativa, os sistemas de IA podem sondar suas próprias vulnerabilidades. Essa abordagem, inspirada nas melhores práticas de segurança cibernética, não apenas fortalece as defesas individuais, mas também incentiva o valioso compartilhamento de conhecimento e a colaboração entre as equipes de segurança cibernética e de fraude dentro das organizações financeiras.
Há poder no trabalho em equipe colaborativo e maneiras de fazer isso de forma eficaz para atores bem intencionados, utilizando IA de maneira responsável. Os atores mal intencionados já estão trabalhando juntos para cometer fraudes. Os atores legítimos podem garantir que o ecossistema de serviços financeiros permaneça confiável, tornando os esforços colaborativos uma parte central de sua estratégia de prevenção de fraude baseada em IA.
Toda a experiência e os insights vêm de Feedzians humanos, mas podemos tirar proveito da inteligência artificial para aprimorar a formulação ou a eficiência. Boas-vindas ao futuro.