← Voltar a todos os artigos
Conformidade da UE

Como a Aprendizagem Automática Reduz Falsos Positivos na Monitorização ABC: Uma Solução Fintech

aiba como as fintechs europeias cortam falsos positivos ABC em 30%+ com aprendizagem automática explicável que cumpre expectativas AMLA, MiCA e RGPD.

Introdução: A Crise de Fadiga de Alertas que Está a Prejudicar a Sua Equipa de Conformidade

Os analistas de conformidade em fintechs de rápido crescimento dedicam uma parcela desproporcional do seu dia à adjudicação de alertas que, em última análise, se revelam legítimos. Análises do setor realizadas por consultoras, comunidades académicas e entidades supervisoras citam repetidamente rácios de falsos positivos de 90 a 95 por cento em programas tradicionais de monitorização de transações.[1][2] Os painéis de controlo enchem-se de alertas de baixa qualidade todas as manhãs, transformando a monitorização numa triagem repetitiva, enquanto os riscos genuínos de branqueamento de capitais se escondem no ruído.

A arquitetura regulamentar europeia torna o problema mais agudo. A futura Autoridade Antibranqueamento de Capitais unificará as expectativas de supervisão, o MiCA estende as obrigações de monitorização aos prestadores de serviços de criptoativos, e o RGPD impõe disciplina rigorosa no tratamento de dados mesmo durante as investigações.[10][11][12] As fintechs que ignoram os falsos positivos incorrem, portanto, não só em arrasto operacional, mas também no risco de ficarem aquém das obrigações multi-regime.

Os reguladores e auditores notaram a pressão. O inquérito de preparação para ABC de 2020 da Deloitte nomeou os falsos positivos como o principal obstáculo operacional para empresas reguladas que aceleram o onboarding digital.[3] Estudos de caso europeus recentes reforçam a magnitude: grandes bancos de retalho e universais documentam dezenas de milhares de alertas mensais com quotas de falsos positivos bem acima dos noventa por cento, deixando equipas de conformidade enxutas a peneirar o ruído.[4][5]

As entidades supervisoras intensificaram a aplicação da lei quando as instituições não conseguem priorizar o risco material. A ação da FCA contra o Starling Bank e a sanção da BaFin à N26 citaram explicitamente atrasos de alertas e fraquezas nas escalações, sublinhando que os reguladores veem os falsos positivos não geridos como uma fraqueza sistémica em vez de um inconveniente.[14][15] Para fundadores de fintech a operar com recursos limitados, a combinação de desperdício operacional e exposição regulamentar pode paralisar lançamentos ou descarrilar financiamentos.

A aprendizagem automática oferece uma resposta prática. Implementações documentadas mostram reduções mensuráveis de 31 a 33 por cento em falsos positivos nos primeiros ciclos de lançamento, com análises mais amplas do setor a descrever melhorias de 30 a 60 por cento quando a análise comportamental, deteção de anomalias e ciclos de feedback dos analistas são executados com governação adequada.[4][5][7] Este artigo detalha por que os sistemas baseados em regras criam fadiga de alertas, como a aprendizagem automática muda a equação, qual é o caso de negócio, e como a Veridaq alinha a tecnologia com as expectativas regulamentares europeias em evolução.

Por Que os Sistemas ABC Tradicionais Geram Falsos Positivos Excessivos

A monitorização ABC legada baseada em regras aplica limiares estáticos e heurísticas que não conseguem acompanhar o ritmo das bases de clientes dinâmicas das fintechs.[6] Regras como "sinalizar todas as transferências acima de 5.000 EUR" ou "acionar um alerta após dez transações por dia" ignoram sinais contextuais, pelo que atividade perfeitamente legítima é escalada simplesmente porque cruza um limiar bruto.

Por que as regras falham à escala:[6][7]

  • Lógica estática num negócio dinâmico. Limiares codificados rigidamente para um produto ou geografia divergem da realidade à medida que o mix de clientes evolui.
  • Cegueira contextual. As regras tratam um pagamento de 10.000 EUR da mesma forma, independentemente do histórico do cliente, dispositivo ou relação com a contraparte.
  • Desajuste de segmento. Freelancers, trabalhadores gig, pequenas empresas e consumidores de retalho comportam-se de forma diferente, mas as bibliotecas de regras aplicam frequentemente lógica universal.
  • Arrasto de manutenção manual. As equipas de conformidade gastam dezenas de horas por mês a reajustar regras, apenas para criar novos pontos cegos noutro local.

Consequências operacionais:[3][6][7]

  • As filas de alertas inflam. Os analistas limpam centenas de alertas de baixo risco antes de chegarem a um caso genuinamente suspeito, inflacionando atrasos.
  • A qualidade da investigação sofre. A fadiga de alertas corrói a concentração, aumentando a probabilidade de ignorar tipologias críticas.
  • Surgem lacunas de documentação. Equipas sob pressão lutam para produzir justificativas prontas para auditoria para descartar alertas.
  • Os reguladores aumentam o escrutínio. As autoridades europeias agora esperam evidências de que as empresas podem priorizar alertas significativos e evitar perder prazos de Comunicação de Operações Suspeitas (COS).[14][15]

Como isto se parece na prática. Uma startup de pagamentos em fase seed em expansão na Alemanha pode herdar um pacote de regras de fornecedor que sinaliza todos os pagamentos acima de 2.000 EUR. À medida que os freelancers faturam clientes corporativos, transações legítimas acionam alertas que os analistas devem limpar manualmente, muitas vezes com pouco contexto além do valor da transação. Os analistas alternam entre telas de banca central, onboarding e sanções para reunir evidências, gastando 20 a 30 minutos por alerta simplesmente para confirmar fluxo de caixa rotineiro. O trabalho de campo de 2024 da Deloitte confirma que equipas confrontadas com tais atrasos repriorizam investigações para "mais antigas primeiro", atrasando escalações de risco genuínas e corroendo a pontualidade da COS.[7] Quando este padrão persiste, os reguladores tratam o atraso como um indicador de falha de controlo sistémico.[14][15]

Custo humano do ajuste manual. Engenheiros de conformidade encarregues de atualizar bibliotecas de regras raramente têm o luxo de rótulos históricos limpos. A FATF nota que as organizações frequentemente adicionam novos limiares após cada revisão regulamentar, criando lógica conflituante entre jurisdições.[6] A proliferação de regras resultante é frágil: novas regras produzem interações imprevistas, regras mais antigas permanecem por medo de perder casos extremos, e os analistas recebem mensagens mistas sobre o que constitui risco. Com o tempo, o ciclo de "correção rápida" gera mais alertas do que resolve, impulsionando a atrito entre funcionários experientes e deixando analistas juniores a carregar cargas de trabalho investigativas sem conhecimento institucional robusto.[3][7]

O resultado líquido é previsível: sistemas baseados em regras sobre-reportam comportamento benigno, sub-reportam branqueamento subtil, e empurram o pessoal de conformidade em direção ao burnout precisamente quando as expectativas de supervisão estão a aumentar.

Como a Aprendizagem Automática Transforma as Taxas de Falsos Positivos ABC

A aprendizagem automática aborda a fadiga de alertas construindo modelos de risco adaptativos que aprendem com o comportamento real do cliente em vez de depender de heurísticas estáticas.[6] Em vez de tratar cada desvio como suspeito, os motores de AA comparam cada transação com linhas de base comportamentais ricas e contexto de sinal cruzado, permitindo variação legítima enquanto sinalizam atividade genuinamente anómala.

Capacidades centrais de AA que reduzem falsos positivos:[6][7][8][9]

  • Perfil comportamental. As linhas de base são construídas por cliente ou segmento de cliente, pelo que freelancers, PMEs, trabalhadores assalariados e utilizadores de cripto são avaliados em relação a pares com padrões semelhantes.
  • Deteção de anomalias. Técnicas não supervisionadas sinalizam desvios dessas linhas de base, capturando tipologias anteriormente invisíveis sem depender de regras pré-definidas.
  • Pontuação de risco contextual. Os modelos ingerem dados temporais, geográficos, de dispositivo, de contraparte e de velocidade, produzindo pontuações de risco compostas fundamentadas na narrativa completa da transação.
  • Aprendizagem humano-no-ciclo. As disposições dos analistas são devolvidas aos modelos, melhorando a precisão ao longo do tempo, satisfazendo simultaneamente padrões de governação para supervisão e documentação.
  • Explicabilidade por design. Códigos de razão ao nível da funcionalidade e registos de linhagem permitem às equipas demonstrar como cada decisão foi tomada, alinhando-se com as expectativas da UE para IA transparente em serviços financeiros.

Como é o sucesso na prática:[4][5][7]

  • Um banco universal europeu documentou uma redução de 31 por cento em falsos positivos após implementar triagem baseada em AA, libertando investigadores para se concentrarem em alertas de alto risco.[4]
  • Um grande banco de retalho alcançou uma redução de 33 por cento e encurtou ciclos de investigação uma vez que emparelhou aprendizagem automática com ciclos de feedback de analistas.[5]
  • O benchmarking de 2024 da Deloitte mostra que instituições que utilizam análise comportamental reportam priorização mais nítida e caminhos de escalação mais rápidos do que pares que dependem puramente de limiares.[7]

Estas melhorias não eliminam a experiência humana; amplificam-na. Os analistas gastam tempo nos alertas que importam, as equipas de governação obtêm melhores evidências para os reguladores, e as equipas de engenharia evitam reescrever interminavelmente bibliotecas de regras frágeis.

Pré-requisitos de implementação:[6][8][9]

  • Dados rotulados de alta qualidade. Execuções paralelas com revisão humana fornecem os ciclos de feedback que os modelos requerem para distinguir entre risco genuíno e comportamento benigno.
  • Governação de risco de modelo. As instituições devem manter inventários, cadências de validação e modelos de desafio para satisfazer as expectativas da ABE e do BIS para sistemas de IA em processos críticos.
  • Privacidade e controlos de acesso. Os princípios do Artigo 25 do RGPD exigem minimizar dados usados para modelagem e aplicar acesso detalhado, mesmo ao operar dentro de centros de dados da UE.[10]
  • Colaboração interfuncional. Equipas de produto, engenharia e conformidade precisam de taxonomias partilhadas para categorias de alertas e razões de disposição para que o feedback seja interpretável pelo modelo.
  • Monitorização contínua de desempenho. Estabelecer painéis de controlo para deteção de desvio, anomalias de qualidade de dados e resultados de backtesting para que problemas sejam capturados antes dos supervisores.

A FATF enfatiza que novas tecnologias entregam valor apenas quando equilibradas com governação sólida.[6] Artefactos de explicabilidade como gráficos de contribuição de funcionalidades e códigos de razão permitem que os responsáveis de conformidade interroguem por que um modelo sinalizou uma transação, enquanto modelos de desafio e validação periódica protegem contra desvio. A orientação da ABE e do BIS recomenda testes formais sob cenários de stress (por exemplo, picos súbitos em pagamentos transfronteiriços) para garantir que os modelos mantêm desempenho durante lançamentos de produtos ou choques de mercado.[8][9]

Em paralelo, o RGPD exige que as empresas mantenham trilhos de auditoria de quem acedeu a quais dados de clientes e porquê.[10] A Veridaq fornece relatórios de linhagem que mostram entradas, transformações e saídas do modelo—evidência crítica ao demonstrar que dados pessoais foram processados legalmente e proporcionalmente durante investigações.

A prontidão de dados é frequentemente o maior obstáculo prático. Os modelos de dados fintech podem abranger banca central, gateways de pagamento, processadores de cartões e livros-razão de cripto, cada um com identificadores ligeiramente diferentes. A pesquisa de 2024 da Deloitte destaca que programas de AA bem-sucedidos investem em gestão de dados mestre para que as transações possam ser reconciliadas entre sistemas, enquanto a FATF adverte que a higiene de dados deficiente mina qualquer vantagem tecnológica.[6][7] A Veridaq fornece aceleradores de integração e modelos de esquema para que as equipas possam alinhar fontes de dados díspares sem meses de esforço de engenharia.

Impacto Real: Dados de ROI para Equipas de Conformidade Fintech

O caso de negócio para monitorização ABC impulsionada por AA assenta em três pilares: ganhos de eficiência, resiliência regulamentar e experiência do cliente. Cada um tem suporte empírico de estudos de caso, ações de supervisão e benchmarking do setor.

1. Ganhos de eficiência de investigações direcionadas

  • Evidência. Implementações europeias documentadas reportam reduções de 31 a 33 por cento em falsos positivos, traduzindo-se em materialmente menos alertas a entrar em filas manuais.[4][5] A análise de 2024 da Deloitte nota que instituições que incorporam análise comportamental realocam horas de analistas de triagem para trabalho investigativo de maior valor.[7]
  • Implicação. Equipas de conformidade fintech enxutas podem absorver crescimento de transações sem aumentar linearmente o quadro de pessoal. O tempo recuperado da limpeza de alertas benignos é reinvestido em diligência reforçada, desenvolvimento de tipologia e coordenação com equipas de produto.
  • Na prática. Uma fintech de Série A que processa dezenas de milhares de transações mensais pode redistribuir analistas da limpeza de alertas repetitivos de pequeno valor para construir lógica de resolução de entidades, colaborar com contrapartes de fraude e automatizar narrativas de COS. Estas tarefas de ordem superior foram anteriormente espremidas pela gestão manual de filas.

2. Resiliência regulamentar e prontidão para auditoria

  • Evidência. O aviso final de 2024 da FCA para o Starling Bank e a sanção de 2024 da BaFin à N26 citaram cada um fraquezas na governação de alertas e pontualidade da COS.[14][15] A orientação da FATF encoraja explicitamente entidades reguladas a adotar novas tecnologias com salvaguardas apropriadas para melhorar a qualidade de deteção.[6]
  • Implicação. Demonstrar priorização de alertas baseada em risco, governação de modelo documentada e apresentações de COS pontuais posiciona as fintechs favoravelmente durante revisões de supervisão. Os sistemas de AA que fornecem decisões rastreáveis ajudam a satisfazer as expectativas de transparência agora incorporadas em diálogos de supervisão da UE.[8][9]
  • Na prática. Durante revisões temáticas, os supervisores solicitam cada vez mais evidências de como os alertas são triados e como os modelos são supervisionados. Empresas capazes de produzir inventários de modelos, resultados de validação e notas de investigadores ligadas a cada alerta simplificam estes compromissos e evitam diretivas de remediação que podem paralisar a expansão de mercado.

3. Experiência do cliente e proteção de receitas

  • Evidência. O inquérito de 2024 da Deloitte liga onboarding mais rápido e menos retenções desnecessárias a programas que digitalizam a avaliação de risco e incorporam análise comportamental.[7]
  • Implicação. Ao reduzir falsos alarmes em clientes legítimos, as fintechs minimizam a fricção de onboarding e reduzem o abandono. O tempo mais rápido para ativar suporta metas de crescimento enquanto mantém a conformidade alinhada com obrigações do RGPD e PSD2.
  • Na prática. Quando clientes de baixo risco são autorizados automaticamente, as equipas de produto podem habilitar emissão instantânea de contas ou provisionamento de cartões. O suporte ao cliente vê menos escalações relacionadas com "revisão de conformidade pendente", e o marketing pode promover com confiança ativação rápida sem arriscar exceções regulamentares.

Tomados em conjunto, estes pilares entregam uma narrativa pragmática de ROI: menos investigações desperdiçadas, postura regulamentar mais forte e uma jornada de cliente mais suave.

Métricas para monitorizar ao longo da jornada:[7]

  • Precisão e recall de alertas. Acompanhar quantos alertas se convertem em COS ou investigações de diligência reforçada para evidenciar melhorias de qualidade.
  • Horas de analista por alerta. Quantificar tempo economizado para planeamento de força de trabalho e para substanciar pedidos de orçamento para ferramentas.
  • Envelhecimento e pontuações de qualidade de COS. Demonstrar aos reguladores que as escalações aceleram e a qualidade narrativa melhora à medida que os analistas se concentram em casos substantivos.
  • Tempos de ativação de clientes. Correlacionar velocidade de onboarding com reduções de falsos positivos para mostrar impacto na receita juntamente com benefícios de conformidade.

Enquadrar estas métricas dentro de um caso de negócio ajuda a garantir alinhamento das partes interessadas. As equipas financeiras apreciam modelos que traduzem reduções de alertas em evitação de custos, enquanto conselhos e investidores respondem a narrativas que ligam força de conformidade com acesso ao mercado. Incorporar os exemplos de aplicação da FCA e BaFin em pacotes de conselho ilustra o lado negativo da inação, tornando o lado positivo do investimento em AA mais tangível.[14][15]

Veridaq: AA Impulsionada por ABC Construída de Propósito para Fintechs Europeias

A Veridaq foi projetada para trajetórias de crescimento de fintech europeias, acoplando aprendizagem automática com escolhas de design regulamentar que antecipam o regime da Autoridade Antibranqueamento de Capitais da UE (AMLA) e regulamentos adjacentes.

  • Supervisão pronta para AMLA. Com supervisão direta da AMLA a começar em 1 de janeiro de 2028, a Veridaq mantém artefactos de governação de modelo, registos de alterações e pipelines de COS estruturados para se ajustar ao projeto de supervisão da autoridade.[11] Os modelos mapeiam alertas para taxonomias de reporte da AMLA para que as equipas de conformidade possam satisfazer tanto requisitos de UIF nacionais quanto coordenação ao nível da UE.
  • Alinhamento MiCA e pagamentos. Suporte nativo para modelos de dados de criptoativos e tipologias de pagamentos reflete a aplicação faseada do Regulamento de Mercados de Criptoativos e normas técnicas relacionadas.[12][13] A Veridaq captura proveniência de carteiras, hashes de transações e atributos de travel-rule juntamente com metadados de pagamento tradicionais, permitindo monitorização unificada através de trilhos de ativos fiat e digitais.
  • RGPD e residência de dados. Todo o processamento ocorre dentro de centros de dados da UE (Frankfurt e Amesterdão), e os controlos da plataforma seguem expectativas de privacidade-por-design estabelecidas nas Orientações 4/2019 do EDPB sobre o Artigo 25.[10]
  • Explicabilidade e supervisão. Atribuição de funcionalidades, modelos de desafio e fluxos de trabalho de validação periódica seguem a orientação da Autoridade Bancária Europeia sobre governação de aprendizagem automática e as recomendações do Instituto de Estabilidade Financeira do BIS para gestão de risco de IA.[8][9]
  • Flexibilidade comercial. Preços por transação e integração API-first permitem que equipas em fase seed lancem monitorização rapidamente, enquanto a mesma arquitetura escala para volumes de Série B sem migrações de plataforma.

Cada escolha de design decorre da realidade de que as fintechs europeias inevitavelmente enfrentam supervisão multi-jurisdicional. A AMLA coordenará supervisores nacionais, o MiCA introduz novo reporte para criptoativos, e o RGPD impõe obrigações rigorosas de tratamento de dados. A arquitetura da Veridaq encurta a distância entre expectativa regulamentar e execução operacional: a documentação é exportável para colégios de supervisão, a residência de dados é comprovável através de atestações de infraestrutura, e os preços escalam com volume de transação em vez de forçar empresas em fase inicial a compromissos empresariais.

O resultado é uma plataforma que aborda falsos positivos ao mesmo tempo que incorpora a documentação, transparência e localização que os supervisores europeus agora esperam.

FAQ: Aprendizagem Automática ABC para Fundadores de Fintech

Precisamos de ABC impulsionada por AA em fase seed, ou pode esperar até Série A? Os reguladores esperam que as fintechs reguladas monitorizem transações desde o primeiro dia, independentemente do quadro de pessoal.[6][14][15] Implementar AA cedo mantém volumes de alertas gerenciáveis para equipas pequenas e demonstra gestão proativa de risco durante revisões de investidores e supervisores. Fundadores que podem evidenciar governação de modelo e métricas de alertas durante conversas de diligência fornecem aos investidores confiança de que o risco de conformidade está sob controlo, o que por sua vez acelera aprovações de produtos com bancos parceiros e esquemas de pagamento.[3][7]

Quanto tempo até vermos redução significativa de falsos positivos? Estudos de caso europeus registaram reduções de 31 a 33 por cento dentro das fases de implementação iniciais uma vez que modelos comportamentais e ciclos de feedback de analistas estavam operacionais.[4][5] As primeiras vitórias aparecem tipicamente após uma execução paralela que permite às equipas calibrar limiares antes da transição completa. A FATF recomenda combinar execuções piloto com validação estruturada para garantir que os ganhos persistem entre segmentos de clientes, pelo que as equipas devem alocar tempo para revisões interfuncionais antes de desligar regras legadas.[6]

O que acontece aos analistas de conformidade quando os volumes de alertas caem? O benchmarking de 2024 da Deloitte mostra que as equipas reatribuem funcionários a investigações, design de tipologia e ligação regulamentar à medida que a análise comportamental reduz o trabalho de triagem repetitivo.[7] A AA eleva o trabalho dos analistas em vez de o substituir. Os analistas tornam-se especialistas de domínio que explicam tipologias aos gestores de produto, contribuem para reuniões de validação de modelo e colaboram com equipas de fraude em estratégias de deteção conjunta—atividades que foram anteriormente espremidas pela triagem constante de alertas.

Como os modelos se mantêm à frente de novas técnicas de branqueamento? A orientação da FATF recomenda emparelhar modelos supervisionados (para tipologias conhecidas) com deteção de anomalias não supervisionada para revelar padrões emergentes, suportados por validação humana e governação.[6] A Veridaq segue esta abordagem, combinando aprendizagem contínua com supervisão alinhada às expectativas da ABE.[9]

A aprendizagem automática é mais cara do que conjuntos de regras tradicionais? Embora as plataformas de AA possam ter taxas de software mais elevadas, a pesquisa de 2024 da Deloitte indica que as poupanças de investigação manual reduzida tipicamente superam os custos de licenciamento dentro do primeiro ano operacional.[7] O custo total de propriedade melhora à medida que as filas de alertas encolhem. Organizações que acompanham métricas como alertas por mil transações, horas de analista por alerta e envelhecimento de COS verão o impacto financeiro nos seus painéis de controlo, fornecendo evidência concreta para discussões orçamentais.

Que base de dados precisamos antes de ligar a AA? Programas bem-sucedidos reconciliam dados através de banca central, gateways de pagamento, processadores de cartões e livros-razão de cripto para que os modelos vejam a história completa do cliente.[6][7] A ABE encoraja as empresas a documentar linhagem de dados e verificações de qualidade como parte da governação de modelo, garantindo que valores em falta ou identificadores inconsistentes não corroem o desempenho.[9] Os modelos de esquema da Veridaq aceleram este alinhamento, mas as equipas devem ainda conduzir perfilagem e limpeza de dados antes do lançamento de produção.

Como a Veridaq garante explicabilidade e conformidade com o RGPD? A plataforma mantém códigos de razão ao nível da funcionalidade, documentação de modelo pronta para auditoria e controlos de privacidade-por-design consistentes com orientação do BIS, ABE e EDPB.[8][9][10] Estes artefactos suportam exames de supervisão e obrigações de proteção de dados simultaneamente. Durante auditorias, as equipas de conformidade podem exportar trilhos de decisão mostrando quem reviu cada alerta, que evidência foi considerada e como a recomendação do modelo se comparou ao julgamento humano—um requisito crítico sob regimes tanto da AMLA quanto do RGPD.

[1]: McKinsey & Company (2017). The neglected art of risk detectionhttps://www.mckinsey.de/~/media/McKinsey/Business Functions/Risk/Our Insights/The neglected art of risk detection/The-neglected-art-of-risk-detection.pdf

[2]: Öztas, B. (2024). False positives in anti-money-laundering systems: A survey. Future Generation Computer Systems. https://www.sciencedirect.com/science/article/pii/S0167739X24002607

[3]: Deloitte (2020). AML Preparedness Surveyhttps://www.deloitte.com/in/en/services/consulting-financial/research/aml-preparedness-survey-report.html

[4]: NICE Actimize (2024). Large full-service bank reduces AML false positives by 31%https://www.niceactimize.com/Lists/CustomerSuccesses/Attachments/52/aml_case_study_bank_reduces_false_positives_31_percent.pdf

[5]: NICE Actimize (2023). Large retail bank reduces AML false positives by 33%https://www.niceactimize.com/Lists/CustomerSuccesses/Attachments/53/aml_case_study_bank_reduces_false_positives_33_percent.pdf

[6]: Financial Action Task Force (2021). Opportunities and Challenges of New Technologies for AML/CFThttps://www.fatf-gafi.org/content/dam/fatf-gafi/guidance/Opportunities-Challenges-of-New-Technologies-for-AML-CFT.pdf

[7]: Deloitte (2024). AML Transaction Monitoring: Challenges and opportunitieshttps://www.deloitte.com/ch/en/Industries/financial-services/blogs/aml-transaction-monitoring.html

[8]: BIS Financial Stability Institute (2024). Regulating AI in the financial sector: recent developments and main challenges (FSI Insights No.63). https://www.bis.org/fsi/publ/insights63.pdf

[9]: European Banking Authority (2023). Follow-up report on machine learning for IRB modelshttps://www.eba.europa.eu/sites/default/files/document_library/Publications/Reports/2023/1061483/Follow-up report on machine learning for IRB models.pdf

[10]: European Data Protection Board (2020). Guidelines 4/2019 on Article 25 Data Protection by Design and by Defaulthttps://www.edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-42019-article-25-data-protection-design-and_en

[11]: European Union Anti-Money Laundering Authority (2024). About AMLAhttps://www.amla.europa.eu/about-amla_en

[12]: European Securities and Markets Authority (2025). Markets in Crypto-Assets Regulation overviewhttps://www.esma.europa.eu/esmas-activities/digital-finance-and-innovation/markets-crypto-assets-regulation-mica

[13]: European Securities and Markets Authority (2025). MiCA Level 2 and 3 measures timelinehttps://www.esma.europa.eu/sites/default/files/2025-07/ESMA75-113276571-1510_MiCA_Level_2_and_3_table.pdf

[14]: Financial Conduct Authority (2024). Final Notice: Starling Bank Limitedhttps://www.fca.org.uk/publication/final-notices/starling-bank-limited-2024.pdf

[15]: N26 (2024). Statement on BaFin fine related to SAR reportinghttps://n26.com/en-eu/press/press-release/statement-on-the-fine-issued-to-n26-bank-ag-by-the-federal-financial-supervisory-authority


Pronto para implementar essas estratégias de conformidade?

Nossos especialistas em conformidade podem ajudá-lo a implementar as estratégias discutidas neste artigo. Agende uma consulta para orientação personalizada.

Obter Consulta de Especialista →