Cibersegurança

PIX, IA e deepfakes: como o Brasil virou o laboratório global dos golpes digitais

Share
Imagem gerada com IA
Share

Com fraudes no PIX que já somam R$ 4,9 bilhões e crimes com deepfakes crescendo 822%, o país testa tecnologias de biometria comportamental que prometem expor até as falsificações mais realistas

Por Cassiano Cavalcanti, especialista em segurança digital da BioCatch

O Brasil ocupa hoje uma posição paradoxal no cenário global de cibersegurança. De um lado, é líder em inovação financeira, com o PIX como um dos sistemas de pagamentos instantâneos mais avançados e adotados do mundo. De outro, é também alvo prioritário de criminosos digitais que exploram a velocidade e conveniência do sistema para executar golpes em escala industrial. O vetor mais recente dessa ameaça é alimentado pela inteligência artificial generativa e pelos deepfakes, que inauguraram uma nova era de fraudes em que “ver para crer” já não é suficiente.

Os números revelam a dimensão do desafio. Em 2024, o Banco Central registrou quase R$ 5 bilhões em prejuízos com fraudes no PIX, uma alta de 70% em relação ao ano anterior. No mesmo período, crimes envolvendo deepfakes cresceram 822% no Brasil, taxa cinco vezes superior à observada nos Estados Unidos. Globalmente, a Deloitte projeta que as perdas causadas por fraudes potencializadas por IA saltem de US$ 12,3 bilhões em 2023 para US$ 40 bilhões até 2027. Não é uma ameaça abstrata: poucos segundos de áudio já permitem clonar vozes e gerar vídeos falsos em tempo real, capazes de enganar até profissionais experientes.

Casos recentes expõem o poder destrutivo dessa combinação. No início de 2024, um funcionário financeiro em Hong Kong transferiu US$ 25 milhões após uma videoconferência com deepfakes de seu CFO e colegas. O episódio da multinacional de engenharia britânica Arup, com perdas similares, foi apontado pelo Fórum Econômico Mundial como exemplo paradigmático da engenharia social amplificada por IA. No Brasil, a Polícia Civil do Distrito Federal desmantelou um esquema de R$ 50 milhões que usava deepfakes para acesso a contas bancárias. O denominador comum é a sofisticação. Não são mais mensagens mal escritas ou vozes artificiais, mas sim interações perfeitas na forma, e perigosamente falsas no conteúdo.

Diante dessa nova fronteira da fraude, as defesas tradicionais (como senhas, tokens ou até biometria facial) tornam-se vulneráveis. A voz pode ser clonada, a face pode ser recriada, mas há algo que mesmo o deepfake mais realista não consegue imitar com precisão: o comportamento humano no ambiente digital. É aqui que entra a biometria comportamental, tecnologia capaz de analisar padrões sutis de interação como ritmo de digitação, pressão na tela, trajetória do mouse, alternância entre aplicativos e cadência de navegação.

Na prática, esses padrões funcionam como uma “proteção invisível” que distingue o usuário legítimo de um fraudador, mesmo quando este possui credenciais corretas ou utiliza imagens e áudios convincentes. Soluções de biometria comportamental já analisam bilhões de sessões mensais em diferentes países e mostraram resultados expressivos: em um grande banco latino-americano, por exemplo, a adoção dessa tecnologia reduziu em 67% os golpes de engenharia social, sem gerar atrito adicional para o cliente – combinando maior segurança com conveniência.

Sinais comportamentais também ajudam a identificar manipulação em curso. Um exemplo é a “urgência induzida”, detectada quando há cliques rápidos seguidos de pausas longas, típicas de quem está recebendo instruções externas durante uma transação. Outro é a presença de ações atípicas, como copiar e colar dados sensíveis, comportamento registrado em 30% das fraudes contra menos de 1% das sessões legítimas. Ao identificar essas anomalias, o sistema pode interromper a transação ou acionar verificações adicionais antes da liquidação.

O risco da escassez de talentos para a liderança brasileira

Se a tecnologia defensiva avança, há um obstáculo que ameaça comprometer sua eficácia: a falta de profissionais qualificados em cibersegurança. Segundo a Fortinet, a lacuna global é de 4 milhões de vagas, sendo 750 mil no Brasil. A escassez é tão grave que o relatório mais recente do Gartner aponta a falta de talentos como o principal entrave para a adoção de novas tecnologias, citado por 63% dos líderes de TI, à frente até de preocupações com custos e riscos.

Essa carência tem implicações diretas na capacidade de bancos, fintechs e empresas de tecnologia de implementar e calibrar soluções como a biometria comportamental. Sem especialistas para ajustar modelos, interpretar alertas e integrar sistemas de defesa a fluxos críticos como o PIX, o risco é que parte do investimento em tecnologia perca efetividade. O país que se tornou referência global no combate a fraudes de IA pode ver essa liderança enfraquecer se não acelerar a formação e retenção de talentos.

O futuro da cibersegurança bancária exige soluções baseadas em machine learning e decisões orientadas por dados, ainda distantes da realidade da maioria das instituições financeiras. O desafio de lidar com milhares de variáveis em tempo real no PIX evidencia a importância de tecnologias capazes de criar modelos específicos para cada instituição, já adotadas por centenas de bancos e empresas no mundo, e que vêm se consolidando como ferramentas essenciais para enfrentar fraudes digitais em escala.

O problema exige uma abordagem sistêmica, como ampliar programas de capacitação, incentivar certificações reconhecidas pelo mercado, flexibilizar critérios de contratação para atrair perfis diversos e promover a colaboração entre empresas, governo e academia. Mais do que nunca, cibersegurança é um tema econômico e estratégico. Com a popularização de deepfakes e IA generativa, o desafio deixou de ser apenas técnico e passou a ser também humano. Sem gente qualificada, a tecnologia não entrega todo seu potencial.

O Brasil hoje é uma vitrine global no combate a fraudes digitais e campo de prova constante para soluções de segurança. Se as defesas funcionam aqui, com o volume e diversidade de ataques que enfrentamos, podem funcionar em qualquer lugar. Mas manter essa posição exige algo além de tecnologia de ponta e regulação ágil, é preciso investir massivamente em pessoas. Na batalha contra o tripé formado por PIX, IA generativa e deepfakes, vencerá quem conseguir identificar, em tempo real, aquilo que nem a falsificação mais sofisticada consegue esconder: o jeito único com que cada pessoa interage no mundo digital.

Share
Artigos Relacionados
Pixabay
Cibersegurança

Segurança do Pix reforçada com novas medidas do Banco Central a partir de outubro

Especialista em fraudes e golpes digitais, Renato Cunha, esclarece que golpe   recente...

Créditos: Envato
Cibersegurança

Cybersegurança Industrial ocupa espaço de destaque na ABM Week 2025

Com aumento dos ataques cibernéticos, evento reúne especialistas para debater riscos e...

Assessoria de Imprensa/Trust Control
Cibersegurança

Uso da Inteligência Artificial na cibersegurança é a tônica da RSA Conference 2025, maior evento mundial do setor

O uso da Inteligência Artificial nas ferramentas de cibersegurança foi a tônica...

Vazamento de dados em instituições de crédito e o afetamento direto ao consumidor
Cibersegurança

Vazamento de dados em instituições de crédito e o afetamento direto ao consumidor

De que maneira o roubo de dados pode ser capaz de afetar...