Cibersegurança

Do Deepfake ao ChatGPT: como a evolução tecnológica está influenciando as fraudes e golpes que vemos hoje?

Share
Brsa Cassiano 5653
Cassiano Cavalcanti explica que a sofisticação crescente das fraudes digitais exige tecnologias avançadas e colaboração para combatê-las Divulgação BioCatch
Share

A cada dia que passa, a sofisticação das fraudes digitais surpreende pela criatividade empregada pelos criminosos. Além da constante evolução em suas metodologias, eles demonstram dedicação e velocidade na adoção de novas tecnologias, como FraudGPT, representando um desafio significativo para as equipes de segurança. O cenário é agravado pelo rápido avanço de tecnologias, como a inteligência artificial generativa, que possibilita a criação de imitações quase perfeitas de pessoas e organizações. Esta conjunção de fatores indica uma iminente evolução dos golpes, tornando a detecção de fraudes sem o auxílio de tecnologia avançada praticamente impossível.

A criatividade persistente dos golpistas, embora tenha uma metodologia relativamente simples, continua a se aprimorar. Os golpes, variando de falsificação de identidade bancária a investimentos fictícios, golpes românticos e falsos suportes técnicos, são cada vez mais diversificados. O objetivo central continua sendo enganar as pessoas para obtenção de dinheiro, informações pessoais ou outros ativos digitais. Essa diversificação e constante inovação nas técnicas ressaltam a urgência de medidas eficazes de segurança para enfrentar as ameaças crescentes.

Segundo uma pesquisa publicada pela Gartner no começo deste ano, a previsão é que, com o aumento dos ataques que utilizam deepfake gerados por IA para burlar a biometria facial, até 2026 cerca de 30% das empresas deixarão de considerar tais soluções de verificação e autenticação de identidade confiáveis isoladamente. “Na última década, ocorreram vários pontos de inflexão nos campos da IA que permitem a criação de imagens sintéticas. Essas imagens geradas artificialmente de rostos de pessoas reais podem ser usadas por pessoas mal-intencionadas para minar a autenticação biométrica ou torná-la ineficiente”, pontua Akif Khan, analista vice-presidente do Gartner. Ele explica que as organizações podem começar a questionar a confiabilidade das soluções de verificação e autenticação de identidade “pois não serão capazes de dizer se o rosto da pessoa que está sendo verificada é uma pessoa viva ou um deepfake.”

Mudanças no setor

Se até recentemente, um consumidor mais atento podia captar pistas de que estava frente a frente com algum tipo de fraude, à medida que os avanços tecnológicos ocorrem, os criminosos cibernéticos passam a ter à sua disposição novas formas de manipular as vítimas – especificamente, com a utilização de deepfakes e grandes modelos de linguagem (Large Language Models ou LLMs), que podem criar conteúdos falsos super realistas e que são difíceis de distinguir de atividades legítimas ou reais. Foi-se a época em que a ortografia e a gramática inadequadas eram indicadores de um possível golpe, já que os LLMs como o ChatGPT podem ajudar a criar e-mails e mensagens de texto sem erros.

 

  • Deepfake é uma técnica que utiliza a inteligência artificial para manipular imagens, vídeos ou áudios de pessoas reais. A técnica, por exemplo, pode ser utilizada para criar notícias, entrevistas, endossos ou evidências – tudo falso! Já existem muitos exemplos convincentes de deepfakes online, com as imagens de celebridades ou de políticos.
  • Grandes modelos de linguagem (LLMs) são sistemas que utilizam IA para gerar textos em linguagem natural, com base em uma entrada ou prompt, basicamente produzindo um conteúdo coerente e fluido, imitando o estilo, tom ou informação de uma pessoa ou gênero específico. Por exemplo, LLMs podem ser usados para criar chatbots, avaliações, postagens, perfis ou e-mails falsos, além de gerar imagens e até mesmo vídeos.

É a combinação dessas duas técnicas que se tornará um divisor de águas no mundo das fraudes, pois possibilitam golpes mais convincentes e personalizados, e que podem atingir indivíduos ou grupos vulneráveis específicos com comunicações que são virtualmente indistinguíveis de comunicações legítimas.

A hora de agir é agora!

Frente a isso, há uma necessidade urgente de soluções inovadoras que possam ajudar consumidores e empresas a combater a ameaça conjunta de deepfakes e LLMs. Ao combinar os esforços das partes interessadas, a capacidade de identificar futuras ameaças fraudulentas será maximizada. Felizmente, as instituições financeiras e outras organizações podem implementar ou apoiar a disponibilização de tecnologias que já estão no mercado:

 

  • Indicadores para o consumidor: dicas que podem ajudar os consumidores a discernir quando algo é uma fraude, usando marcas d’água, carimbos de data e hora, rótulos, avisos ou classificações que podem sinalizar a fonte, autenticidade ou confiabilidade do conteúdo, além de ferramentas ou aplicativos que possibilitem pesquisa reversa de imagens, sites de verificação de fatos ou software de detecção de deepfake;
  • Biometria comportamental: ao analisar padrões de comportamento humano, como movimentos do mouse, velocidade de digitação ou pressão em telas sensíveis ao toque, a biometria comportamental pode ser usada para detectar ou prevenir atividades suspeitas, bem como para detectar atividade de contas laranja – um componente crucial para monetizar fraudes – mesmo que seja um participante voluntário;
  • Biometria por voz: essa pode ser uma ferramenta eficaz para rastrear deepfakes de áudio, identificando discrepâncias nas características vocais que não correspondem à voz do locutor original. Essa análise pode ser fundamental para a detecção de fraudes ou golpes que utilizam áudios falsos para obter informações sensíveis.

Os cibercrimes já são um problema dispendioso para os consumidores e para as instituições financeiras e deverão tornar-se ainda mais sofisticadas e desafiadores. Por isso toda a comunidade precisa estar mais consciente e vigilante, e adotar uma postura de trabalho colaborativa, em busca de uma combinação de soluções inovadoras que ajudem a detectar e prevenir estas atividades ilegais.

É inevitável que a tecnologia seja utilizada em ilegalidades, mas os resultados maliciosos discutidos aqui podem ser combatidos de forma eficiente. Felizmente, já possuímos as ferramentas necessárias para evitar que os consumidores sejam sobrecarregados com fraudes e golpes indistinguíveis de contatos e conexões reais. Vivemos um momento único da evolução tecnológica, em que temos a oportunidade e as ferramentas para nos antecipar frente às ameaças. Nós, como comunidade de combatentes à fraude, não podemos e não iremos desperdiçar essa chance.

*Cassiano Cavalcanti é especialista em prevenção de fraudes e cibersegurança, e atualmente é diretor de pré-vendas da BioCatch na América Latina. Atua no mercado de alta tecnologia há mais de 15 anos, integrando soluções inovadoras de segurança digital pelo mundo. É formado em administração de empresas, possui MBA e especialização em inteligência artificial, ciência de dados e estatística para negócios.

Share
Artigos Relacionados
A dura jornada de clientes e empresas que sofrem com fraudes no cartão de crédito
Cibersegurança

A dura jornada de clientes e empresas que sofrem com fraudes no cartão de crédito

*Por Linconl Rocha Fraudes no cartão de crédito infelizmente são mais comuns...

Como prevenir ataques e golpes nas vendas de final de ano
Cibersegurança

Como prevenir ataques e golpes nas vendas de final de ano

Por Mario Gama (*) Já imaginou ver todo o planejamento traçado para...

Ataques hackers causam lentidão e perda de serviços de internet por todo o Brasil
Cibersegurança

Ataques hackers causam lentidão e perda de serviços de internet por todo o Brasil

A crise dos ataques DDoS no setor de comunicação e provedores de...