segunda-feira, 25 de agosto de 2025
SIGA-NOS NO GOOGLE NEWS
IT Section - O essencial da TI em um só lugar
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Sem Resultados
Ver todos os resultados
IT Section - O essencial da TI em um só lugar
Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Home Notícias Opinião

Como a biometria comportamental pode ajudar no combate à golpes financeiros por meio do ChatGPT

A biometria comportamental pode desempenhar um papel importante na detecção de fraudes em um mundo pós-ChatGPT.

IT Section Por IT Section
27/03/2023 - 11:32
A A
0
Foto: Dilvugação

Foto: Dilvugação

CompartilharPostar

A nova ferramenta da empresa OpenAI para textos, o ChatGPT, se tornou um dos assuntos mais comentados do momento. Sendo visto como a próxima onda revolucionária de chatbots, que estão se tornando cada vez mais populares entre as empresas, pois fornecem uma maneira prática e intuitiva de interagir com os clientes.

No entanto, com o aumento da popularidade, o potencial de riscos de fraude também cresceu, podendo acontecer de várias formas, desde ataques de malware até golpes de phishing. Por isso, é preciso que os bancos estejam atentos e se preparem para diversas situações.

Os ataques de malware podem ser usados ​​para roubar informações pessoais ou acessar dados confidenciais, enquanto os golpes de phishing usam mensagens enganosas para tentar convencer um usuário a fornecer informações confidenciais, como senhas ou números de cartão de crédito. Além desses ataques potenciais, os chatbots também podem ser explorados para roubo de identidade.

À medida que se tornam mais sofisticados, eles podem ser treinados para imitar os padrões de fala de uma pessoa e, até mesmo, seu estilo de escrita. Isso torna mais fácil para os fraudadores se passarem por um usuário e obter acesso à sua conta ou dados.

Os bancos que usam o chat para interagir com os clientes devem se atentar, pois a ferramenta pode fornecer informações que não são precisas. Caso não seja projetado corretamente, os clientes podem receber respostas inadequadas às suas perguntas, o que pode gerar confusão e possível perda de confiança na instituição financeira. Levando em consideração que os chatbots não têm o mesmo nível de inteligência emocional que os humanos, eles podem ser incapazes de lidar com algumas dúvidas, provocando insatisfação do cliente.

Em relação à prevenção de fraudes, o ChatGPT pode ser usado como uma ferramenta de processamento de linguagem natural (NLP, em inglês), analisando e-mails em busca de padrões suspeitos de linguagem e identificando anomalias que podem ser um sinal de fraude. Ele também pode comparar o texto com os outros enviados anteriormente pelo mesmo usuário para determinar se o idioma é consistente com seu estilo de escrita anterior. Ao usar o NLP para detectar anomalias em e-mails, o protótipo pode ajudar a identificar e prevenir fraudes.

Ele também foi projetado para evitar o uso indevido por pessoas mal-intencionadas, como criptografia de dados, autenticação, autorização e controle de acesso, por meio de algoritmos de aprendizado de máquina para detectar e bloquear atividades maliciosas.

Dessa forma, é possível que criminosos criem conversas que pareçam legítimas, mas que, na verdade, mascaram atividades de lavagem de dinheiro. Por exemplo, um criminoso pode usar para parecer que discute sobre atividades comerciais legais, mas, na verdade, visa ocultar a transferência de fundos. Como resultado, é mais difícil para as instituições financeiras e outras entidades detectar padrões de atividades de lavagem de dinheiro quando eles estão ocultos em uma conversa gerada por um GPT.

Essas novas tecnologias desafiam os controles tradicionais de prevenção a fraudes, por isso, os bancos precisam criar sistemas mais sofisticados para proteção dos seus clientes contra essas ameaças, como a biometria comportamental, atualizações regulares de segurança, autenticação de usuário e autenticação multifator.

A biometria comportamental pode desempenhar um papel importante na detecção de fraudes em um mundo pós-ChatGPT. Ao analisar o comportamento do usuário, como velocidade de digitação, teclas digitadas, movimentos do mouse e outros comportamentos, criando uma perfil biométrico comportamental exclusivo para cada usuário. Esse perfil pode então ser usado para identificar anomalias e detectar fraudes com maior precisão.

*Por Cassiano Cavalcanti, diretor de pré-vendas da BioCatch na América Latina.

Tags: BioCatchbiometria comportamentalChatGPT
IT Section

IT Section

IT Section é um portal de notícias, artigos, produtos, entrevistas e vídeos sobre tudo o que acontece no mercado de tecnologia.

Veja tambémArtigos

Foto: Divulgação
Opinião

Como a inteligência artificial testa a criptografia contra ataques quânticos

Foto: Divulgação
Opinião

Indústria 4.0 e o chão de fábrica: a transformação digital começa no digital workplace

Foto: Divulgação
Opinião

Futuro da SAP é moldado por dados e inteligência artificial

Foto: Divulgação
Opinião

Na era da IA, empresas querem aliados estratégicos, não apenas ferramentas

Próximo Artigo
Foto: Canva

Brasil é líder em ciberataques na América Latina

Por favor, faça login para comentar

Recomendado

Foto: Canva

BNE: Vagas em TI cresceram 79,6% em 2023

Foto: Canva

NordVPN amplia cobertura para mais de 50% dos países do mundo

Foto: Divulgação

Liferay anuncia novo diretor de negócios para América Latina

Trending

Foto: Divulgação

Desconfie sempre: como o modelo Zero Trust contribui para aperfeiçoar a estratégia de cibersegurança

Foto: Canva

TQI abre 20 vagas em tecnologia e vendas

Foto: Canva

SEBRAE moderniza governança e operações com soluções da TOTVS

IT Section

IT Section é um portal de notícias, artigos, produtos, entrevistas e vídeos sobre tudo o que acontece no mercado de tecnologia.

SIGA-NOS NAS REDES SOCIAIS

Categorias

  • Casos de sucesso
  • Entrevistas
  • Negócios
  • Notícias
  • Opinião
  • Produtos
  • RH
  • Segurança
  • Tecnologia

Últimas

Foto: Canva

Tempest: deepfakes enganam sistemas de prova de vida em testes

Foto: Divulgação

Como a inteligência artificial testa a criptografia contra ataques quânticos

  • Sobre
  • Política de Cookies
  • Política de Privacidade

IT Section © 2023 -Todos Direitos Reservados - Powered by ZionLab

Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies. Para saber mais, visite nossa política de privacidade.