sexta-feira, 14 de novembro de 2025
SIGA-NOS NO GOOGLE NEWS
IT Section - O essencial da TI em um só lugar
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Sem Resultados
Ver todos os resultados
IT Section - O essencial da TI em um só lugar
Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Home Notícias Segurança

Deep fake: entenda como funciona e os riscos da tecnologia

Especialista do SafeLabs alerta para o perigoso potencial da ferramenta.

IT Section Por IT Section
22/03/2023 - 11:04
A A
0
Foto: Canva

Foto: Canva

CompartilharPostar

Recentemente, a tecnologia conhecida como “Deep Fake” tem despertado a atenção e a curiosidade de milhões de pessoas pela internet. Diversos vídeos que mostram figuras públicas envolvidas em situações absurdas ou proferindo frases inimagináveis, na maior parte das vezes em tom humorístico.

Porém, a mesma tecnologia também pode ser usada para fins perigosíssimos. Encontramos um exemplo recente no contexto do conflito entre Rússia e Ucrânia. Viralizou um vídeo onde o presidente ucraniano Volodymyr Zelensky supostamente ordena que suas tropas larguem as armas, e se rendam ao inimigo. Todo o conteúdo, no entanto, não passa de montagem, feita para enganar soldados e a população. Além disso, outro caso infelizmente “comum” é o da inserção do rosto de jornalistas e políticas em conteúdos de teor pornográfico, como forma de ataque à reputação.

“O deep fake é uma mídia sintética, isto é, um vídeo ou áudio manipulado ou totalmente criado por uma Inteligência Artificial”, explica William Pessoa, Gerente de Operações de Cibersegurança do SafeLabs, fabricante de soluções de cibersegurança do grupo ISH Tech. “A IA se alimenta de uma base de dados, e é treinada para melhor projetar rostos, vozes, feições corporais e ângulos. Seguindo a lógica, quanto mais famosa uma pessoa, mais conteúdo a máquina terá para se alimentar, e, consequentemente, mais fidedigno será o deep fake.”

O especialista afirma que o avanço da tecnologia permitirá que seu uso cresça exponencialmente em crimes que vão além de personalidades famosas. “Benefícios como seguro de vida e pensão podem se tornar alvo dos golpistas, que poderão se parecer, movimentar e soar como o beneficiário”, explica. Alerta também para o crescimento de fraudes financeiras, como abertura de contas ou transferências bancárias indevidas.

Os deep fakes também potencializarão um novo tipo de ataque, conhecido como “vishing”, que é a manipulação de reconhecimento facial ou vocal. “Com acesso à voz de uma potencial vítima, ou enviando vídeos adulterados de seu rosto, o risco de sequestros, ainda que sejam completamente fabricados, se torna grande demais para ser ignorado por familiares e amigos”, comenta Pessoa.

A popularização do uso desses artifícios é uma tendência. Um estudo realizado pela University College London prevê que, nos próximos 15 anos, a Inteligência Artificial irá facilitar o cometimento de crimes em mais de vinte maneiras diferentes. Já o Gartner revela que, atualmente, 20% de todos os ataques cibernéticos de controle de contas aproveitam a técnica do deep fake, que foi classificada como a ameaça mais grave dentro dos crimes de IA.

Como identificar?

Pessoa explica que, ainda que os deep fakes se tornem cada dia mais impressionantes e difíceis de serem percebidos, existem algumas maneiras de desconfiar de que o conteúdo possa ser falso. “Problemas na pele, rosto, cabelo, iluminação pouco natural, vozes que parecem um pouco diferentes. Além disso, exatamente por ser uma tecnologia cada vez mais perigosa, qualquer vídeo ou áudio que soe muito absurdo, por mais real que pareça, merece uma segunda checagem”, conclui.

Tags: cibersegurançaDeep fakeSafeLabs
IT Section

IT Section

IT Section é um portal de notícias, artigos, produtos, entrevistas e vídeos sobre tudo o que acontece no mercado de tecnologia.

Veja tambémArtigos

Foto: Canva
Segurança

Kaspersky alerta sobre crescimento de ataques que imitam programas

Foto: Canva
Segurança

ISH Tecnologia identifica novo trojan bancário para Android e alerta sobre segurança mobile

Foto: Canva
Segurança

Claroty revela aumento de riscos em sistemas ciberfísicos

Foto: Canva
Segurança

Tenable identifica sete falhas críticas de segurança no ChatGPT

Próximo Artigo
Foto: Canva

Busca por capacitação em TI pode crescer até 20% em 2023

Por favor, faça login para comentar

Recomendado

Foto: Divulgação

Como o áudio aprimorado por IA está transformando o mundo corporativo

Foto: Divulgação

Gestão de Identidades e Acessos em 2024: O que esperar, e o que implementar?

Foto: Canva

CLI adota o RISE with SAP e celebra autonomia

Trending

Foto: Divulgação

O profissional de TI é o talento humano que dá sentido à Inteligência Artificial

Foto: Divulgação

Desconfie sempre: como o modelo Zero Trust contribui para aperfeiçoar a estratégia de cibersegurança

Foto: Canva

Senior Sistemas adquire a Konviva para fortalecer oferta de educação corporativa

IT Section

IT Section é um portal de notícias, artigos, produtos, entrevistas e vídeos sobre tudo o que acontece no mercado de tecnologia.

SIGA-NOS NAS REDES SOCIAIS

Categorias

  • Casos de sucesso
  • Entrevistas
  • Negócios
  • Notícias
  • Opinião
  • Produtos
  • RH
  • Segurança
  • Tecnologia

Últimas

Foto: Divulgação

Segurança cibernética 5.0: Quando a defesa aprende a pensar

Foto: Canva

DXC lança Xponential, modelo que acelera adoção de IA em larga escala

  • Sobre
  • Política de Cookies
  • Política de Privacidade

IT Section © 2023 -Todos Direitos Reservados - Powered by ZionLab

Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies. Para saber mais, visite nossa política de privacidade.