A Norton alertou para os riscos associados ao uso indevido de inteligência artificial na criação e manipulação de imagens online. Segundo a empresa, a crescente sofisticação de conteúdos gerados por IA tem reduzido barreiras técnicas e ampliado o potencial de fraudes digitais, engenharia social e golpes em redes sociais e plataformas online.
De acordo com a companhia, embora o conteúdo gerado por IA não seja inerentemente prejudicial, o problema surge quando criminosos utilizam essas ferramentas para criar imagens falsas com alto grau de realismo, explorando emoções como medo e urgência para enganar vítimas.
Deepfakes e engenharia social ampliam riscos
O uso de ferramentas de IA para alterar imagens e produzir deepfakes tem ganhado espaço na internet. Se, por um lado, a tecnologia abre oportunidades para arte, design e educação, por outro, pode ser utilizada em golpes online e fraudes digitais.
Entre os principais riscos apontados estão a criação de perfis falsos em aplicativos de relacionamento, imagens fabricadas como supostas provas de emergências ou compras, conteúdos manipulados para chantagem e personificação de figuras públicas ou executivos com o objetivo de obter informações sensíveis.
“Com as ferramentas de inteligência artificial disponíveis hoje, é possível fazer com que praticamente qualquer pessoa pareça estar fazendo quase qualquer coisa em questão de segundos, sem a necessidade de conhecimento técnico. Isso muda fundamentalmente a facilidade com que as pessoas podem ser enganadas e manipuladas no ambiente online”, afirma Iskander Sanchez-Rola, diretor de IA e Inovação da Norton. “A IA pode fazer com que as pessoas pareçam estar em lugares onde nunca estiveram, fazendo coisas que nunca fizeram ou sendo retratadas de maneiras comprometedoras ou enganosas. Esse tipo de manipulação é extremamente perigoso e pode gerar consequências sérias no mundo real.”
Quando as imagens geradas por IA se tornam perigosas
A Norton destaca que a inteligência artificial aplicada à criação de imagens possui usos legítimos e positivos. No entanto, o cruzamento entre IA e práticas enganosas amplia o risco de fraudes digitais.
Entre os exemplos citados pela empresa estão:
- Perfis românticos ou sociais falsos criados com fotos geradas por IA para sustentar golpes emocionais de longo prazo.
- Imagens fabricadas de recibos, emergências médicas ou acidentes usadas para pressionar vítimas a enviar dinheiro rapidamente.
- Conteúdos manipulados para chantagem ou extorsão, colocando falsamente pessoas em situações comprometedoras.
- Imagens que imitam executivos, familiares ou figuras públicas para aplicação de ataques de engenharia social.
- Fotos de produtos inexistentes em golpes de e commerce, com uso de imagens hiper realistas para atrair consumidores a sites fraudulentos.
- Imagens criadas para gerar medo ou senso de urgência, levando usuários a agir sem checar a veracidade das informações.
Recomendações para reduzir a exposição
Para mitigar riscos relacionados a imagens manipuladas por IA, a Norton orienta que usuários adotem práticas de segurança digital, como reduzir o compartilhamento público de fotos pessoais, desconfiar de mensagens inesperadas com pedidos de pagamento e verificar a autenticidade de conteúdos antes de reagir ou compartilhar.
A empresa também recomenda monitorar periodicamente a própria presença digital, utilizar ferramentas tecnológicas para identificar possíveis sinais de manipulação e compartilhar orientações de segurança com familiares, especialmente crianças e idosos.
Segundo a companhia, em um cenário em que a linha entre o que é real e o que é manipulado se torna cada vez mais tênue, desenvolver pensamento crítico e adotar hábitos consistentes de proteção digital são medidas essenciais para enfrentar os riscos associados ao uso indevido da inteligência artificial.





