O Setor de Pesquisas de Ameaças da Trend Micro, líder global em segurança cibernética, emitiu um alerta sobre o crescimento de ferramentas baseadas em inteligência artificial (IA) no mercado negro da deep web. Em resposta a essa ameaça, a empresa lançou o Trend Micro Deepfake Inspector, uma nova tecnologia destinada a detectar deepfakes. A ferramenta já está disponível para download gratuito e será incorporada à plataforma Trend Vision One™ em breve.
O Trend Micro Deepfake Inspector permite aos usuários se proteger contra golpistas que utilizam tecnologia de troca de rosto em chamadas de vídeo ao vivo. A solução emprega métodos avançados para identificar conteúdo gerado por IA, incluindo análise de ruído de imagem e cores, e avalia também elementos comportamentais do usuário, proporcionando uma abordagem mais eficaz contra deepfakes.
“Essas novas ferramentas de deepfake facilitam a ação dos cibercriminosos em golpes de engenharia social e tentativas de driblar a segurança, por isso estamos implementando novos recursos para detectar deepfakes e outras formas de fraudes que usam inteligência artificial, visando proteger nossos clientes e os consumidores em geral”, destaca Kevin Simzer, COO da Trend Micro.
Impactos e preocupações com deepfakes
Detectar e neutralizar métodos baseados em IA é crucial para melhorar o gerenciamento de riscos e reduzir o impacto digital sobre consumidores e empresas. Uma pesquisa recente da Trend Micro revelou que 71% dos entrevistados têm uma visão negativa sobre deepfakes, considerando-os uma ameaça significativa de fraude. Deepfakes não detectados podem causar impactos financeiros, perda de postos de trabalho, desafios jurídicos, danos à reputação, roubo de identidade e prejuízos à saúde mental e física.
O comércio de ferramentas de IA Generativa na deep web está crescendo rapidamente, acompanhando o aumento do uso de IA corporativa. Essas ferramentas estão se tornando mais baratas e acessíveis, permitindo que criminosos, independentemente de sua experiência, realizem ataques em larga escala com mais facilidade. Esses ataques visam extorsão, roubo de identidade, fraude ou desinformação.
Após a divulgação de um relatório sobre IA Generativa, surgiram ferramentas mais sofisticadas para criação de deepfakes. Ameaças emergentes incluem Modelos de Linguagem de Grande Escala (LLMs), que utilizam algoritmos de aprendizado profundo para ampliar o alcance criminoso.
Novas ferramentas e técnicas no mercado
Aplicativos como Deepfake AI, SwapFace e AvatarAI VideoCallSpoofer estão disponíveis no mercado. Esses aplicativos prometem substituir rostos em vídeos por novos rostos usando apenas algumas fotos. Por exemplo, o Deepfake AI é compatível com vídeos gravados, enquanto o SwapFace funciona como um filtro de vídeo ao vivo, compatível com ferramentas de streaming como o Open Broadcast Software (OBS).
Essas ferramentas são treinadas com dados maliciosos, incluindo código-fonte e estratégias criminosas. “A necessidade de tais recursos decorre do fato de que os LLMs comerciais são programados para se recusar a obedecer a solicitações maliciosas. Além disso, os atacantes geralmente evitam acessar diretamente serviços como o ChatGPT por medo de serem rastreados e expostos”, explica Flávio Silva, especialista em segurança cibernética da Trend Micro.
Flávio também observa que front-ends de Jailbreak-as-a-service podem contornar essa censura, enganando LLMs comerciais para fornecer respostas não filtradas.
A demanda por LLMs criminosos está crescendo, com antigos modelos, como WormGPT e DarkBERT, retornando ao mercado com novas funcionalidades, incluindo opções de “kit Siri”, similares aos assistentes de IA Humane e Rabbit R1.
Leia mais sobre o estudo “Surging Hype – An Update on the Rising Abuse of GenAI” clicando AQUI.