Um novo relatório da Cisco Talos, braço global de inteligência de ameaças da Cisco, acende um alerta preocupante: cibercriminosos estão utilizando modelos de linguagem generativa (LLMs) — como GhostGPT, WormGPT, DarkGPT, DarkestGPT e FraudGPT — para potencializar ataques e vender essas ferramentas a outros hackers.
Segundo o estudo, o uso malicioso de Inteligência Artificial (IA) acompanha o crescimento acelerado da IA generativa, que já é capaz de gerar textos, resolver problemas e escrever códigos de computador com alta precisão. De acordo com a plataforma Hugging Face, já existem mais de 1,8 milhão de modelos diferentes disponíveis publicamente.
LLMs conectados a ferramentas de ataque
Os criminosos digitais têm integrado esses modelos a ferramentas externas para automatizar atividades ilícitas, como o envio de e-mails fraudulentos, escaneamento de sites em busca de vulnerabilidades e verificação de cartões de crédito roubados. Eles também exploram versões desbloqueadas de modelos legítimos, eliminando as restrições de segurança embutidas.
“Os criminosos cibernéticos passaram a optar por LLMs sem censura e os projetados pelos próprios para vencer alguns obstáculos”, alerta o relatório. “Essa prática ocorre para aprimorar os ataques, já que mecanismos de segurança nesses modelos são protegidos de ações prejudiciais ou indesejáveis.”
Ainda de acordo com a Cisco Talos, os LLMs não necessariamente criam ataques inéditos, mas funcionam como multiplicadores de força, tornando mais eficazes as técnicas já conhecidas.
Como funcionam os LLMs sem censura
Os LLMs sem censura operam sem os chamados guardrails — barreiras que evitam respostas prejudiciais. Por isso, são ideais para quem deseja utilizar a IA com finalidades maliciosas. Um exemplo citado no relatório é o OnionGPT, anunciado no fórum hacker Dread.
Esses modelos estão se tornando cada vez mais acessíveis. Com a plataforma Ollama, por exemplo, é possível baixar e rodar localmente modelos como o Llama 2 Uncensored, derivado do Llama 2 da Meta. Isso permite enviar comandos que normalmente seriam rejeitados por sistemas mais seguros — embora a execução local exija mais recursos computacionais.
Outro modelo citado é o WhiteRabbitNeo, que se descreve como “modelo de IA sem censura para equipes de SecOps (Dev)” e oferece suporte ao “uso para segurança cibernética ofensiva e defensiva”.
Modelos desenvolvidos por hackers
O relatório também documenta o surgimento de LLMs criados pelos próprios cibercriminosos. É o caso de modelos como GhostGPT, WormGPT, DarkGPT, DarkestGPT e FraudGPT, todos com funcionalidades voltadas à criação de malwares, páginas de phishing e ferramentas de invasão.
No caso do FraudGPT, o desenvolvedor divulga o produto na dark web e mantém uma conta ativa no Telegram. A página do aplicativo promete recursos como geração de códigos maliciosos, phishing avançado e até cartas fraudulentas para fraudes financeiras.
Tentativa de acesso revela golpe
Durante a investigação, a Cisco Talos tentou obter acesso ao FraudGPT via um contato identificado como CanadianKingpin12. Apesar das negociações, as credenciais fornecidas não funcionaram. Em seguida, o interlocutor exigiu criptomoedas para liberar um “crack” do software — o que levou os analistas à conclusão de que o suposto fornecedor estava, na verdade, enganando os próprios cibercriminosos.
Perspectivas e riscos
“À medida que a tecnologia de IA continua a evoluir, a Cisco Talos espera que os cibercriminosos sigam adotando LLMs para agilizar seus processos, escrever ferramentas ou scripts que possam ser usados para comprometer usuários e gerar conteúdos capazes de driblar defesas com mais facilidade”, aponta o relatório.
Apesar de não representar uma nova geração de ataques por si só, o uso desses modelos como amplificadores de ameaças já conhecidas preocupa especialistas de todo o mundo.