A Sophos, empresa líder global em inovação e fornecimento de serviços de cibersegurança, recentemente divulgou dois relatórios abordando a influência da inteligência artificial (IA) no cenário do crime cibernético. O primeiro relatório, intitulado “The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI”,, projeta um futuro em que criminosos podem explorar tecnologias como o ChatGPT para realizar ataques em larga escala, demandando habilidades técnicas mínimas. No entanto, o segundo relatório, intitulado “Cybercriminals Can’t Agree on GPTs”, conclui que, apesar do potencial da IA, alguns criminosos cibernéticos estão céticos e preocupados com o uso dessa tecnologia em seus ataques.
O Estudo sobre o Lado Sombrio da IA
A equipe multidisciplinar da Sophos X-Ops conduziu o estudo, utilizando um modelo simples de e-commerce e ferramentas de Linguagem de Modelagem de Grande Escala (LLM) como o GPT-4. Eles conseguiram criar um site totalmente funcional, incluindo imagens, áudio e descrições de produtos gerados por IA. Além disso, desenvolveram um falso login no Facebook e uma página de checkout falsa para capturar credenciais e detalhes de cartão de crédito dos usuários. Surpreendentemente, o site exigiu conhecimento técnico mínimo e a equipe conseguiu replicar centenas de páginas semelhantes em minutos, usando apenas um clique.
Ben Gelman, cientista sênior de dados da Sophos, explica que é natural os criminosos adotarem novas tecnologias para automatizar suas atividades. Ele destaca que a pesquisa teve como objetivo antecipar ameaças, criando um sistema avançado para gerar sites fraudulentos em grande escala e preparando-se para enfrentar a ameaça antes de sua proliferação.
Divergências entre Cibercriminosos sobre GPTs
Ao analisar as tendências dos invasores em relação à IA, a Sophos X-Ops investigou quatro fóruns importantes da dark web focados em discussões sobre LLMs. Embora o uso da IA pelos criminosos esteja em estágios iniciais, eles estão discutindo seu potencial na engenharia social. A maioria das postagens nos fóruns estava relacionada a contas comprometidas do ChatGPT à venda e métodos para contornar as proteções dos LLMs, conhecidos como “jailbreaks”. A equipe descobriu também dez variantes do ChatGPT que, segundo seus criadores, poderiam ser utilizadas para lançar ataques cibernéticos e desenvolver malwares.
Christopher Budd, diretor de pesquisa do Sophos X-Ops, destaca que, apesar da preocupação significativa com o potencial abuso da IA por cibercriminosos, muitos deles estão mais céticos do que entusiasmados. A pesquisa revelou que, em dois dos quatro fóruns examinados, havia apenas 100 postagens sobre IA, em comparação com mil postagens sobre criptomoedas no mesmo período. Algumas tentativas de criar malwares usando LLMs foram incompletas e recebidas com ceticismo, indicando que os cibercriminosos estão debatendo questões semelhantes aos profissionais de segurança em relação ao uso ético e prático da IA.