A Salt Security, líder em segurança de APIs, revelou hoje descobertas cruciais de segurança feitas por sua divisão de pesquisa, Salt Labs, apontando falhas críticas nas extensões do ChatGPT que abrem novas brechas para empresas. Os plugins do ChatGPT, que oferecem chatbots de IA acesso ao ChatGPT, apresentam falhas que podem ser exploradas por agentes mal-intencionados para acessar contas de usuários de terceiros.
Essas vulnerabilidades representam um novo vetor de ataque, permitindo potencialmente que invasores obtenham controle sobre contas de organizações em sites de terceiros ou acessem Informações Pessoais Identificáveis (PII) e outros dados sensíveis do usuário armazenados em aplicativos de terceiros.
Os plugins do ChatGPT expandem as capacidades do modelo, permitindo interações com serviços externos. Embora esses plugins tenham aprimorado sua utilidade em diversos domínios, desde o desenvolvimento de software até ambientes de negócios, eles também introduziram novos riscos de segurança. Em novembro de 2023, o ChatGPT lançou os GPTs, versões personalizadas com funcionalidades semelhantes aos plugins, porém, sujeitas a riscos de segurança similares.
A equipe do Salt Labs identificou três tipos diferentes de vulnerabilidades nos plugins do ChatGPT. Primeiramente, notaram uma falha durante o processo de instalação de novos plugins, onde um invasor poderia substituir o código aprovado por um usuário por um novo plugin malicioso, possibilitando assim o acesso não autorizado a informações proprietárias.
Outra vulnerabilidade foi encontrada no PluginLab (pluginlab.ai), um framework para o desenvolvimento de plugins para o ChatGPT, onde falhas de autenticação permitiam a tomada de controle por invasores. Uma das extensões afetadas, o “AskTheCode”, integrado ao GitHub, possibilitava o acesso indevido às contas dos usuários.
Por fim, a manipulação de redirecionamento OAuth em vários plugins permitia que invasores roubassem credenciais de usuários, comprometendo suas contas.
Ao reportar essas vulnerabilidades, o Salt Labs coordenou com a OpenAI e fornecedores terceirizados para remediar os problemas rapidamente, sem evidências de exploração por parte de invasores.
“Ferramentas de IA generativa como o ChatGPT têm potencial para melhorar significativamente a eficiência nos negócios e na vida diária, mas também estão sujeitas a ataques de cibercriminosos”, comentou Yaniv Balmas, vice-presidente de pesquisa da Salt Security. “Nossas descobertas destacam a importância de proteger esses plugins para evitar acessos não autorizados a dados críticos.”
O Relatório sobre o Estado da Segurança de API do Salt Labs* do primeiro trimestre de 2023 revelou um aumento de 400% em invasores exclusivos visando clientes da Salt. A Plataforma de Segurança de API da Salt identifica e remedia riscos e vulnerabilidades em APIs, protegendo contra ameaças como as encontradas nos plugins do ChatGPT.