A Tenable, empresa especializada em Exposure Management, divulgou uma pesquisa sobre vulnerabilidades em plataformas de IA sem código, como o Microsoft Copilot Studio. O estudo detalha como agentes de IA democratizados podem vazar dados sensíveis e executar operações financeiras não autorizadas, representando riscos significativos para empresas.
As organizações têm adotado rapidamente ferramentas no-code para permitir que funcionários criem agentes de IA sem necessidade de desenvolvedores. Embora a iniciativa busque aumentar eficiência, a automação sem governança rigorosa abre portas para falhas críticas.
Demonstração de vulnerabilidade
Para demonstrar a facilidade de manipulação desses agentes, a Tenable Research desenvolveu um agente de viagens no Microsoft Copilot Studio, capaz de gerenciar reservas de clientes, incluindo criação e modificação, sem intervenção humana. Foram usados dados fictícios com nomes, contatos e informações de cartão de crédito, além de instruções para o agente verificar a identidade antes de compartilhar informações ou alterar reservas.
Utilizando a técnica de injeção de prompts, os pesquisadores conseguiram sequestrar o fluxo de trabalho do agente e realizar reservas gratuitas, além de extrair informações confidenciais de cartões de crédito.
Impactos comerciais
A pesquisa aponta dois riscos principais:
Violações de dados e exposição regulatória: O agente foi coagido a contornar a verificação de identidade e vazar informações de pagamento de clientes, demonstrando que ferramentas criadas para lidar com dados sensíveis podem ser manipuladas.
Perda de receita e fraude: Com permissões amplas de edição, o agente foi instruído a alterar o preço de viagens para US$ 0,00, gerando serviços não autorizados.
“Plataformas de criação de agentes de IA, como o Copilot Studio, democratizam a capacidade de construir ferramentas poderosas, mas também democratizam a capacidade de executar fraudes financeiras, criando assim riscos de segurança significativos sem que as pessoas nem percebam”, disse Keren Katz, gerente sênior do Grupo de Produtos e Pesquisa em Segurança de IA na Tenable. “Esse poder pode facilmente se transformar em um risco de segurança real e tangível.”
Governança e segurança da IA
O estudo reforça que agentes de IA muitas vezes possuem permissões excessivas, invisíveis para usuários não técnicos. Para mitigar riscos, as organizações devem implementar governança robusta e protocolos de segurança rigorosos antes da implementação dessas ferramentas.
Entre as recomendações da Tenable estão:
- Visibilidade preventiva: Mapear os sistemas e armazenamentos de dados que o agente pode acessar antes da implementação.
- Princípio de privilégios mínimos: Limitar permissões de escrita e atualização ao uso principal do agente.
- Monitoramento ativo: Acompanhar ações do agente para identificar vazamentos de dados ou desvios da lógica de negócios.





