O lançamento do GPT-5, anunciado pela OpenAI como o modelo de linguagem mais avançado já desenvolvido, foi rapidamente colocado à prova. Em menos de 24 horas, pesquisadores da Tenable Research conseguiram contornar as barreiras de segurança prometidas e induzir a inteligência artificial a fornecer instruções perigosas, incluindo a elaboração de artefatos explosivos.
Jailbreak expõe fragilidade da segurança
O GPT-5 foi apresentado com melhorias significativas em precisão, velocidade e compreensão de contexto, além de um novo sistema de proteção contra usos indevidos. No entanto, a equipe da Tenable realizou um “jailbreak” — técnica que remove restrições impostas ao modelo — utilizando o método conhecido como crescendo. O resultado foi a geração de respostas que violam diretamente os princípios de segurança anunciados pela OpenAI.
O caso evidencia que, apesar dos avanços, ainda existem vulnerabilidades exploráveis em modelos de IA generativa, o que pode abrir caminho para usos maliciosos.
Alerta para empresas e instituições
“Nosso teste comprova que, apesar das inovações anunciadas, ainda existem brechas que podem ser exploradas para burlar mecanismos de segurança. É fundamental que as organizações monitorem e controlem o uso dessas ferramentas, garantindo que a adoção de IA seja feita de forma responsável e alinhada às normas de segurança e compliance”, afirma Alejandro Dutto, diretor de engenharia de segurança cibernética para América Latina e Caribe da Tenable.
Segundo Dutto, confiar apenas nas proteções técnicas oferecidas por fornecedores de IA pode ser arriscado. Ele defende a criação de políticas internas claras, o treinamento das equipes sobre riscos e práticas seguras, além de um acompanhamento constante das aplicações de inteligência artificial nas empresas.
Segurança em IA exige vigilância contínua
O episódio reforça que a proteção em torno da inteligência artificial não deve ser vista como um ponto de chegada, mas como um processo contínuo. A evolução acelerada das tecnologias exige vigilância constante, avaliação periódica de riscos e atualização das estratégias de defesa para reduzir a exposição a possíveis incidentes.
O relatório completo da Tenable sobre a descoberta pode ser acessado no blog da empresa: “Tenable Jailbreaks GPT-5, Gets It To Generate Dangerous Info Despite OpenAI’s New Safety Tech”.