segunda-feira, 24 de novembro de 2025
SIGA-NOS NO GOOGLE NEWS
IT Section - O essencial da TI em um só lugar
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Sem Resultados
Ver todos os resultados
IT Section - O essencial da TI em um só lugar
Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Home Notícias Opinião

Agentes de IA são a nova fronteira da governança corporativa

Sylvio Sobreira Vieira, CEO & Head Consulting da SVX Consultoria, analisa como agentes de IA desafiam a governança corporativa.

IT Section Por IT Section
24/11/2025 - 15:55
A A
0
Foto: Divulgação

Foto: Divulgação

CompartilharPostar

Uma recente pesquisa da Cisco apontou que ao menos 92% das empresas no Brasil pretendem implementar agentes de IA – e pouco mais de metade (52%) já espera que a tecnologia esteja funcionando no próximo ano. Com essa profusão de ferramentas que facilitam a criação e integração desses agentes, é bem possível que, em 2026, mais empresas tenham acesso a esses recursos. ‘

O ponto é que os agentes de IA mudam mais do que fluxos de trabalho: deslocam a fronteira da governança corporativa para um território onde responsabilidade, rastreabilidade e controle passam a depender de sistemas que aprendem sozinhos, e que podem acertar ou falhar em uma velocidade que nenhum gestor humano consegue acompanhar.

Os agentes autônomos de IA não se restringem a roteiros fixos de automação; eles planejam, raciocinam e agem conforme o contexto. Diferenciam-se da RPA tradicional justamente por essa adaptabilidade: enquanto um robô de processo segue passos pré-programados, um agente de IA combina percepção, raciocínio e ação, executando tarefas e ajustando o seu comportamento.

Segundo projeções da Gartner, até 2028 cerca de 33% dos softwares corporativos incluirão IA com autonomia embutida – um salto grande frente a menos de 1% em 2024. Nesse mesmo horizonte, espera-se que 15% das decisões diárias de trabalho sejam tomadas autonomamente por sistemas de IA. Ou seja, em poucos anos, decisões antes reservadas a gerentes e analistas podem passar diretamente por algoritmos avançados, operando em velocidades e volumes impossíveis para humanos.

Impactos na governança corporativa

Se a promessa dos agentes de IA é revolucionar eficiência, seu advento também ressignifica os alicerces da governança corporativa. Modelos de governança tradicionais baseiam-se em quatro pilares: transparência, prestação de contas, conformidade regulatória, e gestão de riscos. Implicitamente, esses pilares supõem que as decisões importantes são tomadas por pessoas ou comitês identificáveis – indivíduos que podem ser responsabilizados por seus atos. Mas o que acontece quando uma decisão crítica passa a ser tomada por um algoritmo que “aprende” sozinho e age de forma não totalmente previsível?

Cada um desses princípios enfrenta agora questionamentos fundamentais. Por exemplo, como garantir transparência e explicabilidade em decisões tomadas por IA? Se um agente autônomo negar um crédito a um cliente ou aprovar uma transação de alto valor, quem consegue explicar com clareza a lógica por trás dessa decisão?

Muitas vezes nem os próprios desenvolvedores conseguem dissecar o complexo raciocínio estatístico de um modelo de deep learning. E se nem o agente “sabe” explicar seu processo, a empresa responde como aos reguladores e clientes? No eixo da prestação de contas, surge a delicada questão jurídica: quem é o responsável legal por uma decisão ou erro de um agente de IA? Seria o programador que criou o modelo, o gestor que o implementou, a organização que o utiliza ou ninguém em particular?Atualmente, um sistema de IA não possui personalidade jurídica; ainda assim, suas ações podem causar impactos muito reais a consumidores e investidores.

A conformidade regulatória também ganha camadas de complexidade. Leis e normas mudam, mas e se o próprio agente de IA alterar seu comportamento ao aprender com novos dados? Como assegurar que, ao se adaptar autonomamente, ele não acabe violando regras sem que ninguém perceba? O desafio de auditoria é igualmente espinhoso: como auditar decisões algorítmicas que não seguem um fluxo linear pré-definido, nem sempre registram logs compreensíveis, e podem variar a cada execução? A tradição de “documentar processos” esbarra na natureza probabilística e dinâmica dos agentes de IA.

Essas questões deixaram de ser teóricas. Reguladores globais já reconhecem que os frameworks de governança atuais são insuficientes para dar conta da IA autônoma. A União Europeia, por exemplo, finaliza sua Lei de IA (AI Act), que classificará sistemas de alto risco e imporá exigências de documentação, explicabilidade e monitoramento algorítmico às empresas. Nos EUA, órgãos como a SEC publicaram orientações para que companhias divulguem os riscos de IA e adotem controles robustos.

Entidades técnicas estabelecem guias: o NIST, instituto americano de padrões, lançou este ano um Framework de Gerenciamento de Risco em IA detalhando metodologias para auditar e mitigar riscos algorítmicos. E no Brasil? Aqui, discute-se no Congresso uma proposta de Marco Legal da IA, que poderá estabelecer princípios e diretrizes para uso responsável de inteligência artificial – ainda que, por ora, as empresas tenham de se guiar por normas gerais existentes, como a LGPD – que já prevê, por exemplo, direito de revisão humana de decisões automatizadas que afetem indivíduos.

Riscos à continuidade dos negócios

Agentes autônomos ampliam a superfície de ataque e introduzem comportamentos difíceis de prever: decisões por inferência podem gerar falhas não documentadas, como isolar servidores de produção por falso positivo ou aprovar código malicioso via prompt injection. A segurança passa a incluir o próprio agente e seu ecossistema: prompts, dados de contexto, APIs, credenciais e permissões, sob risco de virar um “insider” automatizado.

Some-se o viés algorítmico e a opacidade de modelos, com potenciais impactos legais e reputacionais, e o risco à continuidade: dependência excessiva sem planos de contingência pode paralisar operações. Não por acaso, 69% das Fortune 500 já listam IA como fator de risco, evidenciando que a conta chega rápido quando controle e transparência falham.

Para endereçar o quadro, governança precisa de guarda-corpos algorítmicos, validação e testes contínuos com cenários adversariais, observabilidade em tempo real e trilhas de auditoria que registrem o raciocínio do agente; quando a explicação direta não é viável, usam-se modelos interpretáveis paralelos ou resumos de atenção. Isso exige times capacitados em IA, segurança, ética e dados – ainda escassos no Brasil – e um desenho organizacional que trate IA como parte orgânica do negócio. Líderes que combinam investimento em infraestrutura, governança e segurança desde o início integram os agentes aos controles corporativos, reduzem exposição e colhem ganhos operacionais superiores.

O passo seguinte é inequívoco: transformar IA em assunto de conselho, instituir guardrails algorítmicos com a atuação de analistas humanos, formalizar trilhas de auditoria e métricas de risco, treinar times multidisciplinares e testar continuamente os modelos sob cenários adversariais. Empresas que fizerem esse dever de casa agora vão capturar eficiência com segurança jurídica, continuidade operacional e reputação preservada; as demais descobrirão, da pior forma, que autonomia sem controles não é inovação – é vulnerabilidade.

*Por Sylvio Sobreira Vieira, CEO & Head Consulting da SVX Consultoria.

Tags: Agentes de IAGovernança corporativaSVX Consultoria
IT Section

IT Section

IT Section é um portal de notícias, artigos, produtos, entrevistas e vídeos sobre tudo o que acontece no mercado de tecnologia.

Veja tambémArtigos

Foto: Divulgação
Opinião

TI sem silos: integração entre ITSM, ERP e CRM define novo padrão de eficiência

Foto: Divulgação
Opinião

O equilíbrio entre low-code, no-code e código para uma automação inteligente

Foto: Divulgação
Opinião

O que muda, de fato, com o SAP S/4HANA?

Foto: Divulgação
Opinião

Segurança cibernética 5.0: Quando a defesa aprende a pensar

Próximo Artigo
Foto: Canva

Redbelt Security alerta para ataque Pixnapping em celulares Android

Por favor, faça login para comentar

Recomendado

Foto: Canva

Huawei lança programa de canais de data center no Brasil

Foto: Canva

Cisco disponibiliza o Cisco Secure Application

Foto: Canva

Nuvia adquire DataSaga e lança braço de serviços de IA para vendas

Trending

Foto: Divulgação

O profissional de TI é o talento humano que dá sentido à Inteligência Artificial

Foto: Divulgação

Desconfie sempre: como o modelo Zero Trust contribui para aperfeiçoar a estratégia de cibersegurança

Foto: Divulgação

Alienware lança linha de notebooks no Brasil: design inovador e modo Stealth

IT Section

IT Section é um portal de notícias, artigos, produtos, entrevistas e vídeos sobre tudo o que acontece no mercado de tecnologia.

SIGA-NOS NAS REDES SOCIAIS

Categorias

  • Casos de sucesso
  • Entrevistas
  • Negócios
  • Notícias
  • Opinião
  • Produtos
  • RH
  • Segurança
  • Tecnologia

Últimas

Foto: Divulgação

TeamViewer alerta para impacto das falhas de TI na receita global

Foto: Canva

ERP tradicional perde força, IA Agêntica redefine a gestão corporativa

  • Sobre
  • Política de Cookies
  • Política de Privacidade

IT Section © 2023 -Todos Direitos Reservados - Powered by ZionLab

Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies. Para saber mais, visite nossa política de privacidade.