sábado, 13 de dezembro de 2025
SIGA-NOS NO GOOGLE NEWS
IT Section - O essencial da TI em um só lugar
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Sem Resultados
Ver todos os resultados
IT Section - O essencial da TI em um só lugar
Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Home Notícias Segurança

Desafios da Inteligência Artificial Generativa na segurança corporativa

Especialista da BugHunt compartilha orientações para que os usuários possam se proteger diante das ameaças geradas pelo avanço da tecnologia.

IT Section Por IT Section
09/01/2024 - 16:10
A A
0
Foto: Canva

Foto: Canva

CompartilharPostar

A ampliação do uso da Inteligência Artificial (IA) nas soluções tecnológicas tornou-se inevitável em diversos setores. Segundo dados da IBM, 41% das empresas brasileiras já incorporam a IA em suas operações. No entanto, o crescimento dessa tecnologia, especificamente a IA generativa, traz consigo riscos significativos para a segurança corporativa.

Caio Telles, CEO da BugHunt, destaca os perigos relacionados ao desenvolvimento da IA generativa, responsável por criar textos, áudios, imagens e vídeos em resposta a linguagem comum. Essa ferramenta tem sido utilizada para produzir conteúdos falsos altamente convincentes, representando ameaças desde falsificações simples até deepfakes, elevando os riscos de ataques de phishing e engenharia social.

A IA generativa já é empregada na criação de sites adulterados e na automação de ataques cibernéticos, com malwares sofisticados capazes de contornar as defesas das empresas. Telles alerta que a capacidade dessa tecnologia de criar conteúdos falsificados pode impactar significativamente a integridade das informações e a confiança dos clientes nas empresas.

Diante desse cenário, as empresas buscam investir em mecanismos protetivos. Segundo a consultora Gartner, os gastos mundiais em segurança cibernética devem atingir US$ 215 bilhões em 2024. No entanto, Telles destaca a necessidade de direcionamento estratégico nesses investimentos, considerando a rápida evolução da IA.

O CEO da BugHunt enfatiza a importância de uma abordagem proativa e abrangente para lidar com os riscos associados à IA generativa. Recomenda a implementação de sistemas robustos de detecção e resposta a incidentes e sugere a busca por soluções externas, como programas de bug bounty, nos quais “hackers do bem” são recompensados por identificar vulnerabilidades, auxiliando as empresas a manterem-se à frente dos cibercriminosos.

Tags: BugHuntcibersegurançaInteligência Artificial Generativa
IT Section

IT Section

IT Section é um portal de notícias, artigos, produtos, entrevistas e vídeos sobre tudo o que acontece no mercado de tecnologia.

Veja tambémArtigos

Foto: Canva
Segurança

ESET identifica golpe que usa app legítimo para controlar celulares de vítimas

Foto: Canva
Segurança

Check Point alerta para ataque global de phishing que imita serviços digitais

Foto: Canva
Segurança

Brasil lidera bloqueios de ataques a Linux e Mac na América Latina, segundo Kaspersky

Foto: Canva
Segurança

WatchGuard projeta mudanças decisivas na cibersegurança em 2026

Próximo Artigo
Foto: Canva

Strattner utiliza solução da Cortex para impulsionar novos negócios

Por favor, faça login para comentar

Categorias

  • Casos de sucesso
  • Entrevistas
  • Negócios
  • Notícias
  • Opinião
  • Produtos
  • RH
  • Segurança
  • Tecnologia
  • Arquivo
  • Erramos
  • Home
  • Política de Cookies
  • Política de Privacidade
  • Sobre

IT Section © 2023 -Todos Direitos Reservados - Powered by ZionLab

Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies. Para saber mais, visite nossa política de privacidade.