quarta-feira, 28 de janeiro de 2026
SIGA-NOS NO GOOGLE NEWS
IT Section - O essencial da TI em um só lugar
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Sem Resultados
Ver todos os resultados
IT Section - O essencial da TI em um só lugar
Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Home Notícias Segurança

Desafios da Inteligência Artificial Generativa na segurança corporativa

Especialista da BugHunt compartilha orientações para que os usuários possam se proteger diante das ameaças geradas pelo avanço da tecnologia.

IT Section Por IT Section
09/01/2024 - 16:10
A A
0
Foto: Canva

Foto: Canva

CompartilharPostar

A ampliação do uso da Inteligência Artificial (IA) nas soluções tecnológicas tornou-se inevitável em diversos setores. Segundo dados da IBM, 41% das empresas brasileiras já incorporam a IA em suas operações. No entanto, o crescimento dessa tecnologia, especificamente a IA generativa, traz consigo riscos significativos para a segurança corporativa.

Caio Telles, CEO da BugHunt, destaca os perigos relacionados ao desenvolvimento da IA generativa, responsável por criar textos, áudios, imagens e vídeos em resposta a linguagem comum. Essa ferramenta tem sido utilizada para produzir conteúdos falsos altamente convincentes, representando ameaças desde falsificações simples até deepfakes, elevando os riscos de ataques de phishing e engenharia social.

A IA generativa já é empregada na criação de sites adulterados e na automação de ataques cibernéticos, com malwares sofisticados capazes de contornar as defesas das empresas. Telles alerta que a capacidade dessa tecnologia de criar conteúdos falsificados pode impactar significativamente a integridade das informações e a confiança dos clientes nas empresas.

Diante desse cenário, as empresas buscam investir em mecanismos protetivos. Segundo a consultora Gartner, os gastos mundiais em segurança cibernética devem atingir US$ 215 bilhões em 2024. No entanto, Telles destaca a necessidade de direcionamento estratégico nesses investimentos, considerando a rápida evolução da IA.

O CEO da BugHunt enfatiza a importância de uma abordagem proativa e abrangente para lidar com os riscos associados à IA generativa. Recomenda a implementação de sistemas robustos de detecção e resposta a incidentes e sugere a busca por soluções externas, como programas de bug bounty, nos quais “hackers do bem” são recompensados por identificar vulnerabilidades, auxiliando as empresas a manterem-se à frente dos cibercriminosos.

Tags: BugHuntcibersegurançaInteligência Artificial Generativa
IT Section

IT Section

IT Section é um portal de notícias, artigos, produtos, entrevistas e vídeos sobre tudo o que acontece no mercado de tecnologia.

Veja tambémArtigos

Foto: Canva
Segurança

e-Safer reforça análise de falhas em softwares de terceiros

Foto: Canva
Segurança

Huge Networks alerta para nova onda de ataques SYN-ACK flood

Foto: Canva
Segurança

Commvault alerta: Active Directory é ponto crítico de vulnerabilidade em empresas

Foto: Canva
Segurança

Kaspersky alerta para dados esquecidos que podem se tornar porta de entrada para ataques

Próximo Artigo
Foto: Canva

Strattner utiliza solução da Cortex para impulsionar novos negócios

Por favor, faça login para comentar

Categorias

  • Casos de sucesso
  • Entrevistas
  • Negócios
  • Notícias
  • Opinião
  • Produtos
  • RH
  • Segurança
  • Tecnologia
  • Arquivo
  • Erramos
  • Home
  • Política de Cookies
  • Política de Privacidade
  • Sobre

IT Section © 2023 -Todos Direitos Reservados - Powered by ZionLab

Sem Resultados
Ver todos os resultados
  • Últimas
  • Negócios
  • Segurança
  • Opinião
  • Tecnologia
  • Entrevistas
  • RH
  • Produtos
  • Além da TI
Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies. Para saber mais, visite nossa política de privacidade.