O avanço da Inteligência Artificial generativa tem ampliado as possibilidades de criação de conteúdos, permitindo que textos, imagens e vídeos sejam produzidos em segundos por usuários em diferentes contextos. Ao mesmo tempo, esse cenário traz à tona desafios éticos, legais e sociais que passam a exigir maior atenção de empresas, governos e da sociedade.
Com a evolução dos modelos de IA, aumentam também os riscos relacionados ao uso indevido da tecnologia, incluindo danos à reputação, impactos na saúde mental e a disseminação descontrolada de informações dentro das organizações.
Esse movimento ocorre em paralelo ao crescimento acelerado do mercado. Segundo a Market Research Future, o setor global de Inteligência Artificial foi avaliado em US$ 391 bilhões no último ano, com projeção de atingir US$ 3,5 trilhões até 2033. No Brasil, dados da IMARC Group indicam que o mercado alcançou US$ 371,2 milhões em 2025, impulsionado por investimentos em infraestrutura digital, incentivo governamental e expansão de startups especializadas.
Responsabilidade compartilhada no uso da tecnologia
De acordo com NTT DATA, o avanço da IA exige uma abordagem baseada em responsabilidade compartilhada entre todos os agentes envolvidos, incluindo desenvolvedores, provedores de serviços, reguladores e usuários.
Segundo Rodrigo Krüger, Diretor de Dados & IA da empresa, a discussão precisa evoluir para além do potencial técnico da tecnologia. “Do ponto de vista da mentalidade, a pergunta deve mudar de ‘até onde a IA pode ir’ para ‘como escolhemos usá-la’. Na conjuntura atual, a responsabilidade também faz parte da inovação”, afirma.
O executivo ressalta que tanto indivíduos quanto organizações têm papel ativo nesse processo, adotando práticas como o cumprimento de regulamentações, implementação de governança de dados e aplicação de princípios éticos desde a concepção das soluções.
Governança e cultura como pilares nas empresas
No ambiente corporativo, a adoção de estruturas claras de compliance, políticas de uso e transparência nos modelos de IA é apontada como essencial para mitigar riscos. Essas práticas contribuem para que a tecnologia seja utilizada de forma segura e alinhada aos interesses da sociedade.
Krüger destaca que o desafio vai além da criação de mecanismos de controle. Para ele, é necessário estabelecer uma cultura organizacional orientada à responsabilidade em todas as etapas do ciclo de vida da Inteligência Artificial.
“Para além de ganhos imediatos, é preciso avaliar os impactos de longo prazo, antecipar potenciais cenários de risco e garantir que seus benefícios sejam distribuídos de forma justa. A responsabilidade deve se estender da concepção até a aplicação prática, e isso exige visão estratégica e compromisso coletivo”, diz.
Aplicações positivas já avançam em diferentes setores
Apesar dos desafios, a Inteligência Artificial generativa também apresenta aplicações relevantes em diferentes áreas. Entre os exemplos estão o uso em diagnósticos médicos, apoiando profissionais de saúde na análise de exames e na identificação precoce de doenças, além da aplicação em processos industriais, com ganhos de eficiência e redução de desperdícios.
Debate envolve aspectos sociais e culturais
Para a NTT DATA, a discussão sobre o uso responsável da IA não se limita ao campo técnico. A forma como governos, empresas e cidadãos conduzem essa transformação terá impacto direto na ampliação de oportunidades ou no aumento de desigualdades.
“O momento é de construção coletiva, cada decisão tomada hoje molda o futuro da Inteligência Artificial e seu papel na vida das pessoas”, conclui Krüger.





