O desenvolvimento e a adoção acelerada de ferramentas de Inteligência Artificial já levantaram sinais de alerta, gerando debates éticos e legais em relação ao uso da tecnologia. A regulação segue sendo um desafio para governos e organizações, mas há uma opinião crescente sobre a criação de regras para a aplicação responsável por parte de empresas fornecedoras e operadoras de sistemas de IA.
Isso porque o uso precisa ser precedido por uma análise ética, como no clássico experimento “Dilema do Trem”. Nesse contexto, a moralmachine.net traz exemplos das implicações de decisões automatizadas em veículos autônomos. A ausência de um arcabouço de pesos e contrapesos pode ter impactos negativos em direitos fundamentais, como privacidade, proteção de dados e igualdade.
A União Europeia tem sido pioneira na criação de um ambiente regulatório robusto para a inteligência artificial. A exemplo do Regulamento Geral sobre a Proteção de Dados (GDPR, em inglês), que abriu caminho para que outros países regulassem o tema da proteção de dados, o debate europeu sobre a IA influencia discussões teóricas e legais no Brasil e no mundo.
A “AI Act” categoriza os sistemas de inteligência artificial em função dos riscos que possam representar aos direitos fundamentais, criando obrigações que chegam a proibir sistemas considerados de “risco inaceitável”. Questões de reconhecimento facial e vigilância biométrica são temas delicados do documento, e a linha traçada entre o “uso em tempo real” e “uso após fato” ainda deve gerar muitos debates entre legisladores e estudiosos.
Nos EUA, embora até o momento não haja uma abordagem regulatória unificada para a IA, entidades reconhecem a necessidade de equilibrar inovação com segurança. Bigtechs como Google, Microsoft, Adobe e IBM já assinaram compromisso voluntário para o uso responsável da tecnologia. Recentemente, o Congresso dos Estados Unidos reuniu diretores de Meta e Tesla para discutir a criação de um “árbitro para a IA” que, na prática, significa uma agência reguladora para supervisionar o uso da mesma.
No Brasil, a Autoridade Nacional de Proteção de Dados (ANPD) é quem pleiteia o papel pelos pontos de conexão entre a LGPD e o marco regulatório da IA. E, nos moldes do AI Act, o PL 2338/23 propõe a criação de níveis de risco da IA, entre excessivo e de alto risco. O texto trata ainda da possibilidade de revisão de decisões automatizadas, que nos leva de volta à questão ética da IA.
Afinal, como garantir que a IA será livre de vieses e quem será responsável pelos danos causados? Supondo que um carro autônomo cause um acidente, quem deve reparar os danos morais e patrimoniais? Se o PL entrar em vigor com os dispositivos atuais, a Tesla pode ter um grande problema financeiro nas mãos.
É fato que as possíveis aplicações da IA são inúmeras e sua adoção terá impactos em todas as esferas. Desde a forma como consumimos informações – daí o risco da desinformação se as bases de aprendizado forem ruins – até o mercado de trabalho, com atividades que passam a ser desempenhadas 100% por máquinas. Ou, como nos filmes de ficção científica, a perda do controle sobre os robôs.
Diante disso, é importante que exista uma regulamentação que impeça abusos, como aconteceu com grandes plataformas online antes de leis como GDPR e LGPD, sem que seja impeditiva de inovação. Também é necessário que seja tecnologicamente neutra, com a participação de profissionais de TI ao lado de advogados e membros do legislativo.
Mais que isso, é necessário pensar nos efeitos extraterritoriais da lei, já que, na maioria dos casos, os grandes players do segmento estão nos EUA. De qualquer forma, a IA já é uma realidade tão presente que leitores nunca saberão se esse texto é de minha autoria ou se foi escrito pelo ChatGPT.
*Por Rafaela Cysneiros, Principal Consultant de Privacidade da keeggo.