Senado flexibiliza proteções de marco regulatório de IA após pressão da indústria

SÃO PAULO, SP (FOLHAPRESS) – A nova versão da proposta de regulação de inteligência artificial, apresentada nesta quinta-feira (28), flexibiliza as proteções contra demissão em massa em decorrência da implementação da tecnologia e aumenta as exceções à aplicação da lei.

A apreciação do projeto pela comissão responsável foi adiada pela quarta vez em julho, por pressão da CNI (Confederação Nacional da Indústria), que publicou um relatório criticando o “rigor sem precedentes” do projeto de lei.

O relator da matéria, o senador Eduardo Gomes (PL-TO), chegou à nova redação após uma série de audiências públicas com representantes do mercado e grupos de pressão ligados à tecnologia.

O presidente da comissão temporária interna sobre inteligência artificial, Carlos Viana (Podemos-MG), marcou a votação do relatório para a próxima terça-feira (3).

De um lado, entidades do setor como a Abes (Associação Brasileira das Empresas de Software) e a Abria (Associação Brasileira de Inteligência Artificial) são contra qualquer forma de lei específica e pedem autorregulação da tecnologia. De outro, grupos da sociedade civil alertam para os riscos de desemprego e prisões arbitrárias ligados aos sistemas de IA, além do desenvolvimento de armas autônomas.

Gomes não respondeu às questões enviadas pela reportagem. Nesta quinta, a Fiesp (Federação das Indústrias do Estado de São Paulo) manifestou, em nota, apoio ao substitutivo apresentado pelo parlamentar.

Advogados alinhados às empresas de tecnologia avaliam que o texto evita travas ao desenvolvimento e à adoção da IA, uma vez que garantiria que as restrições sejam aplicadas apenas aos sistemas de alto risco. “A grande maioria dos modelos não gera grandes perigos”, disse o advogado Rony Vainzof, sócio do escritório VLK Advogados.

O diretor da associação de pesquisa Data Privacy Brasil, Rafael Zanatta, por outro lado, afirma que os legisladores erraram a dose na flexibilização. A nova redação tira da escala de risco o número de pessoas afetadas pelo sistema de IA, um fato considerado, por exemplo, na Lei Geral de Proteção de Dados.

Outra regra retirada foi a de obrigatoriedade de revisão humana em processos de tomada de decisões automatizadas que resultem na aplicação de sanções disciplinares ou na dispensa de trabalhadores.

“O governo está cedendo diante das pressões da indústria e do setor privado com relação às propostas”, diz Zanatta.

Para Vainzoff, por outro lado, a revisão humana continua obrigatória no caso dos sistemas de alto risco.

Na redação atual, seriam consideradas sistemas de alto risco:

– Uso de IA para gestão de infraestruturas críticas, como tráfego e redes de abastecimento

– IA em processos seletivos ligados à educação ou trabalho

– Avaliação de critérios para recebimentos de benefícios

– Determinação de prioridade em serviços públicos

– Investigação e aplicação de lei no âmbito do sistema de Justiça

– Automação de veículos

– Estudos analíticos de práticas criminais

– Investigações administrativas

– Sistema de identificação biométrica de emoções

– Gestão de migração

– Curadoria em larga escala, como ocorre nas redes sociais

Os sistemas de IA de alto risco terão de garantir direito à explicação e à contestação para os usuários. Terão, ainda, que passar por supervisão humana, considerando-se contexto e risco.

Continuam vedados o uso e o desenvolvimento de IAs que gerem riscos à saúde, à segurança, que considerem traços de personalidade ou histórico criminal para avaliar risco de cometimento de crime, ou que calcule notas baseadas no comportamento da pessoa. As armas autônomas também continuam proibidas.

O novo texto, porém, dificultaria que o regulador —o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA)— alterasse as classificações conferidas pelas autoridades, já que houve o acréscimo de uma proteção aos direitos adquiridos. Assim, leis ou atos posteriores não alterariam decisões administrativas do passado.

A medida geraria um furo na regulação, na visão de Zanatta, já que a tecnologia ainda está em desenvolvimento. “A sociedade ainda está compreendendo os riscos desses modelos.”

“O texto precisa prever a capacidade do SIA de definir, no futuro, novas possibilidades e cenários de alto risco para direitos fundamentais.”

Para Vainzof, a concepção baseada em direitos usada no texto original partia de um erro de concepção de que a tecnologia seria o problema. “Os riscos, na verdade, estão associados ao uso da IA.”

O texto foi desidratado, diz o advogado, para evitar que a lei não desidratasse a tecnologia. “A redação original quebrava uma lógica de abordagem em risco, ao prever obrigações para todos os modelos de IA.”

Compartilhe: