Projeto de IA deve ser votado na próxima semana sob ataque cerrado das big techs

SÃO PAULO, SP (FOLHAPRESS) – O projeto de lei 2338/2023, que regulamenta o uso da inteligência artificial no país, deve ser votado em comissão no Senado na terça-feira (9), sob ataque cerrado das big techs. A votação já foi adiada inúmeras vezes e recebeu uma enxurrada de emendas de última hora dos senadores Marcos Ponte (PL-SP), Marcos Rogério (PL-RO), Carlos Portinho (PL-RJ), Izalci Lucas (PL-DF) e Laercio Oliveira (PP-SE), alinhados às plataformas.

As principais críticas referem-se ao pagamento de direitos autorais por conteúdo usado para treinar modelos de IA, a classificação de sistemas de recomendação como de “alto risco”, o que exigirá que passem por auditorias para medir impacto potencial, e o estabelecimento de obrigações de transparência.

“Nós estivemos totalmente abertos a discussões com todos os setores. Mas algumas pessoas não estão interessadas em ajustes no texto, elas são contra a regulamentação e apostam no caos”, disse à reportagem o senador Eduardo Gomes (PL-TO), relator do projeto, de autoria do presidente do Senado, Rodrigo Pacheco.

“A não regulamentação que temos hoje é uma forma de regulamentação –e não está funcionando para, por exemplo, atrair investimentos para setor”, disse o senador que, durante reunião nesta quinta-feira (4), criticou o que chamou de “protelação e boicote” contra a lei.

Após uma maratona de negociações que varou a madrugada, Gomes costurou uma nova versão para o projeto e apresentou à comissão. O texto foi enxugado, e foram diluídas as obrigações das empresas de IA de explicar a usuários o funcionamento dos algoritmos. Também foram feitas mudanças que tornam mais difícil enquadrar sistemas de IA na categoria risco excessivo, que veda seu funcionamento.

Mas, apesar das pressões das big techs, foi mantida a previsão de pagamento de direitos autorais para uso de conteúdo em treinamento de modelos de IA, uma vitória dos artistas.

Empresas de inteligência artificial e organizações como a Abes (Associação Brasileira de Empresas de Software) e a Abese (Associação Brasileira das Empresas de Sistemas Eletrônicos de Segurança) divulgaram uma carta afirmando que o texto não estava “maduro” o bastante para ser votado.

Gomes ressaltou que o texto está em discussão há dois anos e já foi tema de mais de cem audiências públicas.

Segundo Gomes, a Comissão Temporária Interna sobre Inteligência Artificial (CTIA) deve votar o texto no dia 9, e o projeto segue para votação em plenário na semana do dia 15 –antes do recesso parlamentar.

“Não estamos maduros para tratar da parte de direitos autorais, poderíamos muito bem ter um projeto de IA sem tratar desse ponto”, disse em audiência Felipe França, diretor do Conselho Digital, que representa as principais plataformas de internet.

França defende o PL 21/2020 da Câmara, relatado pela deputada Luísa Canziani (PSD-PR), que libera o uso de dados públicos para treinamento de modelos de IA.

Durante audiência pública no Senado, Igor Luna, consultor da Câmara Brasileira da Economia Digital, que representa empresas como Amazon, Google, Facebook, TikTok e X (ex-Twitter), ressaltou a dificuldade de calcular o valor dos direitos autorais a serem pagos e disse que o montante será imprevisível.

“EUA, Singapura, Japão e Israel permitiram treinamento de IA a partir de qualquer informação publicamente disponível. Esses países escolheram o progresso científico”, disse.

Em vídeo postado no Instagram, Fabro Steibel, diretor-executivo do ITS (Instituto de Tecnologia e Sociedade), afirmou que o PL pode impedir o desenvolvimento de grandes modelos de linguagem em português.

“O projeto propõe que quem for fazer o treinamento dessa LLM com material em português terá que pagar direito autoral. Pagar direito autoral é muito importante, mas, da forma que está ali, torna quase inviável que pequenas e médias e startups desenvolvam esse tipo de tecnologia”, disse Steibel. Segundo ele, há o risco de “a gente ficar sem inteligência artificial que fale as nuances do português”.

Ele defende o chamado “fair use” para treinar modelos de IA em português, mesmo aqueles com fins comerciais, porque entende que se trata de interesse público. O fair use permite que se use conteúdo sem pagamento de direitos autorais, desde que sejam apenas pequenos trechos, que haja transformação e que não concorra com o conteúdo original.

Nos Estados Unidos, o New York Times está processando a OpenAI por ter usado o conteúdo do jornal para treinar seus modelos sem pagamento de direitos. A OpenAI argumenta que se trata de fair use.

Steibel acha que a cobrança de direitos autorais deveria se restringir às grandes empresas de IA, e não às pequenas e médias.

A Coalizão Direitos na Rede, que reúne inúmeras entidades da sociedade civil, defende a lei e diz que “atores contrários” são aqueles que “justamente se beneficiam deste cenário sem regras harmonizadas e previsibilidade jurídica, em detrimento da proteção de direitos humanos”.

A Febraban se opunha ao texto, mas passou a apoiar, após ser retirado da lista de risco excessivo o uso de IA para avaliação da capacidade de endividamento e nota de crédito.

Já a CNI, que divulgou relatório sobre o assunto na quinta, acredita que a proposta tem escopo muito mais amplo que a de outros exemplos internacionais e pode sufocar a inovação.

Bruno Bioni, diretor-fundador do Data Privacy Brasil e consultor técnico do gabinete de Eduardo Gomes, acredita que o texto está equilibrado. “Uma primeira [proposta, o PL da Câmara] muito econômica –equivalente à desregular– e uma segunda que era fortemente prescritiva [dos juristas]. Esse novo texto é uma espécie de meio do caminho.”

Compartilhe:

Últimas Notícias
Editorias

Assine nossa Newsletter

Purus ut praesent facilisi dictumst sollicitudin cubilia ridiculus.