Randolfe acusa ação protelatória para não regular inteligência artificial
Diante da resistência, o presidente da Casa, Rodrigo Pacheco (PSD-MG), pautou para a próxima terça-feira (10) o projeto que regulamenta o uso da IA
Publicado 06/12/2024 16:36 | Editado 06/12/2024 16:48
O líder do governo no Congresso, senador Randolfe Rodrigues (PT-AP), classificou de “movimento protelatório” a ação de senadores bolsonaristas que se posicionaram contra a votação nesta quinta-feira (6), no plenário do Senado, do projeto de lei (PL 2.338/2023) que regulamenta o desenvolvimento e o uso de sistemas de inteligência artificial (IA).
“Todo o plenário sabia do projeto. Todo o plenário tinha a possibilidade e a oportunidade de ir à comissão para debater. Acabou de ser aprovado por unanimidade na comissão, com a recomendação para votarmos agora. Eu entendo alguns que resistem em regular algumas coisas na internet, mas me parece que está em curso um movimento protelatório que esconde o sentimento real, que é não ter regulação nenhuma sobre a inteligência artificial”, discursou o senador.
Diante da resistência, o presidente da Casa, Rodrigo Pacheco (PSD-MG), pautou a matéria para a próxima terça-feira (10).
Leia mais: Inteligência Artificial pode afetar 37 milhões de trabalhadores no Brasil, diz OIT
“A minha intenção era votar na data de hoje o projeto, e, atendendo a reclames, nós propusemos o acordo da votação do requerimento de urgência na data de hoje e a inclusão na pauta de terça-feira”, disse Pacheco.
Para Randolfe, o Brasil pode se tornar uma referência mundial com a aprovação da proposta de regulamentação da IA.
“Essa proposta pode possibilitar a nós, no Brasil, ter uma legislação sobre IA pioneira no mundo. E pode apontar como modelo para o mundo uma legislação para controlar esse demônio que tem saído da contemporaneidade e trazer um pouco mais para o mundo celestial”, defendeu.
O senador considerou que “as inovações tecnológicas da humanidade devem ser para o seu aprimoramento, não caminhos para criação, estabelecimento e prevalecimento da manipulação e da mentira”.
O relator do projeto, senador Eduardo Gomes (PL-TO), disse que a “pior regulação e a regulação ausente”.
“É importante dizer que este texto, depois de 520 dias, depois de todos esses debates, é o único na América Latina em discussão e com a capacidade de dar resposta àquilo que está por trás disso tudo que está sendo discutido. A interpretação do acaso, venha de qualquer um dos poderes ou de qualquer setor da sociedade, quando não abriga e não encontra lei nenhuma, encontra o ambiente adequado para que a gente tenha a contradição da vida”, disse.
O senador Humberto Costa (PT-PE) considerou que o relatório de Gomes atende a uma série de preocupações de diversos segmentos e setores. “É importante que nós realmente possamos votar essa questão rapidamente”, defendeu.
“Mesmo num mundo livre, não se pode deixar que uma tecnologia falte com a verdade, gente, principalmente quando essa tecnologia falta com a verdade, ela prejudica a vida, a saúde; todos os poderes são prejudicados e as pessoas”, defendeu a votação da matéria a senadora Zenaide Maia (PSD-RN).
Confira os principais pontos do projeto, segundo detalhamento da Agência Senado:
Riscos
O projeto divide os sistemas de IA em níveis de risco, oferecendo uma regulamentação distinta para os de alto risco, a depender do impacto do sistema na vida humana e nos direitos fundamentais. E a proposta veda o desenvolvimento de aplicações de IA que tenham “risco excessivo”.
Direitos autorais
O relatório estabelece que conteúdos protegidos por direitos autorais poderão ser utilizados em processos de “mineração de textos” para o desenvolvimento do sistema de IA por instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e organizações educacionais. No entanto, o material precisa ser obtido de forma legítima e sem fins comerciais.
Trabalhadores
Os cidadãos terão assegurados os direitos a explicação e a revisão humana das decisões que tiverem impacto jurídico relevante. E no caso de uso de sistemas que façam identificação biométrica, deverá haver a garantia de proteção contra discriminação direta, indireta, ilegal ou abusiva.
Integridade da informação
Foi suprimido do texto a previsão do risco à integridade da informação, à liberdade de expressão, ao processo democrático e ao pluralismo político como critério para regulamentação e identificação de novas hipóteses de IA de alto risco pelo Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), setor que será criado para a fiscalização do cumprimento das regras.
Avaliação preliminar
O objetivo dessa avaliação preliminar é determinar o grau de risco do sistema, que dependerá de suas finalidades e do seu impacto. Ela deve ser realizada pelos próprios agentes — isto é, os desenvolvedores, fornecedores ou aplicadores do sistema, conforme o caso —, antes da disponibilização do sistema no mercado.
Risco excessivo
O projeto proíbe o desenvolvimento e o uso de sistemas com determinadas características ou finalidades, por considerar que representam risco excessivo. Entre eles, estão os chamados sistemas de armas autônomas (SAA), isto é, que podem selecionar e atacar alvos sem intervenção humana.
Avaliação de impacto
Quando um sistema de IA for classificado como sendo de alto risco, deverá ser realizada a avaliação de impacto algorítmico por profissionais com conhecimentos técnicos, científicos, regulatórios e jurídicos.
IA generativa e sistemas de propósito geral
Os sistemas conhecidos como generativos (capazes de produzir ou modificar texto, áudio, vídeo ou código de programação, como Midjourney, Dall-E e outros) e de propósito geral (treinados com grande volume de dados e que podem ser adaptados para diferentes tarefas, como o GPT-4o, o Gemini e o Claude, entre outros) terão regras específicas.
Antes de esses sistemas serem disponibilizados no mercado, seus agentes devem realizar a avaliação preliminar para classificação de risco. Devem também demonstrar que identificaram e mitigaram possíveis riscos aos direitos fundamentais, ao meio ambiente, à liberdade de expressão, à integridade da informação e ao processo democrático. Esses sistemas devem ser concebidos de modo a reduzir o uso de energia e outros recursos e a produção de resíduos. Também só poderão processar dados em conformidade com as exigências legais.
Sanções administrativas e responsabilidade civil
A infração das normas contidas no projeto poderá sujeitar os desenvolvedores, fornecedores e aplicadores de sistemas de inteligência artificial a multas de até R$ 50 milhões ou a 2% do faturamento bruto do grupo ou conglomerado por infração. Outras sanções previstas são advertência, proibição de tratar determinados dados, e suspensão parcial ou total, temporária ou permanente do desenvolvimento, fornecimento ou operação do sistema.
Autoridade Nacional de Proteção de Dados
O PL 2.338/2023 prevê que diversos órgãos deverão trabalhar em conjunto com o intuito de organizar, regular e fiscalizar o mercado da inteligência artificial. O projeto estabelece a Autoridade Nacional de Proteção de Dados (ANPD), criada pela Lei 13.853, de 2019, como a autoridade competente para impor sanções, aplicar multas, expedir normas sobre as formas e requisitos de certificação, os procedimentos da avaliação de impacto algorítmico e para a comunicação de graves incidentes.
Poder público
Os sistemas de IA utilizados pelo poder público, além de implementar as medidas previstas para todos os demais sistemas, deverão registrar quem usou, em que situação e para qual finalidade. Deverão ser empregados, preferencialmente, sistemas interoperáveis, de modo a evitar a dependência tecnológica e propiciar a continuidade dos sistemas desenvolvidos ou contratados.
Direitos dos afetados
O projeto assegura uma série de direitos para as pessoas que forem afetadas pelos sistemas de inteligência artificial: direito à informação prévia de que está interagindo com sistemas de IA; direito a privacidade e proteção de dados pessoais; direito à não discriminação ilícita e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos; uso de linguagem simples e clara quando destinados a criança e adolescentes, idosos ou pessoas com deficiência.
As pessoas afetadas por sistemas de alto risco terão, adicionalmente, os seguintes direitos: direito à explicação sobre a decisão tomada pelo sistema de inteligência artificial; direito à contestação das decisões; direito a revisão humana das decisões, considerando o contexto e o risco associado.
Boas práticas
Os desenvolvedores e fornecedores de sistemas poderão adotar códigos de conduta para assegurar o cumprimento dos dispositivos da lei. A adesão a esses códigos será considerada indicativo de boa-fé por parte do agente nos casos em que for aplicada sanção administrativa.
Vigência
A maioria dos dispositivos do projeto entrará em vigor 730 dias (ou seja, dois anos) depois da publicação da lei. No entanto, as regras sobre sistemas generativos e de uso geral, sobre as aplicações proibidas de sistemas de IA e sobre os direitos de autor entrarão em vigor 180 dias após a publicação da lei. Já a organização e atribuições dos órgãos reguladores do mercado de IA, com exceção das sanções aplicáveis, terão vigência imediata. O mesmo vale para as medidas de incentivo à sustentabilidade e às pequenas empresas.