O plenário do Senado
aprovou, também nesta quinta, a urgência do texto, e a expectativa é de que o
mérito da medida seja analisado na próxima terça-feira (10)
Um acordo firmado entre governo e oposição permitiu a aprovação em comissão especial do Senado, por votação simbólica, do projeto de lei que regulamenta a Inteligência Artificial (IA) no Brasil, nesta quinta-feira (5), de acordo com informações do portal g1. Existe uma disputa em torno dos trechos que exigem que os sistemas de IA respeitem a integridade da informação e que combatam a desinformação. O plenário do Senado aprovou, também nesta quinta, a urgência do texto, e a expectativa é de que o mérito da medida seja analisado na próxima terça-feira (10), quando os partidos ainda poderão sugerir novas mudanças.
Para conseguir aprovar por votação simbólica – quando há acordo e os parlamentares não registram o voto no sistema –, o relator Eduardo Gomes (PL-TO) retirou alguns trechos que mencionavam a integridade da informação. Por outro lado, Gomes manteve o dispositivo que diz que a integridade da informação é um dos princípios que regem o uso e o desenvolvimento de inteligência artificial no Brasil.
O líder do governo no Congresso, senador Randolfe Rodrigues (PT-AP), avaliou que o acordo não prejudicou o princípio de que os sistemas de IA terão que respeitar a integridade das informações. “Teve a exclusão de um dispositivo meio confuso, que o relator acatou pra construir essa unidade, mas não prejudica o princípio da integridade da informação”, disse Randolfe.
O líder da oposição, senador Marcos Rogério (PL-RO), sustentou que a preocupação dele era de que esses trechos prejudicassem a liberdade de expressão. “Do ponto de vista do que eu defendia, aprimoramos o texto. Pontos que ainda precisam de um cuidado aqui ou acolá ainda existem, mas o texto ainda vai passar pelo plenário do Senado e pela Câmara dos Deputados, voltando depois ao Senado se houver alteração na Câmara. Estou contente com o trabalho do relator que, em um ambiente de grande divergência, construiu um caminho de convergência”, ressaltou Rogério.
Mudanças
O relator excluiu do texto, a pedido da oposição, dois dispositivos que citavam a necessidade de observar a integridade da informação nos sistemas de IA. No documento anterior, estava previsto que, para classificar se um sistema de IA é ou não de alto risco, era necessário analisar se a tecnologia poderia causar “risco à integridade da informação, liberdade de expressão, o processo democrático e ao pluralismo político”. Esse trecho foi excluído.
O relator também excluiu o Artigo 31, que previa que o desenvolvedor de um sistema de IA, antes de disponibilizar o software no mercado para fins comerciais, deveria “garantir a adoção de medidas para identificação, análise e mitigação de riscos razoavelmente previsíveis no que tange a direitos fundamentais, o meio ambiente, a integridade da informação, liberdade de expressão e o acesso à informação”.
Por outro lado, o relator manteve, entre os fundamentos para o uso e desenvolvimento de sistemas de IA no Brasil, o seguinte critério: “integridade da informação mediante a proteção e a promoção da confiabilidade, precisão e consistência das informações para o fortalecimento da liberdade de expressão, acesso à informação e dos demais direitos fundamentais”.
O projeto de lei define que a integridade da informação é “resultado de um ecossistema informacional que viabiliza e disponibiliza informações e conhecimento confiáveis, diversos e precisos, em tempo hábil para promoção da liberdade de expressão”. Esse Sistema terá um papel residual, com o papel regulatório principal ficando com as atuais agências regulatórias setoriais, que ainda terão assento no SIA.
De acordo com o projeto, o SIA será responsável por “exercer competência normativa, regulatória, fiscalizatória e sancionatória plena para desenvolvimento, implementação e uso de sistemas de inteligência artificial para atividades econômicas em que não haja órgão ou ente regulador setorial específico”.
O projeto ainda define quais sistemas de IA devem ser considerados de alto risco e, por isso, precisam de uma regulação mais rígida, além de proibir o desenvolvimento de tecnologias que causem danos à saúde, segurança ou outros direitos fundamentais. O projeto proíbe, por exemplo, que o poder público crie sistemas que classifiquem ou ranqueiem pessoas com base no comportamento social para acesso a bens e serviços e políticas públicas “de forma ilegítima ou desproporcional” ou que facilitem o abuso ou exploração sexual de crianças e adolescentes.
Sem comentários:
Enviar um comentário
obrigado pela sua participação grato
por sua visita!...e fique a vontade para opinar.