Generic selectors
Somente termos específicos
Buscar em títulos
Buscar em conteúdo
Post Type Selectors

Entenda os principais pontos do texto preliminar do Marco Legal da IA

Outras notícias

...

Receita informa que restituição do Imposto de Renda 2024 tem nova ordem de prioridade

Foto: Juca Varella/Agência Brasil Moradores do RS agora têm prioridade maior que quem optou por usar declaração pré-preenchida. No último…

Confira qual é o dissídio da construção civil em 2024

Convenção Coletiva de Trabalho foi assinada em 13 de maio pelos presidentes do SindusCon-SP, Sintracon-SP e Feticom-SP A construção civil…

IA atinge mercado de trabalho ‘igual tsunami’, diz diretora do FMI

Diretora-gerente do Fundo Monetário Internacional (FMI), Kristalina Georgieva (Imagem: Governo do Peru) A diretora-gerente do FMI, Cristalina Georgieva, apontou que…

Comissão Europeia apresenta plano para um diploma europeu

A Comissão Europeia adotou um pacote de propostas para o setor do ensino superior europeu com o objetivo de criar…
  • 10 de maio de 2024

Inteligência artificial / Crédito: Freepik

O senador Eduardo Gomes (PL-TO) apresentou na semana passada o texto preliminar do Projeto de Lei 2338/2023, conhecido como o Marco Legal da Inteligência Artificial (IA).

O PL foi originalmente proposto pelo presidente Rodrigo Pacheco (PSD-MG), a partir do trabalho de uma comissão de juristas.

O novo documento mescla ainda outros projetos sobre o tema que tramitam na casa, como o PL 21/2020 do deputado Eduardo Bismarck (PDT-CE), que já foi aprovado na Câmara.

O texto foi apresentado na Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), que funcionará até o dia 23 de maio – prazo que poderá ser prorrogado.

E o relator receberá sugestões de mudanças até o dia 9 de maio.

Após esse período, inicia-se o prazo regimental para deliberação da comissão, com encaminhamento à Câmara em comum acordo.

A meta é que o texto final esteja pronto até a reunião da cúpula do G20, programada para 18 e 19 de novembro.

O Legislativo começou a discutir o tema ainda em 2020, mas o debate se arrastou com polêmica sobre a própria necessidade, ou não, de uma regulação específica para a inteligência artificial.

Outros Poderes também estão se dedicando ao tema.

O Ministério da Ciência, Tecnologia e Inovação anunciou que pretende entregar em junho um plano para IA, baseado na Estratégia Brasileira de Inteligência Artificial.

“É fundamental que a gente discuta o Marco Legal da IA junto com o fomento de política e do plano de desenvolvimento de IA no Brasil”, diz Laura Schertel, professora da Universidade de Brasília (UnB), e relatora da comissão de juristas responsável pelo substitutivo.

“Os pressupostos para esse desenvolvimento são grandes. São pressupostos humanos, de dados de qualidade, de capacidades computacionais”. 

Detalhes do Marco Legal da Inteligência Artificial

O texto define “sistema de inteligência artificial” como um “sistema baseado em máquina que, com graus diferentes de autonomia e para objetivos explícitos ou implícitos, infere, a partir de um conjunto de dados ou informações que recebe, como gerar resultados, em especial, previsão, recomendação ou decisão que possa influenciar o ambiente virtual ou real”, além de elencar tipos da tecnologia, como IA generativa

A definição com a listagem de tecnologias pode trazer problemas futuros, na visão de Alexandre Pacheco, coordenador do Centro de Ensino e Pesquisa em Inovação da Escola de Direito da Fundação Getúlio Vargas.

“Agora falamos de IA generativa. Daqui a pouco vamos falar de outra coisa”, diz “Alguém pode questionar se a tecnologia da vez do futuro é diferente da que foi mencionada. É claro que você pode trabalhar interpretação, mas pode gerar confusão”. 

Com um sistema de classificação de riscos, o documento guarda semelhanças tanto com o europeu AI Act, quanto com o AI Executive Order norte-americano, com uma abordagem híbrida que envolve diversas áreas do aparato estatal.

Mas, para Schertel, apesar de “alinhado com grandes documentos internacionais”, o substitutivo brasileiro se diferencia na abordagem dos direitos. “Ele traz uma solução bastante concreta para o caso brasileiro, com direitos e proteção necessários para uma das sociedades mais desiguais do mundo”. 

As regras descritas no documento não são válidas para sistemas desenvolvidos para uso particular e não econômico, nem para os desenvolvidos para fins de defesa nacional ou atividades de pesquisas, e para aqueles de formatos abertos e livres, “exceto aqueles considerados de alto risco”.

Entenda os principais pontos do Marco Legal da IA

Direitos e proibições

Os direitos das pessoas e grupos afetados pela IA, de acordo com o texto, são o direito à informação prévia quanto às suas interações com sistemas de inteligência artificial, de forma acessível; direito à privacidade e à proteção de dados pessoais; direito à determinação e à participação humana em decisões de sistemas de IA; direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos.

A ampliação de direitos em relação à IA é um dos fatores destacados por Schertel na defesa da legislação para o tema.

“Se não regularmos, podemos ter alguns beneficiados em detrimento de outros, além do surgimento de novos riscos para determinadas populações. Esses sistemas devem servir o bem público, não a determinadas empresas”, diz.

Para Rony Vainzof, sócio-fundador do VLK Advogados, a criação de novos direitos é um ponto de cautela, que pode trazer questões relacionadas à insegurança jurídica.

“Todos os sistemas que tenham alguma interface com uma camada de IA estarão sujeitos aos novos direitos criados”, afirma.

“Quem avaliará a licitude dos sistemas de IA? O Poder Judiciário, a autoridade competente ou o órgão regulador setorial?”

No hall das proibições, entra o emprego de inteligência artificial que leve usuários a agirem de maneira prejudicial à saúde deles próprios ou de outros.

Além disso, serão banidos sistemas de armas autônomas que não permitam controle humano substancial.

Também é vedada a utilização de IA para analisar características de personalidade e histórico pessoal para a avaliação de riscos de crime ou reincidência ou para ranqueamento por meio de pontuação universal.

Ainda, estão banidos sistemas que “possibilitem a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual infantil”.

 Autoridades

O substitutivo também determina que o país terá um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), para fiscalizar o cumprimento da lei sobre IA.

No texto, o senador Eduardo Gomes sugere que esta autoridade seja a já existente Autoridade Nacional de Proteção de Dados Pessoais (ANPD), que poderia ser ampliada para o propósito.

A instituição será responsável por criar critérios de avaliação preliminar do risco de um sistema de inteligência artificial, bem como fazer a sua avaliação, dentro da escala de “risco excessivo” e “alto risco”.

Para Alexandre Pacheco, da FGV, quem ficará como autoridade para a IA é um dos principais pontos de atenção para o futuro.

Além da ANPD, o Comitê Gestor da Internet (CGI) seria um bom candidato para a atribuição, diz.

“Além de sinergia com o tema, com a internet como base da IA, o CGI tem o atributo interessante do multissetorialismo”, afirma.

Sistema de riscos 

Assim como na regulamentação europeia, a proposta apresentada prevê avaliação preliminar de riscos antes da introdução de sistema de IA no mercado.

Em caso de risco chamado excessivo, os sistemas são vedados.

Já os de alto risco devem ser regulamentados pela SIA.

Neste caso, as empresas devem definir um responsável pelo diálogo com o poder público, que deve responder sobre testes de confiabilidade, gestão de dados para mitigar e prevenir vieses discriminatórios e submeter o sistema à supervisão humana.

As demais categorias não foram especificadas.

Haverá também obrigatoriedade de avaliação de impacto algorítmico em determinados casos.

Além da SIA, empresas também poderão criar associações privadas aliadas para a autorregulação e estabelecer os próprios critérios técnicos.

Segundo Schertel, um ponto de avanço na última versão “foi uma maior flexibilidade, uma maior especificação na consideração de alto risco, com maior flexibilidade para que agências setoriais possam listar exceções”.

No entanto, na avaliação de Vainzof, o novo texto propõe uma “carga de governança extremamente densa, complexa e custosa”. 

Toda regulação acompanha aumento de custos, admite Alexandre Pacheco, mas o nível de interesse dos agentes mercadológicos por IA faz com que dificilmente novas regras inviabilizem projetos.

“O progresso tem de ser responsável — precisamos entender potenciais danos e como podemos criar um ambiente que para reduza impactos e aumente possibilidade de fiscalização”, diz.

“É uma nova lógica que permite que abandonemos a ideia de progresso desenfreado que culminou em permissividade com danos ao meio ambiente, por exemplo”, diz.

Sanções

A norma prevê advertência para empresas que infringirem regras da lei de IA, além de, em caso de reincidência, multa simples, limitada a R$ 50 milhões de reais por infração.

No caso de pessoa jurídica de direito privado, o valor pode ser de até 2% de seu faturamento.

Além da publicização da infração, poderá haver também proibição para participar de regime de sandbox regulatório por até cinco anos.

Em último caso, pode ocorrer também a “suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA; e proibição de tratamento de determinadas bases de dados”. 

Direito autoral e de personalidade

Entre os avanços do texto citados por Laura Schertel, há a adição de seção específica sobre conteúdos protegidos, com o direito de autores restringirem o uso de suas obras em sistemas de IA.

Há também classificação sobre o que é fair use, isto é, não constitui ofensa a direitos autorais, e sobre o que é restrito a instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e outras instituições educacionais.

Segurança pública

O uso de sistemas de identificação biométrica à distância é proibido, exceto em algumas situações como busca de vítimas ou de pessoas desaparecidas e recaptura de fugitivos, por exemplo.

Sistemas de IA também podem ser usados para investigação de infrações em flagrante, no caso de crimes com mais de 2 anos de pena.

O texto também estabelece que, durante o uso de sistemas de armas autônomas deverá haver “controle humano significativo” e respeito às regras do Direito Internacional Humanitário e do Direito Internacional dos Direitos Humanos.

Redação CNPL sobre artigo de Carolina Unzelte