Skip to main content

O presidente do Senado, Rodrigo Pacheco (PSD), apresentou um projeto de lei que institui o marco legal da Inteligência Artificial (IA) no Brasil e possivelmente o primeiro no mundo. Atualmente, nenhum país do mundo possui um marco regulatório sobre a tecnologia, apenas algumas diretrizes adotadas.

Recentemente, o avanço tecnológico sem precedentes fez com que um grupo de especialistas em inteligência artificial e executivos da indústria da tecnologia pedisse uma pausa de seis meses no treinamento de poderosos sistemas de inteligência artificial, com o argumento de que eles representam uma potencial ameaça à humanidade após a chegada do ChatGPT, da OpenAI.

A carta foi assinada em março deste ano por mais de mil pessoas, incluindo o bilionário Elon Musk, o cofundador da Apple, Steve Wozniak, e o CEO da Stability AI, Emad Mostaque, além de pesquisadores da DeepMind.

A inteligência artificial já é usada em setores como saúde, para diagnóstico de doenças e desenvolvimento de novos medicamentos; automóveis, no desenvolvimento de veículos autônomos, direção assistida, piloto automático; varejo, para gerenciamento de estoque; e até no entretenimento, com a simples recomendação de conteúdo e perfil dos hábitos dos consumidores.

A cúpula menor, voltada para baixo, abriga o Plenário do Senado Federal. A cúpula maior, voltada para cima, abriga o Plenário da Câmara dos Deputados.

Projeto de lei

O texto do projeto que está no Senado brasileiro estipula os princípios éticos na utilização da tecnologia; definição da necessidade de que os algoritmos tenham transparência e que sejam explicáveis; asseguramento de direitos e garantias dos afetados pela IA e implementação de medidas para o combate à discriminação.

“São previstos princípios e diretrizes para o desenvolvimento e o uso da IA, bem como estabelecidos direitos à pessoa afetada pela tecnologia, obrigações ao desenvolvedor ou utilizador das ferramentas e um regime de fiscalização e punição aos infratores, com penas administrativas que podem chegar a multas de até R$ 50 milhões”.

FABRICIO DA MOTA ALVES, SÓCIO DO SERUR ADVOGADOS

A ideia é a criação de um marco legal para estabelecer os direitos para a proteção do elo mais vulnerável, ou seja, as pessoas afetadas. O segundo eixo consiste, a partir do modelo europeu, definir alguns riscos, classificá-los e impor deveres de conduta.

O texto do PL é fruto de um trabalho do Senado que criou uma comissão de 18 juristas especialistas na área de IA, novas tecnologias e proteção de dados para que pudessem criar, discutir e debater o tema, além de especialistas da área jurídica. Durante todo o ano de 2022, foram realizadas audiências públicas para debater o tema e foram ouvidos diversos setores da sociedade, como players de mercado e academia, para que pudessem chegar a um denominador comum.

O especialista alerta que uma regulação muito rígida pode prejudicar a inovação tecnológica.

“Assim como qualquer regulação, que nada mais é do que uma intervenção do Estado sobre as atividades privadas, toda regulação deve ser permeada por análises de impacto regulatório e conduzida por uma visão de equilíbrio entre a proteção de direitos e o intuito desenvolvimentista e de inovação. Uma regulação excessivamente rígida prejudica a inovação.”

FABRICIO MOTA ALVES, SÓCIO DO SERUR ADVOGADOS

O texto também prevê atribuições para uma entidade fiscalizatória que deverá ser definida pelo poder executivo. Ainda não há data para o projeto ser votado.

Chat GPT utiliza inteligência artificial (Imagem: Pixabay)
Chat GPT utiliza inteligência artificial (Imagem: Pixabay)

Quais os prós e contras da regulação de IA?

Caso seja aprovado, o projeto de lei vai regular todo o processo da criação da inteligência artificial, desde a concepção e o desenvolvimento de tecnologias de IA até sua utilização responsável e ética por entes públicos e privados. Especialistas ouvidos pelo InvestNews apontam os pontos positivos e negativos da regulação.

O advogado Fabricio da Mota Alves destaca que entre os pontos positivos do projeto estão a maturidade regulatória, que foi construída a partir das melhores visões de regulação do assunto no mundo, em particular da União Europeia.

“Essa abordagem é baseada na perspectiva de risco, ou seja, o desenvolvimento e o uso da IA podem colocar em risco direitos e garantias do cidadão e, para que esse risco seja mitigado e controlado, são estabelecidos os mecanismos propostos no texto, como a transparência, a auditabilidade e a explicabilidade da tecnologia, a possibilidade de contestar os resultados e decisões tomados com base na IA, a participação e supervisão humana no ciclo da IA etc.”

De acordo com Alves, o texto também foi orientado a regular apenas as ferramentas que oferecem riscos relevantes, que são categorizados entre risco excessivo (que prevê até mesmo em proibição da IA, conforme o caso) e alto risco (que prevê a adoção de medidas de mitigação e compensação).

Philipe Monteiro Cardoso, advogado especializado em Direito Digital e sócio fundador do Cardoso Advogados Associados, diz que apesar proporcionar uma estrutura legal para a implementação e uso de IA, protegendo os direitos dos indivíduos, a regulamentação pode ter pontos negativos.

“Exista a possibilidade de a regulamentação ser muito restritiva, sufocar a inovação, ser mal aplicada ou não acompanhar a rapidez dos avanços tecnológicos.”

MONTEIRO CARDOSO, ADVOGADO ESPECIALIZADO EM DIREITO DIGITAL

Para Cardoso, uma regulamentação excessivamente rígida pode, de fato, prejudicar a inovação.

“Regulamentos que não permitem flexibilidade ou adaptação ao rápido desenvolvimento da tecnologia podem dificultar a pesquisa e o desenvolvimento, e desestimular a experimentação. Em se tratando de inteligência artificial, como seu desenvolvimento e inovações podem crescer a cada dia existe a possibilidade das regulamentações não acompanharem as inovações e inclusive criar certo limbo jurídico que depende de regulamentação.”

O advogado Gustavo Melo, sócio do escritório Silveiro Advogados, também alerta para possíveis riscos.

“Seria a primeira legislação no mundo sobre IA. Por não ter outras experiências, não saberíamos ainda quais os impactos da norma na prática. Por exemplo, o Marco Legal prevê a criação de uma autoridade competente para fiscalizar e sancionar, mas ainda não se sabe como se daria essa criação, se seria uma autoridade nova ou se se poderia utilizar outra autoridade para regular os sistemas de IA, como a ANPD, a Autoridade Nacional de Proteção de Dados. Essas questões precisam ser avaliadas após a aprovação da lei.”

Quais as sanções em caso de descumprimento?

O artigo 36 do projeto prevê que os agentes de IA, em caso de violação dessa lei, ficam sujeitos a algumas sanções. “Desde simples advertências a multa de até R$ 50 milhões por infração, ou até 2% do seu faturamento. Aqui, verifica-se que as sanções pecuniárias são as mesmas previstas na LGPD [Lei Geral de Proteção de Dados]”, diz o advogado Gustavo Melo.

Como funcionam as regras de IA no mundo?

Apesar de não existir a aprovação de um marco regulatório em nenhum país do mundo, existem diferentes níveis de adoção de regulação de IA em alguns países. Na União Europeia vem sendo discutida uma regulação mais abrangente e está em vias de ser aprovada, sendo o parâmetro mais relevante em discussão no mundo.

Japão e Canadá também possuem estratégias nacionais para o uso da IA. O governo da China divulgou, em abril, um conjunto robusto de propostas para regulamentar tecnologias de IA. Veja abaixo algumas propostas de regulação mundiais:

  1. União Europeia: Em abril de 2021, a Comissão Europeia propôs novas regras abrangentes sobre IA, conhecidas como o Regulamento de Inteligência Artificial. Essas regras visam criar um ambiente de confiança e segurança em torno da utilização da IA na UE, focando na transparência, no controle humano sobre a IA, na proteção da privacidade e dos dados pessoais, e na responsabilidade das partes envolvidas. Elas abrangem desde a proibição de sistemas de IA considerados perigosos até requisitos rigorosos para sistemas de IA de alto risco, passando por regras de transparência para sistemas de IA que interagem com as pessoas.
  2. Estados Unidos: A abordagem dos EUA para a regulamentação da IA tem sido mais setorial e dependente das agências reguladoras existentes. A Federal Trade Commission (FTC), por exemplo, tem autoridade para regular práticas de comércio desleais ou enganosas, que podem incluir o uso de IA. Ainda assim, não existe um marco regulatório de IA abrangente em nível nacional nos EUA.
  3. China: A China também tem se movimentado em direção à regulamentação da IA, principalmente através de suas políticas de segurança cibernética e diretrizes sobre a ética da IA. Em 2020, o Ministério da Ciência e Tecnologia da China divulgou princípios para a ‘nova geração’ da IA, incluindo princípios de governança e chamadas para a promoção da pesquisa em ética da IA.
  4. Singapura: Em 2020, Singapura se tornou um dos primeiros países a lançar um conjunto nacional de diretrizes de IA, conhecido como o Modelo de Governança de IA.
  5. Canadá: O Canadá tem se focado na promoção da IA e da inovação, mas também está trabalhando para incorporar a consideração de questões éticas na sua abordagem.

Matéria publicada no Invest News: https://investnews.com.br/geral/marco-legal-de-ia-no-brasil-pode-ser-1o-do-mundo-mas-gera-temores-juridicos/.