Embora o termo Inteligência Artificial tenha sido cunhado em 1956, o seu uso começou a ser disseminado nos últimos anos, nas mais diversas áreas da sociedade – como na da saúde, através do diagnóstico mais preciso de doenças, na da robótica, com o desenvolvimento de veículos com grau cada vez maior de autonomia e, mais recentemente, na criação do ChatGPT, ferramenta de IA regenerativa que gera textos em formato de conversa, com a capacidade de responder perguntas.
Contudo, a despeito de se conhecer os benefícios que essa tecnologia pode trazer, os riscos que o desenvolvimento cada vez mais crescente da IA podem causar se mostram tão preocupantes que, no último dia 29 de março, foi feito um manifesto intitulado “Pause Giants IA Experiments: An Open Letter”, assinado por renomados especialistas da área da tecnologia, como Elon Musk, pedindo a pausa de seis meses no desenvolvimento da IA. Em suas razões, o manifesto aponta que, em razão dos sistemas de IA estarem cada vez mais aprimorados, competindo com a habilidade humana, mostra-se necessário que haja uma regulação a respeito.
Em outras vertentes da tecnologia, o Direito surgiu para regular somente depois da colocação do produto/serviço no mercado. Como forma de ilustrar isso, a Internet, mesmo tendo virado realidade nos anos 1990, só veio a ter uma lei específica no Brasil com o Marco Civil da Internet, em 2014, bem como foi preciso uma série de vazamento de dados e o escândalo da Cambridge Analytica para que surgisse e a Lei Geral de Proteção de Dados no Brasil em 2018 e que se encontra em vigor desde 2020.
Contudo, os riscos que a IA pode causar se mostram tão avassaladores que, dessa vez, os próprios especialistas da tecnologia pediram o auxílio do Direito. O uso negativo da IA pode causar, além da automatização do trabalho em diversos setores, a manipulação de palavras, sons e imagens – como aconteceu recentemente ao se incluir um casaco no Papa Francisco. Além disso, na pior das hipóteses, pelo domínio da linguagem, a IA poderia até destruir a cultura humana e construir uma nova.
E qual seria o papel do Direito nesse caso? Como já dito, a despeito dos riscos que o seu uso pode causar, a sua utilização correta pode gerar inúmeros benefícios à sociedade. Assim, deve-se ter cuidado ao regular a IA, buscando sempre o equilíbrio: de um lado, deve haver o desenvolvimento de sistemas de IA de forma a mitigar riscos no seu output – e aqui como exemplo pode-se citar a criação de ambientes de testagens controlados para o desenvolvimento responsável da IA antes de sua colocação no mercado. Por outro lado, contudo, não pode haver uma regulação exagerada a ponto de desincentivar o seu fomento.
Por fim, para fins de regulação, o desenvolvimento de IA deve ser sempre pautado na centralidade humana. No ponto, mostra-se acertado o artigo 2º, inciso I e II do anteprojeto do Marco Legal da IA no Brasil que prevê como princípios a centralidade da pessoa humana e o respeito aos direitos humanos e aos valores democráticos.
Se os especialistas em tecnologia pediram um pause no uso da IA, cabe aos especialistas em Direito um play na sua regulação, buscando sempre o equilíbrio entre a mitigação de riscos e o fomente ao desenvolvimento e, principalmente, objetivando a centralidade humana.
Comentários