Rodrigo Azevedo *
Negar os riscos do uso de inteligência artificial no ambiente de trabalho parece-nos tão equivocado quanto abdicar dos seus benefícios, com entregas mais ágeis, completas e precisas aos clientes
O uso de ferramentas de inteligência artificial no ambiente de trabalho, especialmente após a popularização do ChatGPT, é uma realidade – desejem ou não os empregadores. Quem já experimentou essa e outras ferramentas similares sabe bem o quanto podem ser úteis para agilizar ou tornar mais completa a prestação de um serviço. A tentação de pedir ajuda ao robô na execução de tarefas é cada vez mais irresistível.
Ao mesmo tempo, os riscos dessa prática são efetivos, decorrendo de tecnologias ainda em estado de desenvolvimento ou mesmo de usos equivocados por parte de quem ainda não foi devidamente instruído a esse respeito. Aqui se incluem alucinações nas respostas das ferramentas e potenciais violações a direitos autorais, a deveres de sigilo profissional ou mesmo à lei geral de proteção de dados pessoais. Os receios dos empregadores são naturais: tudo o que é novo assusta, pois traz desafios com os quais ainda não estamos habituados a lidar.
OS RECEIOS DOS EMPREGADORES SÃO NATURAIS: TUDO O QUE É NOVO ASSUSTA
Assim, algumas empresas parecem simplesmente ainda não terem despertado para esse contexto ou deliberadamente desejam ignorá-lo, tal qual uma avestruz que enterra a cabeça para não enxergar o perigo (ou a oportunidade ainda assustadora). Outras, reagem tentando fechar esses canais, bloqueando o acesso às URLs das ferramentas e abdicando dos seus ganhos em produtividade e assertividade.
Em ambos os casos, o equívoco nos parece evidente. Negar os riscos do uso de inteligência artificial no ambiente de trabalho parece-nos tão equivocado quanto abdicar dos seus benefícios, com entregas mais ágeis, completas e precisas aos clientes. Vislumbramos um momento, no futuro, em que usar essas ferramentas será uma exigência dos próprios clientes aos profissionais liberais, por exemplo, podendo estes – quem sabe? – serem até mesmo responsabilizados se não o fizerem.
De qualquer modo, já na atualidade, urge que se façam escolhas fundamentadas acerca da conveniência das novas ferramentas de inteligência artificial para cada empresa. Essa análise compete à sua administração, após ouvidos profissionais com expertise suficiente para descrever os respectivos benefícios e riscos, de forma concreta. Caso algum uso de inteligência artificial seja considerado estratégico, o próximo passo é definir uma instância interna de homologação das ferramentas e construir uma política clara e compreensível pelos trabalhadores, indicando os usos desejados, permitidos e vedados, sob pena de sanções. Essas iniciativas devem ser acompanhadas de treinamentos sobre a forma correta de operação, sinalizando, por exemplo, a vedação de incluir dados pessoais ou informações de clientes nas ferramentas, ou a obrigação de sempre checar as suas respostas.
Por fim, cabe monitorar se o uso desses recursos, pelos colaboradores, está seguindo a política (prática permitida, no que se refere a recursos informáticos fornecidos pela empresa, mesmo após a Lei Geral de Proteção de Dados, desde que os trabalhadores tenham sido informados a respeito, de forma transparente).
É essencial e urgente que o uso da inteligência artificial no ambiente de trabalho esteja alinhado à estratégia da empresa, e não meramente submetido à avaliação isolada – e ainda não devidamente informada – de cada colaborador.
* Rodrigo Azevedo é sócio coordenador da área de propriedade intelectual e direito digital de Silveiro Advogados, LL.M. em Propriedade Intelectual pela Universidade de Turim (Itália) e Organização Mundial da Propriedade Intelectual, Data Protection Officer certificado pelo European Institute of Public Administration – EIPA, Maastricht (Holanda) e formação em Propriedade Intelectual pela Universidade de New Hampshire e em Gestão de Crise pelo MIT (Instituto de Tecnologia de Massachusetts), ambos nos Estados Unidos.
Fonte: Nexo
Comentários