O uso desordenado da inteligência artificial pode estar ferindo direitos de liberdade e privacidade, além de criar ambientes discriminatórios.
A Lei Geral de Proteção de Dados Pessoais (LGPD) regulamenta o tratamento de dados pessoais com o objetivo de proteger direitos e dispõe sobre vários princípios, entre eles o da não discriminação. Veda o processamento de dados para fins ilícitos ou abusivos.
A relação da norma de proteção de dados com a IA é direta. A partir de um grande banco de dados e da aprendizagem de máquina (machine learning), o sistema inteligente é treinado, oferecendo resultados cada vez mais precisos. Quanto mais dados, mais exatas as respostas.
O modelo de IA mais comum é a generativa, com a capacidade de absorver muitos dados e gerar novas informações a partir deles, podendo, inclusive, retroalimentar-se dos dados inseridos pelos usuários. Como exemplo, temos o Chat GPT, GTP-3, GPT-4, Midjourney, Jasper.
O professor Thiago Jasper, especialista no assunto, indica que o uso de IA pode ter consequências maléficas para diversos setores da sociedade. Neste sentido, é possível relacionar o caso da Amazon, que em 2014 desenvolveu um programa para a análise de candidatos com o objetivo de mecanizar a busca pelos melhores profissionais do mercado. Em 2015, percebeu-se que o programa estava direcionado a avaliar padrões nos currículos enviados à empresa nos últimos 10 anos, período em que os cargos na área de tecnologia eram preenchidos em sua maior parte por homens.
Os computadores da Amazon classificavam de maneira diferenciada os currículos que continham a palavra “feminino”, dando preferência para que as vagas fossem destinadas aos homens, discriminando candidatas mulheres. Mesmo após ter feito alterações nos parâmetros de busca, a empresa descartou o uso da ferramenta.
Para garantir os direitos dos titulares no processamento de dados em sistemas automatizados, como a inteligência artificial, o legislador dispôs na LGPD um artigo que permite ao titular pedir a revisão das decisões tomadas unicamente com base no tratamento de dados pela máquina, garantindo o envolvimento de um ser humano na operação.
Para entender melhor o assunto e possibilitar transparência no tratamento de dados pelas IAs, a Autoridade Nacional de Proteção de Dados está trabalhando em conjunto com a sociedade civil em um sandbox regulatório, de modo que as novas tecnologias possam ser experimentadas em ambiente controlados e de pequena escala sob a supervisão e orientação de uma autoridade reguladora.
Além disso, tramitam projetos de lei para regulamentar o uso da inteligência artificial no Brasil. Entre eles, o PL 5.501 de 2019 que pretende estabelecer princípios para o uso da IA, e o PL 21/2020, no qual constam direitos e deveres relacionados à aplicação da inteligência, com destaque para a elaboração de relatório de impacto de inteligência artificial, bem como a exigência de uma avaliação prévia dos riscos envolvidos, direcionando para a ideia do privacy by design.
O PL 2.338/2023 tem como escopo a abordagem baseada no risco e na proteção dos direitos fundamentais, estabelecendo a vedação da implementação e do uso de sistemas de inteligência quando presentes riscos excessivos e o dever de regulamentação em cenários de alto risco.
Esses projetos remetem à necessidade de proteção dos dados e da privacidade dos usuários dos sistemas de inteligência, uma vez que a base da tecnologia está assentada no tratamento de dados. Não é possível conter o avanço da IA, mas é fundamental o seu uso de forma transparente e com alguma regulamentação, com garantias mínimas capazes de mitigar riscos, sobretudo aqueles relacionados a aspectos discriminatórios, como bem expressa o parágrafo segundo do artigo 20 da LGPD.
*Lucélia Bastos Gonçalves Marcondes é advogada no Rücker Curi Advocacia e Consultora Jurídica