In Blog

A redação final da Lei Geral de Proteção de Dados e da lei que cria a Autoridade Nacional de Proteção de Dados retirou das pessoas uma das mais importantes ferramentas para a tutela individual contra a violação de garantias constitucionais de igualdade perante os diversos tipos de algoritmos com vieses discriminatórios, de tal sorte favorecendo cenários exponencialmente agravados pelos desdobramentos, avanços e ocultação sistemática (proposital ou por desenho) dos vieses discriminatórios nas ferramentas de inteligência artificial com aprendizado de máquina em redes neurais ou aprendizado profundo nas estruturas de tomada de decisão de segregação/segmentação de pessoas.

A inteligência artificial e seus potenciais usos já não habitam mais as páginas de Arthur C. Clarke e o imaginário juvenil, seus avanços e presença têm ganhado destaque por seus feitos e despertado preocupações por suas ações e perigos.

Uma destas preocupações, que inclusive foi um dos fatores que inicialmente promoveram este estudo, é a discussão presente em torno da tutela da propriedade intelectual aplicada à Inteligência Artificial (AI). A Organização Mundial de Propriedade Intelectual (WIPO) ainda está engatinhando no sentido de identificar os campos de atuação e as possibilidades de proteção por propriedade intelectual decorrentes do uso de AI. Ocorre que esta preocupação ainda está no campo da cogitação científica e sequer tornou-se relevante o suficiente para mover as delicadas engrenagens do equilíbrio do comércio internacional para que as disputas políticas por modelos regulatórios montem sua arena.

Não obstante a imaturidade das aplicações com uso de AI decorrentes de recente incremento na capacidade computacional em nuvem e a grande disponibilidade de dados, as mazelas, fragilidades e vulneração dos direitos civis é tema recorrente de estudo vez que a ciência de base das redes neurais[1] , desdobramentos do pecerptor de Rosenblatt[2], esteve livremente disponível à comunidade há dezenas de anos, apresentando inclusive,  no conceito de redes neurais, valores modulantes de peso.

Mantendo o complexo tão simples quanto possível, em uma rede neural os neurônios artificiais são treinados (com um grande conjunto de pares de dados base) para reconhecer e categorizar uma determinada informação dada. O treinamento com pares de dados permite à rede neural identificar por tentativa e erro os pesos de cada informação imputada para a determinação da categoria. Esta determinação do “peso” ou relevância de uma característica da informação inicial para a determinação do resultado verdadeiro é um valor obtido (mas não dado) a partir do conjunto de dados base, e fortemente influenciado pela abrangência e qualidade deles. Bancos de dados contaminados com vieses preconceituosos estruturais, conhecidos ou não, podem ter este tipo de preconceito aumentado se reconhecido pela rede neural como um fator com peso maior.

A discriminação latu sensu pode ser entendida como o atributo entre duas classes que provoca uma mudança de comportamento com relação à estas classes – ou seja o fator discriminatório – que eventualmente pode estar ancorado em gênero, origem, classe social, alinhamento político, crença religiosa, raízes culturais, entre outros tantos fatores que não podem servir de base para uma mudança de tratamento perante os direitos humanos e constitucionais brasileiros.

Nas redes neurais profundas, esse problema pode ser incrivelmente mais desafiador, considerando que nelas podem ser utilizadas centenas de camadas ocultas cada uma com milhões de neurônios artificiais. Estas redes neurais profundas são especialmente eficientes em problemas complexos como reconhecimento de fala e imagens, mas são uma verdadeira caixa-preta no quesito de identificar fatores discriminatórios e os pesos, é tecnicamente impossível enxergar a utilização de fatores discriminatórios de gênero e etnia olhando apenas para a rede neural profunda.

Como a injusta discriminação em redes neurais profundas tem sido enfrentada por pesquisadores e times de desenvolvimento em todo o mundo, alguns fatores contraintuitivos foram identificados.

Por exemplo, mecanismos de tomada de decisão de entrega de publicidade online operaram com viés de gênero para mulheres, mesmo quando a ferramenta era programada para não fazer diferença por sexo; e, até mesmo quando a ferramenta não possuía a informação de gênero ela fazia esta discriminação[3].   

A questão de reforço discriminatório da AI também tem sido estudada do ponto de vista dos dados utilizados no treinamento tendo sido identificado que conjuntos maiores de dados não conduzem a melhores resultados e muitas vezes aprofundam os vieses discriminatórios.

Exemplos que beiram o absurdo são cotidianamente levantados por especialistas e na imprensa aberta, como por exemplo no caso abaixo em que um escore de risco de reincidência criminal divulgado pela ProPublica[4] – que chocaria até Cesare Lombroso – não explicita porque a mulher negra possui um alto índice enquanto um assaltante armado e reincidente tem baixo risco.

inteligencias artificiaisOs algoritmos de reconhecimento de face, por exemplo, parecem ter uma dificuldade muito maior com faces de mulheres negras, como trazido por Joy Buolamwini em um artigo na revista Time[5] no qual algoritmos de dois gigantes mundiais são incapazes de reconhecer as duas mulheres negras mais importantes dos EUA:

inteligencias artificiaisinteligenciais artificiaisEste pode parecer ser um problema restrito às sociedades ocidentais desenvolvidas, porém mesmo o Brasil também deverá sofrer nos próximos anos dos efeitos das decisões injustamente tomadas por AIs. Fruto principalmente das atuais políticas públicas de uso e proteção de bancos de dados, dispositivos legais que atendem um forte interesse de uma parcela do mercado fragilizaram ainda mais a posição do cidadão brasileiro com relação às suas informações de utilidade financeira e creditícia, a Lei do Cadastro Positivo e A Lei Geral de Proteção de Dados.

A Lei Complementar 166/2019, altera as regras do Cadastro Positivo com o discurso de “permitir que cada brasileiro tenha uma nota de crédito (escore), definida de acordo com o pagamento de suas contas, como empréstimos bancários, cartão de crédito e de serviços públicos de fornecimento de água, luz e telefone. Terá escore mais alto o bom pagador, que arca com seus compromissos em dia. Essa reputação será considerada pelas instituições financeiras na hora de conceder crédito ao consumidor.[6]”  

Mesmo que se pudesse ver com bons olhos a criação de um banco de dados com as informações creditícias de todos os cidadãos brasileiros, a submissão à um algoritmo de escore já implica que todas as pessoas físicas ao tomar crédito estarão sujeitas aos vieses de preconceito reforçado de que já tratamos.

A diferença no caso nacional é a de que o cidadão atingido por estes injustos fatores discriminatórios não terá condições fundamentais de autodefesa, nesse caso a revisão humana. 

Os exemplos trazidos à ágora por pesquisadores e especialistas, em sua maioria, poderiam ser sensivelmente reduzidos caso sofressem revisão humana por pessoa qualificada.   

O problema é que a Lei 13.853 de 2019 ao alterar a redação do art. 20 da Lei 13.709 de 2018 (Lei Geral de Proteção de Dados), excluiu a necessidade de pessoa natural na revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais incluindo os de crédito.

Na prática, o cidadão ao requerer a revisão de seu escore de crédito será automaticamente submetido ao mesmo algoritmo sujeito a falhas, recebendo o mesmo resultado e criando o impedimento de que se levantem casos onde o crédito é negado ao cidadão porque seu patronímico é comum entre os vulgares, ou reside em área sujeita à favelização ou simplesmente por sua origem étnica. A resposta sempre será:

Dave, this conversation can serve no purpose anymore. Goodbye.

[1] Rosenblatt, F. (1962) Principles of Neurodynamics Perceptrons and the Theory of Brain Mechanisms. Spartan Books, Washington DC.

[2] Marvin Minsky and Seymour Papert,  Perceptrons. An Introduction to Computational Geometry. M.I.T. Press, Cambridge, Mass., 1969.

[3] Amit Datta, Michael Carl Tschantz, and Anupam Datta, Automated Experiments on Ad Privacy Settings, Proceedings on Privacy Enhancing Technologies 2015; 2015 (1):92–112.

[4] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing?source=post_page

[5] https://time.com/5520558/artificial-intelli https://time.com/5520558/artificial-intelligence-racial-gender-bias/ gence-racial-gender-bias/ 

[6] https://www.bcb.gov.br/detalhenoticia/336/noticia

 

Advogado Autor do Comentário: Luiz Henrique Rodrigues de Souza

“Se quiser saber mais sobre este tema, contate o autor ou o Dr. Cesar Peduti Filho.”
“If you want to learn more about this topic, contact the author or the managing partner, Dr. Cesar Peduti Filho.”

 

Recommended Posts
Contact Us

We're not around right now. But you can send us an email and we'll get back to you, asap.

Not readable? Change text. captcha txt