Discriminação algorítmica 'legalizada'


 

Abaixo, reproduzo um interessante texto de importante Curso, intitulado: "Direito da Tecnologia da Informação", do Instituto Federal do Espírito Santo (IFES):

 

[...] "Se você pudesse opinar sobre a licitude da discriminação algorítmica, qual seria a sua resposta? Em outras palavras: você acha que pode ser correto que um tratamento de dados, realizado por meio de algoritmos, seja discriminatório e mesmo assim seja juridicamente correto?

A resposta é: SIM. O direito brasileiro admite, em tese, a discriminação algorítmica. Um dos princípios trazidos pela LGPD é o da não discriminação, que, segundo a própria lei, diz respeito à “impossibilidade de realização do tratamento para fins discriminatórios ilícitos ou abusivos”. A interpretação inversa desta norma jurídica é a de que é possível, sim, a discriminação algorítmica desde que ela não seja nem ilícita nem abusiva.

Tal constatação nos leva, então, a uma segunda pergunta elementar: o que seria uma discriminação algorítmica ilícita ou abusiva? Ou, então: como identificá-la de modo a evitar incidir em sua prática?

Neste material, pretendemos apontar alguns critérios práticos úteis para a identificação da discriminação algorítmica ilícita e, assim, evitar a incidência nesta prática.


Casos de discriminação algorítmica indevida


 Antes de trazermos aqui alguns critérios objetivos para tal identificação, vamos a alguns casos já deflagrados de discriminação algorítmica:

1. O programa COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) consistia em um software de auxílio a juízes norte-americanos na avaliação da probabilidade de reincidência para fins de dosimetria da pena. Durante seu funcionamento, verificou-se que o algoritmo cometeu falhas em prognósticos de reincidência ao identificar réus negros e, por outro lado, houve falhas quanto a prognósticos de não reincidência ou de baixo risco de reincidência ao identificar réus brancos.

2. A empresa Decolar.com foi condenada por diferenciação de preço de acomodações e negativa de oferta de vagas, quando existentes, de acordo com a localização geográfica do consumidor, técnicas conhecidas como geo pricing e geo blocking, a partir das quais se estabeleciam filtros de acordo com estereótipos discriminatórios extraídos a partir de localizações tidas como mais ou menos favorecidas.

3. A Amazon utilizou um algoritmo de recrutamento que detectou a prevalência de contratação masculina no mercado de trabalho, o que lhe permitiu chegar à conclusão de que candidatos homens teriam preferência sobre candidatas mulheres. Resultado: o algoritmo favoreceu a contratação de funcionários do sexo masculino.


Critérios para identificar uma discriminação algorítmica indevida


Torna-se, portanto, evidente a importância do levantamento de critérios que permitam identificar um risco de discriminação algorítmica não aceita juridicamente. 


Um primeiro critério a ser apontado diz respeito à identificação de potencial violação de direitos fundamentais por meio da atuação do algoritmo. Há direitos fundamentais previstos em diversas leis no Brasil, mas cabe destaque à previsão constitucional de direitos fundamentais. Nossa Constituição Federal subdivide os direitos e garantias fundamentais em cinco grupos: direitos e deveres individuais e coletivos (artigo 5º, CF), direitos sociais (artigos 6º a 11, CF), nacionalidade (artigos 12 e 13, CF), direitos políticos (artigos 14 a 16, CF) e partidos políticos (artigo 17, CF). Portanto, ao realizar um tratamento de dados é de grande importância conhecer o teor dos artigos mencionados.

O segundo critério tem base normativa mais recente que o anterior, pois foi trazido pela LGPD. Estamos falando aqui dos dados pessoais sensíveis. Ao conceituar estes dados, a Lei informa que eles consistem em dados pessoais “sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural” (Art. 5º, II, da LGPD). Assim, em virtude de seu conteúdo, os dados pessoais sensíveis estão mais vulneráveis a uma utilização para fins discriminatórios que atinjam a dignidade de seu titular.

Um terceiro critério que deve servir de filtro à prevenção de indevida discriminação algorítmica relaciona-se à identificação de alguma situação de vulnerabilidade da pessoa cujos dados são colhidos e, principalmente, tratados. Neste sentido, impõe-se que a programação algorítmica seja ainda mais cautelosa quando estiver diante, por exemplo, de dados de crianças e adolescentes, de idosos ou de pessoas com deficiência.

Conclusão


Concluímos esta abordagem reforçando que a discriminação algorítmica, embora não seja proibida em todos os seus termos, encontra contundentes proibições no ordenamento jurídico brasileiro.

Portanto, interesses velados, espúrios, estritamente comerciais ou intencionalmente opressivos não cabem no espaço autorizado para a discriminação algorítmica." [...] (IFES, 2025)*. 


---


Observações e comentário nossos:


Observe que 'a lei brasileira' 'permite a discriminação algorítmica'. Tal permissividade da lei apenas escancara os lobby´s das mega corporações de tecnologia que conseguem fazer o que bem entender nesse país, pouco se importando com coisas como 'saúde mental', direitos civis e humanos em geral, direito a proteção de dados e de privacidade etc'.

Vivemos uma 'ditadura algorítmica' mesclada com a pior parte do 'capitalismo 4.0' onde todos são bombardeados a todo o momento e direcionados para diversos fins escusos, incluindo a idiotização em massa e desumanização da humanidade e, principalmente, dar mais lucro e mais dinheiro a quem já é podre de rico. 

De fato, é um absurdo descarado e impune perpetuado à revelia da lei e 'dentro da lei'. Nada mais brasileiro, além de brechas na lei, a própria lei protegendo o ilegal e o absurdo.

Máxima data vênia, diante de tantas maracutaias politicopatas e distorções legislativas-legais-jurisprudenciais no Brasil, a tendência é piorar e muito até o caos total acertar tudo e todos em toda a parte. Sem chance de salvação, infelizmente.

 

____E. E-Kan 

 

---

Ler também: 

Senado aprova regulamentação do 'Marco Civil da IA no Brasil" (Texto foi para a câmara em 26/12/2024) (VER TEXTO AQUI)

 

Ferramentas de detecção de plágio e uso de IA falham e apresentam risco jurídico a professores


 -----


Referências Bibliográficas*


BASAN, Arthur Pinheiro. Habeas Mente: garantia fundamental de não ser molestado pelas publicidades virtuais de consumo. Revista de Direito do Consumidor, São Paulo. v.131, set./out. 2020.

BIONI, Bruno R. Compreendendo o conceito de anonimização e dado anônimo. Revista do Advogado, São Paulo, v. 39, n. 144, p. 22-32, nov. 2019.

BRASIL. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, 1988. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicaocompilado.htm. Acesso em: 08 abr. 2020.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Diário Oficial da União, 2018.

CASTELLS, Manuel. A sociedade em Rede. Rio de Janeiro: Paz e Terra, 2018.

CUPIS, Adriano de. Os direitos da personalidade. Tradução de Afonso Celso Furtado Rezende. São Paulo: Quorum, 2008.

DONEDA, Danilo Cesar Maganhoto; MENDES, Laura Schertel; SOUZA, Carlos Affonso Pereira de; ANDRADE, Norberto Nuno Gomes de. Considerações iniciais sobre inteligência artificial, ética e autonomia pessoal. Pensar: Fortaleza, v. 23, n. 4, p. 1-17, ou./dez. 2018.

FRAZÃO, Ana; TEPEDINO, Gustavo; OLIVA, Milena Donato (Coord.). Lei Geral de Proteção de Dados Pessoais e suas repercussões no direito brasileiro/. 1. ed. São Paulo: Thomson Reuster Brasil, 2019.

KONDER, Carlos Nelson. Tratamento de dados sensíveis à luz da Lei 13.709/2018. FRAZÃO, Ana; TEPEDINO, Gustavo; OLIVA, Milena Donato (Coord.). Lei Geral de Proteção de Dados Pessoais e suas repercussões no direito brasileiro. 1. ed. São Paulo: Thomson Reuster Brasil, 2019.

LÉVY, Pierre. As tecnologias da inteligência: o futuro do pensamento na era da informática. São Paulo: Editora 34, 1993. Tradução de Carlos Irineu da Costa.

MASSACHUSETTS INSTITUTE OF TECHNOLOGY (ed.). MIT Technology Review. Self-driving cars. Topics. Disponível em: <https://www.technologyreview.com/topic/smart-cities/self-driving-cars/>. Acesso em: 02 jun. 2020.

MIGALHAS. Decolar.com é multada em R$ 7,5 milhões por diferenciar preço de acordo com região. Junho de 2018. Disponível em: https://www.migalhas.com.br/ quentes/282013/decolarcom-e-multada-em-r-7-5-milhoes-por-diferenciar-preco-de-acordo-com-regiao. Acesso em: 08 abr. 2020.

MIT TECHNOLOGY REVIEW INSIGHTS. How AI is humanizing health care: Artificial intelligence is helping health-care professionals do their jobs better, giving them the tools to build a smarter, more efficient ecosystem. MASSACHUSETTS INSTITUTE OF TECHNOLOGY (ed.). MIT Technology Review. [S. l.], 22 jan. 2020. Disponível em: <https://www.technologyreview.com/2020/01/22/276128/how-ai-is-humanizing-health-care/>. Acesso em: 2 jun. 2020.

MORAES, Maria Celina Bodin de. Danos à pessoa humana: uma leitura civil-constitucional dos danos morais. Rio de Janeiro: Renovar, 2009.

RODOTÀ, Stefano. A vida na sociedade da vigilância: a privacidade hoje. Rio de Janeiro: Renovar, 2008, pp. 23-109." [...]


 

Comentários

Postagens mais visitadas