Os Algoritmos do Racismo 

Os Algoritmos Do Racismo

Reconhecimento facial tem cor


 

Margareth Dos Anjos Santos


 

Há muitas sequelas causadas pelo racismo estrutural que afetam até hoje a população negra. Uma delas é a seletividade do sistema penal brasileiro. O longo período da escravidão no país, com a subalternização e criminalização da população negra, ainda serve de base para que a produção de imagens preconceituosas propiciarem o controle e consequente encarceramento desta população. Os órgãos de segurança pública continuam tendo como principal alvo de perseguição e aprisionamento os corpos negros.


Segundo o Anuário de Segurança Pública divulgado em 2022, ao longo dos últimos anos, o percentual da população negra encarcerada tem aumentado. Se em 2011, 60,3% da população encarcerada era negra e 36,6% branca, em 2021, a proporção foi de 67,5% de presos negros para 29,0% de brancos. A grande disparidade entre os números de encarcerados negros e brancos já revela ser premente a discussão sobre o tema. Diante desses dados, precisamos refletir sobre a inserção dos sistemas de reconhecimento facial ou fotográfico, como equipamento auxiliar para a vigilância pública. É necessário aprofundar o debate sobre os possíveis riscos e os potenciais equívocos que podem ser causados por essa tecnologia que não é neutra. Para esse reconhecimento acontecer é necessário que os algoritmos sejam pensados.

Algoritmos referem-se à sequências específicas de operações lógicas desenvolvidas para realizar determinada tarefa. Computacionalmente, para resolver um problema, desenvolvedores o fragmentam em séries de questões que podem ser respondidas por uma particular sequência de operações lógicas e então executadas automaticamente por um computador.” (BAROCAS e outros, 2014, p.3)

Quando o algoritmo é programado ele segue um padrão pré-determinado para a seleção do tipo de imagem Essa programação obedece uma sequência de comandos e regras elaboradas com o intuito de solucionar um problema que foi apresentado. É como uma “receita de bolo”, diversos ingredientes são reunidos para a construção da estrutura dessa inteligência artificial.


Em se tratando de operações algorítmicas, a expectativa é que devam ser permeadas por certa objetividade, despidas de possíveis opiniões ou pontos de vista, tendo como base apenas os dados que lhes são disponibilizados. Entretanto, apesar da possível isenção, os algoritmos não estão impedidos de refletir relações de poder e opressão já vigentes na nossa sociedade. De fato, os algoritmos são capazes de aprender e tendem a ser vulneráveis às características do chamado training data, que é “um conjunto inicial de dados usados para ajudar um programa a entender como aplicar tecnologias como redes neurais para aprender e produzir resultados sofisticados” (OSOBA 2017). Sendo assim, a sua isonomia fica comprometida e a sua operacionalização pode permitir a reprodução de discursos sociais preconceituosos.


A experiência do reconhecimento facial no Brasil chama especial atenção. Isso porque quando se fala de vigilância pública e, consequentemente, em políticas criminais adotadas pelo Estado para uma maior efetividade, é impossível deixar de falar sobre racismo e a seletividade do sistema penal no país. Amplamente baseado na busca por um determinado tipo criminoso e ainda com grande carga de preconceito racial deixada como marca dos tempos de escravidão. Ademais, Barocas e Selbst (2016, p. 681) apontam que há discriminação, também, quando esses algoritmos elaboram suas decisões a partir de uma amostra enviesada ou não representativa da população. Portanto, qualquer decisão baseada nas inferências efetuadas por essa tecnologia, usando essas amostras, pode prejudicar sistematicamente aqueles que foram representados em excesso ou em deficiência.


Em matéria publicada pelo site The Intercept Brasil, em novembro de 2019, nos é apresentada uma pesquisa da Rede de Observatórios da Segurança que monitorou casos de prisões e abordagem com o uso de reconhecimento facial desde que eles foram implantados no Brasil, em março de 2019. O documento aponta que dos casos em que havia informações, 90,5% das pessoas presas porque foram flagradas pelas câmeras eram negras. A Bahia liderou o número de abordagens e prisões com a nova técnica: 51,7%, seguida do Rio, com 37,1%, Santa Catarina, com 7,3%, Paraíba, com 3,3% e o Ceará, com 0,7%.


O Conselho Nacional das Defensoras e Defensores Públicos Gerais – CONDEGE juntamente com a Defensoria Pública do Rio de Janeiro revelam através de um levantamento inédito, realizado no início de 2021, que os negros são as maiores vítimas de prisões equivocadas causadas pelo reconhecimento fotográfico, 83% dos casos.


O Brasil ocupa o terceiro lugar em população carcerária do mundo. Esses indivíduos são majoritariamente negros ou negras. Esses dados trazem à tona a institucionalização do racismo ao longo dos séculos, enraizados na escravidão, promovendo o encarceramento da população negra. O Estado Brasileiro, tendo como estrutura o racismo, pode reproduzi-lo ainda na tecnologia, sendo construída da mesma forma: com discriminação. Teremos então, o enraizamento tecnológico de preconceitos reeditando atitudes racistas e preconceituosas?

REFERÊNCIAS

Anuário Brasileiro de Segurança Pública. Fórum Brasileiro de Segurança Pública, 2022. Disponível em: https://forumseguranca.org.br/wp-content/uploads/2022/06/anuario-2022.pdf?v=5 . Acesso em: 05/10/2023.

BAROCAS, Solon; ROSENBLAT, Alex; BOYD, Danah; GANGADHARAN, Seeta Peña; YU, Corrine. Data & Civil Rights: Technology Primer. Data & Civil Rights Conference. Out. 2014. Disponível em: https://datasociety.net/wp-content/uploads/2014/10/Technology.pdf. Acesso em: 17 abr. 2021.

______; SELBST, Andrew D. Big data’s disparate impact. California Law Review., v.104, p.671-732, 2016. Disponível em: http://www.californialawreview.org/wp-content/ uploads/2016/06/2Barocas-Selbst.pdf. Acesso em: 19 abr. 2021.

GLOBO.COM, Exclusivo: 83% dos presos injustamente por reconhecimento fotográfico no Brasil são negros, 21/02/2021, Disponível em: https://g1.globo.com/fantastico/noticia/2021/02/21/exclusivo-83percent-dos-presos-injustamente-por-reconhecimento-fotografico-no-brasil-sao-negros.ghtml, acesso em: 06/11/2021.

JORNAL O GLOBO. Homem preso por reconhecimento fotográfico em foto 3x4 antiga deixa a cadeia no Rio, Disponível em: https://g1.globo.com/rj/rio-de-janeiro/noticia/2021/09/13/homem-preso-por-reconhecimento-fotografico-em-foto-3x4-antiga-deixa-a-cadeia-no-rio.ghtml. Acesso em 06 de novembro de 2021.

MISUGI, Guilherme; FREITAS, Cinthia Obladen de Almendra; EFING, Antônio Carlos. Releitura da privacidade diante das novas tecnologias: Realidade aumentada, reconhecimento facial e Internet das coisas. Revista Jurídica Cesumar mai./ago. 2016, v. 16, n. 2, p. 434. Disponível em: https://www.researchgate.net/publication/307550645_Releitura_da_Privacidade_Diante_das_Novas _Tecnologias_Realidade_Aumentada_Reconhecimento_Facial_e_Internet_das_Coisas. Acesso em: 12 jun. 2019.

O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. 1 ed. Nova Iorque: Crown Publishers, 2016.

OSOBA, Osonde; WESLER IV, William. An intelligence in our image: the risks of bias and errors in artificial intelligence. Santa Monica: Rand, 2017, p. 7.

POTAL CNJ. Grupo vai aprimorar reconhecimento pessoal em processos criminais. 06/09/2021. Disponível em: https://www.cnj.jus.br/grupo-vai-aprimorar-reconhecimento-pessoal-em-processos-criminais/. Acesso em: 07/11/2021.

S BUENO, RS Lima. Anuário Brasileiro de Segurança Pública. 2019. São Paulo, Fórum Brasileiro de Segurança Pública.  

SILVA, Tarcízio. Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código. In: VI Simpósio Internacional LAVITS, Salvador, 2019, p. 4. Disponível em: https://www.researchgate.net/publication/333700308_Racismo_Algoritmico_em_Plataformas_Digit ais_microagressoes_e_discriminacao_em_codigo. Acesso em: 20 jun. 2019.

SILVA, Tarcízio. Linha do Tempo do Racismo Algorítmico. Blog do Tarcízio Silva, 2019. Disponível em: <http://https://tarciziosilva.com.br/blog/posts/racismo-algoritmico-linha-do-tempo>. Acesso em: 01/11/2021.

TECHOPEDIA. Training data. 2019. Disponível em: https://www.techopedia.com/definition/33181/training-data. Acesso em 15 jun. 2019.

THE INTERCEPT BRASIL, Exclusivo: Levantamento Revela que 90,5% dos Presos por Monitoramento Facial no Brasil são Negros. 2019. Disponível em: https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/. Acesso em: 04/11/2021.

 


Margareth Dos Anjos Santos é Mestra em Educação e Comunicação em Periferias Urbanas pela UERJ/FEBF.