logo AzMina
21 de junho de 2021

O dia em que me deparei com o racismo dos algoritmos

Como a tecnologia e o mundo dos algoritmos pode reforçar o preconceito e a branquitude, em uma sociedade tão diversa como a nossa

Nós fazemos parte do Trust Project

racismo algoritmos
As imagens do artigo foram geradas no site This Person Does Not Exist.

Um dia desses, quando trabalhava na construção de uma persona para um projeto, quis gritar “pessoas negras existem!”, ao me deparar com uma questão bem sensível: como a tecnologia e o mundo dos algoritmos pode reforçar o preconceito e a branquitude, em uma sociedade tão diversa como a nossa. 

No mundo do marketing, gestão de produtos e projetos, personas são usadas para encontrar e, principalmente, entender o público-alvo e como podemos resolver suas dores. E, para isso, devemos levar em consideração as características, hábitos, motivações, frustrações, rotinas e objetivos de uma pessoal real, atribuindo a ela, inclusive, uma imagem ou foto. 

Naquele projeto, criei a ideia de uma mulher, baiana, professora de pilates, que perdeu o principal trabalho por conta da pandemia. Para mim, obviamente, aquela se tratava de uma pessoa negra, já que 81,1% da população do estado se considera negra (categoria que agrupa pretos e pardos), segundo a Pesquisa Nacional por Amostra de Domicílios Contínua (PNAD Contínua), de 2018. 

Mas, na hora de dar a cara à persona, o racismo dos algoritmos que tanto já ouvi falar se materializou para mim. Numa busca no site This Person Does Not Exist (Esta Pessoa Não Existe), que usa Inteligência Artificial (AI, da sigla em inglês) para criar rostos realistas, a primeira pessoa fenotípicamente negra, um homem, apareceu na 27ª atualização de página. Uma mulher negra, só surgiu quando apertei F5 pela 38ª vez.

Leia também: Criadoras negras revelam estratégias para driblar racismo dos algoritmos (e seguir falando do que importa)

Um misto de curiosidade e incredulidade me fez atualizar o site 200 vezes e constatar que somente seis pessoas negras (nenhuma retinta, como você pode ver na imagem que ilustra o artigo) foram criadas ali, pelo tipo especial de algoritmo de AI, conhecido como Generative Adversarial Networks (GANs). 

Essa faceta da tecnologia não era novidade para mim. Fiquei impressionada quando assisti ao documentário Coded Bias, disponível na Netflix. No doc, Joy Buolamwini, uma estudante de doutorado em Computer Science do MIT (Instituto de Tecnologia de Massachusetts), a partir do não reconhecimento de sua própria imagem, mostra como os sistemas de reconhecimento facial apresentam muito mais erros na leitura de rostos pretos do que de brancos. 

O motivo? Por trás da criação dos códigos está, provavelmente, uma equipe de homens brancos, chefiados por homens brancos, usando bancos de dados com imagens de pessoas brancas. Não basta só falar de diversidade e ocupar espaços, cabe a nós construir ambientes em que nos reconheçamos, na vida real e dos códigos, na criação de novos produtos e de tecnologia. A cada nova criação reforçar que pessoas negras, indígenas, trans existem. 

* As opiniões aqui expressas são da autora ou do autor e não necessariamente refletem as da Revista AzMina. Nosso objetivo é estimular o debate sobre as diversas tendências do pensamento contemporâneo.

Faça parte dessa luta agora

Tudo que AzMina faz é gratuito e acessível para mulheres e meninas que precisam do jornalismo que luta pelos nossos direitos. Se você leu ou assistiu essa reportagem hoje, é porque nossa equipe trabalhou por semanas para produzir um conteúdo que você não vai encontrar em nenhum outro veículo, como a gente faz. Para continuar, AzMina precisa da sua doação.   

APOIE HOJE