logo AzMina
21 de junho de 2021

O dia em que me deparei com o racismo dos algoritmos

Como a tecnologia e o mundo dos algoritmos pode reforçar o preconceito e a branquitude, em uma sociedade tão diversa como a nossa
racismo algoritmos
As imagens do artigo foram geradas no site This Person Does Not Exist.

Um dia desses, quando trabalhava na construção de uma persona para um projeto, quis gritar “pessoas negras existem!”, ao me deparar com uma questão bem sensível: como a tecnologia e o mundo dos algoritmos pode reforçar o preconceito e a branquitude, em uma sociedade tão diversa como a nossa. 

No mundo do marketing, gestão de produtos e projetos, personas são usadas para encontrar e, principalmente, entender o público-alvo e como podemos resolver suas dores. E, para isso, devemos levar em consideração as características, hábitos, motivações, frustrações, rotinas e objetivos de uma pessoal real, atribuindo a ela, inclusive, uma imagem ou foto. 

Naquele projeto, criei a ideia de uma mulher, baiana, professora de pilates, que perdeu o principal trabalho por conta da pandemia. Para mim, obviamente, aquela se tratava de uma pessoa negra, já que 81,1% da população do estado se considera negra (categoria que agrupa pretos e pardos), segundo a Pesquisa Nacional por Amostra de Domicílios Contínua (PNAD Contínua), de 2018. 

Mas, na hora de dar a cara à persona, o racismo dos algoritmos que tanto já ouvi falar se materializou para mim. Numa busca no site This Person Does Not Exist (Esta Pessoa Não Existe), que usa Inteligência Artificial (AI, da sigla em inglês) para criar rostos realistas, a primeira pessoa fenotípicamente negra, um homem, apareceu na 27ª atualização de página. Uma mulher negra, só surgiu quando apertei F5 pela 38ª vez.

Leia também: Criadoras negras revelam estratégias para driblar racismo dos algoritmos (e seguir falando do que importa)

Um misto de curiosidade e incredulidade me fez atualizar o site 200 vezes e constatar que somente seis pessoas negras (nenhuma retinta, como você pode ver na imagem que ilustra o artigo) foram criadas ali, pelo tipo especial de algoritmo de AI, conhecido como Generative Adversarial Networks (GANs). 

Essa faceta da tecnologia não era novidade para mim. Fiquei impressionada quando assisti ao documentário Coded Bias, disponível na Netflix. No doc, Joy Buolamwini, uma estudante de doutorado em Computer Science do MIT (Instituto de Tecnologia de Massachusetts), a partir do não reconhecimento de sua própria imagem, mostra como os sistemas de reconhecimento facial apresentam muito mais erros na leitura de rostos pretos do que de brancos. 

O motivo? Por trás da criação dos códigos está, provavelmente, uma equipe de homens brancos, chefiados por homens brancos, usando bancos de dados com imagens de pessoas brancas. Não basta só falar de diversidade e ocupar espaços, cabe a nós construir ambientes em que nos reconheçamos, na vida real e dos códigos, na criação de novos produtos e de tecnologia. A cada nova criação reforçar que pessoas negras, indígenas, trans existem. 

Sou Verena, mulher nordestina e jornalista. Vivo em Salvador e já trabalhei em jornais, revistas, entrevistei artistas e políticos, cobri grandes eventos… mas nunca me senti tão realizada profissionalmente como neste momento, quando assumo o papel de Gerente de Comunidades d’AzMina.

* As opiniões aqui expressas são da autora ou do autor e não necessariamente refletem as da Revista AzMina. Nosso objetivo é estimular o debate sobre as diversas tendências do pensamento contemporâneo.

Ei, você quer que o jornalismo feminista exista?

AzMina coloca tecnologia, dados e jornalismo a serviço do feminismo. Se você acredita nesse trabalho e quer que ele continue, apoie hoje o jornalismo independente que fazemos.

EU APOIO AZMINA