Um dia desses, quando trabalhava na construção de uma persona para um projeto, quis gritar “pessoas negras existem!”, ao me deparar com uma questão bem sensível: como a tecnologia e o mundo dos algoritmos pode reforçar o preconceito e a branquitude, em uma sociedade tão diversa como a nossa.
No mundo do marketing, gestão de produtos e projetos, personas são usadas para encontrar e, principalmente, entender o público-alvo e como podemos resolver suas dores. E, para isso, devemos levar em consideração as características, hábitos, motivações, frustrações, rotinas e objetivos de uma pessoal real, atribuindo a ela, inclusive, uma imagem ou foto.
Naquele projeto, criei a ideia de uma mulher, baiana, professora de pilates, que perdeu o principal trabalho por conta da pandemia. Para mim, obviamente, aquela se tratava de uma pessoa negra, já que 81,1% da população do estado se considera negra (categoria que agrupa pretos e pardos), segundo a Pesquisa Nacional por Amostra de Domicílios Contínua (PNAD Contínua), de 2018.
Mas, na hora de dar a cara à persona, o racismo dos algoritmos que tanto já ouvi falar se materializou para mim. Numa busca no site This Person Does Not Exist (Esta Pessoa Não Existe), que usa Inteligência Artificial (AI, da sigla em inglês) para criar rostos realistas, a primeira pessoa fenotípicamente negra, um homem, apareceu na 27ª atualização de página. Uma mulher negra, só surgiu quando apertei F5 pela 38ª vez.
Leia também: Criadoras negras revelam estratégias para driblar racismo dos algoritmos (e seguir falando do que importa)
Um misto de curiosidade e incredulidade me fez atualizar o site 200 vezes e constatar que somente seis pessoas negras (nenhuma retinta, como você pode ver na imagem que ilustra o artigo) foram criadas ali, pelo tipo especial de algoritmo de AI, conhecido como Generative Adversarial Networks (GANs).
Essa faceta da tecnologia não era novidade para mim. Fiquei impressionada quando assisti ao documentário Coded Bias, disponível na Netflix. No doc, Joy Buolamwini, uma estudante de doutorado em Computer Science do MIT (Instituto de Tecnologia de Massachusetts), a partir do não reconhecimento de sua própria imagem, mostra como os sistemas de reconhecimento facial apresentam muito mais erros na leitura de rostos pretos do que de brancos.
O motivo? Por trás da criação dos códigos está, provavelmente, uma equipe de homens brancos, chefiados por homens brancos, usando bancos de dados com imagens de pessoas brancas. Não basta só falar de diversidade e ocupar espaços, cabe a nós construir ambientes em que nos reconheçamos, na vida real e dos códigos, na criação de novos produtos e de tecnologia. A cada nova criação reforçar que pessoas negras, indígenas, trans existem.
- Gostou da ideia? Também existe um site que cria imagens de gatos que não existem
- Aqui na Revista AzMina já investigamos o racismo dos algoritmos das redes sociais e como as influencers negras fazem para driblá-lo. Vale muito ler!
- Se interessou sobre Coded Bias? Assista ao trailer. Também indico a reportagem ‘Coded Bias’ discute preconceitos dos algoritmos e nuances da vigilância, da Folha de São Paulo