_Colunistas

Antirracismo, tecnologia e inteligência artificial no Brasil: um papo no Mozfest, da Mozilla

Brasileiros se destacam no MozFest, da Mozilla Foundation.

Nina da Hora

Por Nina da Hora e Tarcízio Silva * 

Nos últimos anos, o debate sobre racismo, antirracismo e tecnologia ganhou espaço na mídia global por vários motivos — indo das fragilidades da visão computacional até o uso de anúncios microsegmentados por raça e comportamento em diversas eleições. O debate é prolífico em especial nos Estados Unidos, devido à pujante comunidade afro-americana e proximidade com alguns dos maiores pólos de tecnologia.

As relações entre variáveis interseccionais ligadas à raça, etnia e origem foram discutidas de forma produtiva no Festival Mozilla, ou Mozfest, um dos encontros globais mais relevantes sobre tecnologia, internet, sociedade, sustentabilidade e ativismo por uma internet mais saudável. Entre as mais de 400 atividades, ocorreram sessões sobre  vieses na tecnologia, o protagonismo das mulheres negras no estudo sobre inteligência artificial, raízes coloniais da injustiça algorítmica, pedagogias segmentadas para comunidades vulnerabilizadas no sudeste asiático e muito mais.

E quais são as principais questões sobre antirracismo na tecnologia no Brasil? Para responder, o festival abril chamadas para colaborações de desenvolvedoras(es), ativistas e pesquisadoras(es) de todo o país em uma sessão chamada “Antiblack Racism, Technology and AI in Brazil” (“Racismo Antinegro, Tecnologia e inteligência artificial no Brasil”). Nove participantes realizaram lightning talks (palestras-relâmpago) apresentando como veem o problema. Podemos destacar, a partir das falas, quatro questões principais

Reconhecimento facial

Países de todo o mundo, com destaque para os europeus e EUA, onde grande parte das tecnologias são desenvolvidas, estão realizando moratórias ou banimento permanente do uso de reconhecimento facial no espaço público — do transporte ao policiamento. Entretanto, o Brasil vai na contramão global e acelera a naturalização da tecnologia.

Mariana Gomes, co-criadora da Conexão Malunga, organização sediada em Salvador, lembrou que o governo da Bahia buscou ser inovador na implementação de reconhecimento facial justamente no Carnaval. 

Nas grandes cidades brasileiras, o problema também avança. Levantamento do jornalista Paulo Victor Melo, revela que 17 das 26 capitais brasileiras têm projetos de IA, promovendo a vigilância e o controle da circulação das pessoas pelo medo como medida de resolução dos nossos problemas de violência nas grandes cidades.

Citando a tradição Bakongo, da matriz cultural Bantu, Mariana Gomes lembrou o papel do fortalecimento da ideia de especialista, que não perpassa pelo puro reconhecimento individual. Para os Bakongo, todas as pessoas fazem o percurso da vida como o movimento do Sol. Ao ligar essa epistemologia africana à questão da inteligência artificial (IA), Gomes enfatizou a necessidade de compromissos sociais para a promoção de políticas públicas de transparência e aplicação da IA no Brasil. 

Aparentemente subnotificado devido às relações internas no país, o problema da representação amazônida na internet e entre acadêmicos foi o tema da fala da pesquisadora da região, Thiane Neves, que estuda o ciberativismo de mulheres negras na Amazônia em doutorado na UFBA. Ela explica que o discurso sobre a Amazônia na cultura brasileira e global, de que ela seria um “pulmão do mundo”, leva à ideia de que qualquer país tem o direito de mexer e alterar o ecossistema sem pedir permissão ou  respeitar as populações que ali vivem.

A ordenação algorítmica das mídias digitais ajuda a propagar essa perspectiva como se representasse toda a população. Com a disseminação mais rápida por meio destas plataformas acaba se esquecendo de quem efetivamente vive e interage diariamente no e com o território amazonense.

Discurso de ódio e desafios dos direitos digitais

O discurso de ódio nas mídias sociais foi outro tema levantado pelas participantes. Em especial, discutiu-se a interseção entre racismo e desinformação como tática para manutenção de ambientes hostis online. Estudo da Anistia Internacional sobre o Twitter, por exemplo, mostrou que mulheres negras eram 84% mais propensas do que as brancas a serem alvo de um tuíte abusivo ou problemático

Gabriela de Almeida, pesquisadora mestranda na UnB e analista de comunicação na ONU Mulheres Brasil, abordou a dupla desumanização promovida sobre pessoas negras assassinadas no país. Além do caso de Marielle Franco, imediatamente vítima de desinformação depois de sua morte, a pesquisadora destacou também casos de crianças e adolescentes vítimas do mesmo processo após mortes por policiais.

A desinformação usa narrativas que “confundem e ajudam a reforçar nossas crenças e preconceitos, sendo que muitas delas são construídas a partir de discursos odiosos que tentam justificar a morte e a brutalidade do assassinato de pessoas pobres e negras, na maioria das vezes criminalizando a vítima”, afirmou Gabriela de Almeida. 

A pesquisadora também apontou como espaço importante de atuação para o próximo ano, além das eleições, o debate sobre a revisão das cotas raciais que deve acontecer em 2022. Considerando o retrocesso dos Direitos Humanos, que incluem ameaças a programas de cotas raciais, Almeida diz que as violências podem ser intensificadas com o uso de deepfakes. “São construídas narrativas contra nós, utilizando os nossos rostos, com a permissão das empresas de tecnologia. Isso é algo extremamente grave, com consequências ainda inimagináveis”, diz.

Uma possível solução pelo Direito, entretanto, é possível de acordo com a jurista e pesquisadora Bianca Kremer. Para ela, entender e reconhecer a discriminação racial no Direito é pilar da própria construção de nação. 

O racismo está imbricado na interpretação da lei, no legislativo e nas decisões judiciais de forma poderosa nas estruturas, afirmou Kremer, pesquisadora do do Núcleo de Direito e Novas Tecnologias – DROIT (PUC-Rio) e Laboratório Empresa e Direitos Humanos (LeDH.uff).

Neste sentido é preciso pensar uma proposição decolonial para lermos dois dos caminhos comumente percorridos hoje. O primeiro é o caminho da governança algorítmica e regulação técnica, onde as próprias definições de ética e inteligência artificial são disputadas. O segundo é a abordagem sobre proteção de dados, que tem sido muito popular no Direito, e também é desafiadora porque não se considera as vicissitudes das comunidades negras e racializadas. 

Em busca de superar tais limitações, Kramber menciona tanto o Quilombismo, proposto por Abdias Nascimento, como a Amefricanidade, proposta por Lélia Gonzalez, em busca de epistemologias que transcendam o sofrimento e construam modos criativos de pensamento sobre possibilidades de resistência e tecnologia criativa pela afrodiáspora em territórios hostis.

Opacidade e ‘explicabilidade’ na inteligência artificial

Conectando com uma visão mais humanizada de IA foi abordado como aspectos técnicos dependem necessariamente de um debate que inclua a sociedade civil nas tomadas de decisões que nos utilizam como parte da solução. Este grande desafio tem sido abraçado por pesquisadoras, desenvolvedoras e ativistas de todo o mundo. 

Cassia Silva, estudante de Ciência da Computação na UFMS, relatou projeto emergente sobre desafios da inteligência artificial relacionados à desigualdade. Entre os casos internacionais citados, mencionou o projeto Gender Shades, desenvolvido pela Algorithmic Justice League, que moldou o campo de estudos sobre discriminação algorítmica ao propor o conceito de “disparidade interseccional’ e metodologias para estudos de datasets para visão computacional.

Explicabilidade é a capacidade de identificar os fatores-chave que um modelo de IA utiliza na produção de seus resultados. São recomendações em um sistema de apoio à decisão ou ações em processo automatizado. O grau de compreensão humana sobre a tomada de decisão é o que se estuda nessa área. Pensando o contexto brasileiro, a engenheira de software e pesquisadora Carla Vieira destacou que, do ponto de vista da sociedade civil, essas explicações podem ajudar no aumento da confiança no uso de tecnologias do seu dia a dia. Já do ponto de vista de desenvolvedores e pesquisadores, essa área pode ajudar no entendimento dos modelos, dados e de possíveis vieses em suas soluções .

Os erros que podem ser encontrados em um modelo ou banco de dados de IA são diversos. No Brasil, a população negra é uma das mais impactadas pelos modelos de IA, como disse Ramon Vilarin, pesquisador e PhD pela Universidade Berkeley. Em seu artigo ” Dissecting Racial Bias in a Credit Scoring System Experimentally Developed for the Brazilian Population”, ele mostrou o experimento com dados o sistema de crédito brasileiro que atesta racismo em suas tomadas decisões atestando a importância de desenvolver métodos e linguagem que vão além da necessidade de acesso a atributos protegidos ao auditar modelos de aprendizado de máquina e a necessidade de considerar as especificidades regionais ao refletir sobre questões raciais e a importância dos dados do censo para a comunidade de pesquisa de IA. Em sua intervenção no evento, ele destacou que o racismo no Brasil é presente desde a sua origem, refletindo ao longo do desenvolvimento da tecnologia. 

Desafios do empreendedorismo e diversidade

Movimentos corporativos de inclusão na tecnologia por grandes empresas foram impulsionados nos últimos anos, em especial depois do pico de interesse no movimento Black Lives Matter em 2020. Mas entre as campanhas e promoção da diversidade e a efetiva inclusão e transformação antirracista nas organizações há um abismo. 

Andreza Rocha, CEO da AfrOya Tech, contou um pouco seu olhar sobre a promoção de iniciativas de diversidade e inclusão nas empresas e recomendou cautela. Citando a frequente demanda — geralmente não-remunerada, que influenciadores negros em tecnologia recebem para indicar profissionais para as empresas, lembrou a fragilidade de propostas que tratam apenas do pipeline de entrada, como se o problema se resumisse ali. Rocha pergunta: “Qual pipeline você está alimentando? Não sejamos ingênuos de achar que isto está gerando ação concreta sempre”. 

Ela avaliou também que muitas vezes não existe programa de equidade de remuneração, de evolução de carreira ou que forneça e apresenta segurança psicológica para que as pessoas possam inclusive manifestar suas inquietudes sobre racismo. Neste desenho de coisas, as empresas conseguem gerar a entrada de alguns profissionais negros, mas rapidamente a carga tóxica do ambiente laboral gera problemas ou mesmo a saída das empresas. A ação fica apenas, no final das contas, como promoção pública da empresa, mas sem resultados concretos.

Fernando Balbino, gerente de projetos e líder de produtos na na Ashoka, contou experiências anteriores em empresas de big tech e alguns desafios de promover diversidade e lutar contra preconceitos reproduzidos em grandes empresas. Nos últimos anos, no Terceiro Setor, tem promovido o empreendedorismo social de uma forma multimodal ativando redes entre empreendedores e empresas.

Balbino também enfatizou que a conexão e troca de valor pela ativação de redes entre diferentes atores na sociedade gera transformações. Buscando mapear e reconhecer empreendedores sociais com diferentes focos de desafios coletivos, o executivo citou como exemplo uma agência de turismo de experiência, Rota da Liberdade, impulsionada por um programa anterior. Informou que em breve serão lançados desafios na interseção entre raça e tecnologia voltados às empreendedoras(es) sociais brasileiras(os).

O encontro mostrou a diversidade de posturas e campos de atuação de tecnologistas brasileiros contra o racismo, incluindo computação, comunicação, empreendedorismo e direito. Um futuro onde podemos sonhar por uma internet mais saudável e uma inteligência artificial confiável que significa tornar ela mais acessível e próxima da realidade brasileira. 

Nina da Hora é Cientista da Computação pela PUCRio e pesquisadora em Algoritmos e IA Tiktok Safety Council Member 

Tarcízio Silva é Tech + Society Fellow pela Mozilla Foundation e pesquisador doutorando em Ciências Humanas e Sociais na UFABC

Sair da versão mobile