A Universidade Stanford, bastião do ensino superior conhecido por fabricar o futuro do Vale do Silício, lançou nesta semana o Instituto de Inteligência Artificial Centrada em Humanos com uma enorme festa. Grandes nomes e bilionários como Bill Gates e Gavin Newsom entraram no campus para apoiar a missão declarada de que “os criadores e designers de inteligência artificial devem ser amplamente representativos da humanidade”.

O novo instituto de IA tem mais de 100 membros do corpo docente listados em seu site e, na quinta-feira (21), o executivo de segurança cibernética Chad Loder notou que nem um único membro do novo corpo docente de inteligência artificial de Stanford era negro.

O que aconteceu em seguida foi um feito estranho de relações públicas.

(“A Stanford acaba de lançar seu Instituto de Inteligência Artificial Centrada em Humanos (@StanfordHAI) com uma grande fanfarra. A missão: ‘Os criadores e designers de IA devem ser amplamente representativos da humanidade’. Cento e vinte e um membros do corpo docente listados. Nem um único membro do corpo docente é negro.”)

Quando o Gizmodo entrou em contato com a Universidade Stanford na quinta-feira de manhã, o site do instituto foi rapidamente atualizado para incluir uma membro do corpo docente que não estava na lista, Juliana Bidadanure, uma professora assistente de filosofia. Bidadanure não estava listada na equipe do instituto antes de nosso e-mail para a universidade na quinta-feira, de acordo com uma versão da página preservada no Internet Archive, da Wayback Machine, mas ela falou nesta semana no evento de abertura do instituto. De fato, a universidade parecia estar adicionando Bidadanure, e mais tarde sua biografia, à página do corpo docente enquanto eu escrevia este artigo.

Com base em nossa contagem, o corpo docente do instituto inclui 72 homens brancos de um total 114 funcionários, ou 63% — um número que aparentemente pode mudar a qualquer momento. A Universidade Stanford não respondeu às nossas perguntas.

A cerca de uma hora de carro de Stanford, esperei na quarta-feira (20) à noite em uma longa fila de 150 pessoas em Berkeley, na Califórnia, para entrar em um auditório lotado. Todos viemos ouvir o Dr. Safiya Noble, do Oxford Internet Institute, autor do livro Algorithms of Oppression (Algoritmos de Opressão, em tradução livre), de 2018, falar sobre como os algoritmos do Vale do Silício — o código que conduz tudo, desde os mecanismos de busca até a inteligência artificial — podem reforçar o racismo.

“Era muito difícil encontrar pessoas que estivessem em um comitê de dissertação em 2010 que estariam dispostas a colocar seu nome na reta e dizer que achavam que a tecnologia poderia discriminar ou que os algoritmos podem discriminar”, disse Noble, que iniciou sua pesquisa há uma década em Berkeley. “O que a maioria das pessoas estava dizendo na época era que ‘é apenas matemática. O código não pode discriminar’. Esse era o discurso dominante. Eu levei muitas pancadas tentando argumentar que pode haver viés racista e sexista em nossa plataforma tecnológica. E, no entanto, aqui estamos nós hoje.”

Atualmente, vivemos em uma era em que o policiamento preditivo é real e pode atingir desproporcionalmente as comunidades minoritárias; a contratação empregatícia é tratada por inteligência artificial e pode discriminar as mulheres; o Google e os algoritmos do Facebook muitas vezes decidem quais informações vemos e qual teoria da conspiração o YouTube deve nos oferecer a seguir. Mas os algoritmos que tomam essas decisões são segredos de empresa bem guardados e com impacto global.

No Vale do Silício, a conversa e os palestrantes mudaram. Não se trata mais de saber se a tecnologia pode discriminar. As perguntas agora incluem quem pode ser afetado, como podemos corrigir isso e o que estamos construindo.

Quando um grupo de engenheiros majoritariamente brancos se junta para construir esses sistemas, o impacto nas comunidades negras é particularmente flagrante. Algoritmos podem reforçar o racismo em campos como habitação e policiamento. O viés algorítmico reflete o que vemos no mundo real. A inteligência artificial reflete seus desenvolvedores e os dados com que é treinada.

Onde antes havia uma mitologia popular de que os algoritmos eram apenas a maneira de a tecnologia servir ao conhecimento objetivo, agora existe um argumento grande e cada vez mais global sobre quem está construindo a tecnologia e o que ela está fazendo com o restante de nós. O surgimento da indústria de inteligência artificial está impulsionando essa conversa ainda mais à medida que sistemas de inteligência artificial que dominarão nossas vidas estão aprendendo e automatizando decisões em processos que são cada vez mais opacos e responsabilizáveis.

No mês passado, mais de 40 grupos de direitos civis escreveram uma carta ao Congresso norte-americano pedindo que eles abordassem a discriminação baseada em dados. E, em dezembro, o Electronic Privacy Information Center (EPIC) enviou um comunicado ao Comitê Judiciário da Câmara detalhando o argumento de que a “transparência algorítmica” deveria ser exigida das empresas de tecnologia.

“Na intersecção de lei e tecnologia, conhecer o algoritmo é um direito humano fundamental”, disse Marc Rotenberg, presidente do EPIC, sobre a questão.

O objetivo declarado do novo instituto da Universidade Stanford é admirável. Mas eles têm um longo caminho até juntar um grupo que, de fato, represente amplamente a humanidade.