Facebook supostamente quer usar inteligência artificial para prever seu “comportamento futuro”

Entre as perguntas não respondidas nas audiências de Mark Zuckerberg no Congresso na semana passada, o CEO ficou um pouco perplexo ao ser perguntado se estaria disposto a mudar o modelo de negócios do Facebook para proteger a privacidade dos usuários. A coleta de dados do site recebeu muita atenção do ponto de vista da […]

Entre as perguntas não respondidas nas audiências de Mark Zuckerberg no Congresso na semana passada, o CEO ficou um pouco perplexo ao ser perguntado se estaria disposto a mudar o modelo de negócios do Facebook para proteger a privacidade dos usuários. A coleta de dados do site recebeu muita atenção do ponto de vista da segurança, mas um novo relatório ilustra por que devemos nos preocupar com a maneira como a empresa usa esses dados para influenciar nosso comportamento.

• Em segundo depoimento nos Estados Unidos, Zuckerberg foi mais pressionado
• Mark Zuckerberg diz que até seus dados foram vendidos a terceiros

O Intercept obteve o que afirma ser um documento recente que descreve um novo serviço oferecido aos clientes de publicidade do Facebook. Indo além de anúncios com microssegmentação baseados no que sabe sobre seu passado e presente, a empresa de rede social agora está oferecendo usar inteligência artificial para prever o que você fará no futuro — e dando aos clientes a oportunidade de intervir por meio de uma barragem de influência. Segundo a reportagem:

Um slide no documento mostra a capacidade do Facebook de “prever comportamento futuro”, permitindo que as empresas tenham como alvo pessoas com base em decisões que ainda não tomaram. Isso potencialmente daria a terceiros a oportunidade de alterar o curso antecipado de um consumidor. Aqui, o Facebook explica como é capaz de vasculhar toda a sua base de usuários de mais de 2 bilhões de pessoas e apresentar milhões de pessoas que estão “em risco” de ir de uma marca para a concorrente. Esses indivíduos poderiam então ser alvo de uma publicidade agressiva, que poderia se antecipar e mudar sua decisão completamente — algo que o Facebook chama de “eficiência de marketing melhorada”. Isso não se trata do Facebook te mostrar anúncios da Chevrolet porque você leu sobre a Ford durante toda a semana — algo previsível no mundo do marketing online — mas, sim, do Facebook usar fatos de sua vida para prever que, no futuro próximo, você vai se cansar do seu carro. O nome que o Facebook dá para esse serviço é “previsão de lealdade”.

O Facebook está supostamente usando sua tecnologia FBLearner Flow para impulsionar essa nova iniciativa. A ferramenta foi mostrada pela primeira vez em 2016 como o próximo passo da empresa no aprendizado de máquina e, desde então, tem sido discutida como uma forma de melhorar a experiência das pessoas na plataforma, em vez de uma maneira de melhorar o marketing. Sempre que Zuckerberg recebia uma pergunta solicitando uma solução para um problema difícil por um membro do Congresso na semana passada, sua resposta era uma variação de “uma inteligência artificial melhor vai resolver”. Bem, a empresa chama o FBLearner Flow de “espinha dorsal” de sua iniciativa de IA e traz muitos problemas próprios.

Durante anos, a publicidade contou com alguns princípios básicos e algumas ferramentas. Existem basicamente dois tipos de negócios: aqueles que reconhecem um problema e oferecem uma solução e aqueles que têm uma solução e querem apresentar um problema que as pessoas não tinham antes. A publicidade é útil para ambos, mas é essencial para o último. Já é estabelecido que executivos de anúncios se aproveitam das inseguranças das pessoas e invocam desejos desnecessários para moldar seu comportamento. E, por um longo tempo, esse negócio foi conduzido por meio de intuição, pesquisa de mercado limitada e um pequeno traço de Freud. A era do Big Data muda isso.

As pessoas podem mentir ou reter a verdade em uma pesquisa de marketing, mas elas abrem o jogo em seu ambiente privado entre amigos. Usuários online traem seus verdadeiros instintos enquanto navegam pela rede acompanhados por cookies e andam pelo mundo real rastreados pelo GPS em seus telefones. Agora, temos o reconhecimento facial, câmeras onipresentes, microfones e leitores de impressão digital com que se preocupar. Mesmo assim, os bilhões de pontos de dados sobre bilhões de pessoas não poderiam ser efetivamente analisados por humanos, então temos máquinas que fazem isso, os categorizam e analisam.

Se você acompanha o mundo do marketing ou de tecnologia, provavelmente acha que entende isso. É só ver o Twitter de entusiastas de tecnologia para ver as pessoas presunçosamente explicando que sempre soubemos tudo de ruim sobre o Facebook. Mas ter o conhecimento por perto não significa que todos o entendam ou o tenham recebido ou que tenham sido convencidos a aceitá-lo como verdadeiro. O Intercept está detalhando outros desenvolvimentos sobre uma ferramenta que seria, obviamente, usada para fins de marketing, mas que pouco foi discutida sob essa luz.

Vale a pena enfatizar o quão importante é que um algoritmo esteja sendo lentamente treinado para ser extremamente bom em fazer previsões comportamentais, extremamente bom em monitorar o desempenho dessas previsões e muito bom em fazer ajustes com base em suas falhas e sucessos. Quando esse mesmo sistema é treinado para modificar seu comportamento por meio de publicidade, ele aprenderá como fazer isso bem. É igualmente preocupante que o Facebook tenha um incentivo monetário para concretizar suas previsões. Frank Pasquale, um estudioso do Projeto Sociedade da Informação, de Yale, apontou para o Intercept que é totalmente possível que as previsões da inteligência artificial se tornem “profecias autorrealizáveis”.

Imaginemos que o Facebook diga a um cliente que seu sistema prevê que dez mil pessoas deixarão de comprar o detergente de determinada marca neste ano. Ele vai a todos os anunciantes de detergente de marca, lhes informa sua previsão, e todos decidem não exibir anúncios no Facebook. Ao longo de um ano, o Facebook tem um incentivo para fazer essa previsão se tornar realidade, influenciando o que você vê de uma forma que possa persuadi-lo a não comprar detergente de marca. Pasquale observa que isso é semelhante a uma “raquete de proteção” para o aprendizado de máquina.

Uma das linhas comuns de questionamento que Zuckerberg recebeu do Congresso na semana passada foi se ele fornecia ou não todos os dados que possui sobre um usuário por meio de sua ferramenta “baixe suas informações”. Zuckerberg foi evasivo e se aproveitou da falta de conhecimento técnico de seus questionadores. Ele foi perguntado diretamente: “Se eu baixar minhas informações no Facebook, há outras informações acessíveis para você dentro do Facebook que eu não veria naquele documento, como histórico de navegação ou outras inferências que o Facebook formou dos usuários para fins publicitários?” Sua resposta foi “Congressista, acredito que todas as suas informações estão nesse arquivo”.

Ele pode se safar com essa resposta, porque o Facebook não considera suas inferências sobre seus dados como pertencentes a você. Seria incrivelmente interessante descobrir o que o Facebook pensa que faremos no futuro, mas isso estragaria toda a jogada, porque você teria isso em mente ao tomar essas decisões.

De acordo com sua própria admissão, o Facebook é incapaz de abordar adequadamente várias das conseqüências negativas de sua escala. “A realidade disso é que, quando você está construindo algo como o Facebook, sem precedentes no mundo, vai haver coisas em que você erra”, disse Zuckerberg a repórteres, em uma chamada em conferência na semana passada. As coisas em que o Facebook tem “errado” incluem ajudar os agentes estrangeiros em uma campanha de propaganda para interferir nas eleições de 2016 nos Estados Unidos e ser um canal para a limpeza étnica em Mianmar.

Se você acompanha as notícias, sabe que há vários outros exemplos. Não é difícil imaginar as coisas dando muito errado quando o Facebook realizar seu sonho de implantar sua própria miniversão da internet em regiões do mundo que não a possuem e, em seguida, passar a levar as pessoas na direção que o dono do maior lance exigir.

O Facebook não respondeu ao pedido do Intercept por comentários sobre a possibilidade dessas ferramentas de comportamento estarem atualmente sendo oferecidas a clientes trabalhando em campanhas políticas. Entramos em contato com a empresa e recebemos uma resposta quase que completamente não relacionada ao assunto: “O Facebook, como muitas outras plataformas de anúncio, usa aprendizado de máquina para mostrar o anúncio certo para a pessoa certa. Não sabemos o que as pessoas pensam ou sentem e também não compartilhamos informações pessoais de um indivíduo com anunciantes”.

Apesar disso tudo, o Facebook não é a única empresa com que devemos nos preocupar. Todo o mundo está trabalhando com aprendizado de máquina de um jeito ou de outro. Por enquanto, sistemas de inteligência artificial são desajeitados, mas já são provavelmente superiores à pesquisa de mercado tradicional. Quando a inteligência artificial se desenvolver e alcançar um outro nível de evolução, ela pode deter um poder tremendo sobre nossos cérebros burros. Será como a diferença entre um mosquete e um lança-foguetes. Nós realmente deveríamos considerar se devemos prosseguir nessa direção, em grande parte desatentos, graças a segredos corporativos.

[The Intercept]

Imagem do topo: Getty

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas