Imagine por um minuto que você tenha sobrevivido a um terrível acidente e perdido a função do seu braço direito. Você recebe um implante cerebral que pode interpretar a atividade neural do seu cérebro e redirecionar comandos para um braço robótico. Então, um dia, alguém hackeia o chip, enviando comandos maliciosos para o braço robótico. É uma invasão biológica de privacidade na qual de repente você não está mais no controle.

Um futuro no qual poderemos simplesmente baixar habilidades de karatê como em Matrix ou usar computadores para restaurar a funcionalidade de membros danificado parece coisa muito distante, mas o futuro está se aproximando do presente a cada dia que passa. Pesquisas preliminares tiveram sucesso ao usar interfaces cérebro-máquina (BCIs na sigla em inglês) para mover próteses e no tratamento de doenças mentais. A DARPA está explorando como usar a tecnologia para fazer soldados aprenderem mais rápido. Empresas como a Neuralink, de Elon Musk, querem usar essa tecnologia para ler a sua mente. No momento, os pesquisadores conseguem interpretar informações básicas sobre o que uma pessoa está pensando simplesmente vendo leituras de sua atividade cerebral a partir de uma ressonância magnética funcional.

Por mais incrível que o potencial dessas tecnologias seja, elas também apresentam sérios dilemas éticos que um dia podem comprometer nossa privacidade, identidade, agência e igualdade. Em ensaio publicado na quinta-feira na Nature, um grupo de 27 neurocientistas, neurotecnólogos, médicos, especialistas em ética e engenheiros de inteligência de máquina mostram as suas preocupações.

“Estamos a caminho de um mundo no qual será possível decodificar os processos mentais das pessoas e manipular diretamente os mecanismos cerebrais subjacentes às suas intenções, emoções e decisões; onde os indivíduos poderiam se comunicar com outros simplesmente pelo pensamento; e onde poderosos sistemas computacionais ligados diretamente ao cérebro das pessoas ajudariam suas interações com o mundo de tal forma que suas habilidades mentais e físicas seriam bastante reforçadas “, escrevem os pesquisadores.

Isto, dizem eles, representa um notável poder de mudar a experiência humana para melhor. Mas essa tecnologia também pode vir com custos difíceis de engolir.

“A tecnologia poderia também aumentar as desigualdades sociais e oferecer a corporações, hackers, governos ou qualquer outra pessoa novas formas de explorar e manipular as pessoas”, eles escrevem. “E poderia alterar profundamente algumas as características humanas fundamentais: a vida mental privada, a agência individual e uma compreensão de indivíduos como entidades vinculadas aos seus corpos.”

O objetivo do ensaio é catalisar o desenvolvimento de diretrizes éticas mais fortes para governar tecnologias que interagem com o cérebro humano. O ensaio se concentra em quatro áreas de preocupação:

  • Privacidade: “Algoritmos que são usados para direcionar publicidade, calcular seguros ou encontrar parceiros em potencial serão consideravelmente mais poderosos se usarem informações neurais – por exemplo, os padrões de atividade dos neurônios associados com certos estados de atenção”, escrevem os pesquisadores. “E dispositivos neurais ligados à internet abrem a possibilidade de indivíduos ou organizações (hackers, empresas ou agências do governo) de rastrear ou até mesmo manipular a experiência mental de um indivíduo”. O compartilhamento de dados neurais, eles argumentam, deve ser automaticamente bloqueado ao invés de automaticamente ativado, como, digamos, no Facebook. Tecnologias como o blockchain poderiam também ajudar a proteger a privacidade do usuário.
  • Agência e identidade: em alguns casos, as pessoas que receberam os implantes de chips do cérebro para tratar problemas de saúde mental e os sintomas da doença de Parkinson relataram uma sensação alterada de identidade. “As pessoas podem acabar se comportando de uma maneira que elas têm dificuldade em aceitar como sua própria, se o aprendizado de máquina e os dispositivos de interface com cérebro permitirem a tradução mais rápida entre uma intenção e uma ação, talvez usando uma função de ‘auto-completar’ ou ‘auto-correção’”, escrevem os pesquisadores. “Se as pessoas podem controlar aparelhos por meio de seus pensamentos ao longo de grandes distâncias, ou se vários cérebros estão conectados para trabalhar de forma colaborativa, a nossa compreensão de quem somos e onde estamos agindo será afetada”. À luz disso, argumentam eles, tratados como a Declaração Universal dos Direitos Humanos de 1948 precisam incluir cláusulas para proteger a identidade e reforçar a educação sobre os potenciais efeitos cognitivos e emocionais das neurotecnologias.
  • Reforço: “A pressão para adotar neurotecnologias de reforço, tais como aquelas que permitem que as pessoas expandam radicalmente sua resistência ou capacidades sensoriais ou mentais, é capaz de alterar as normas sociais, levantar questões de acesso equitativo e gerar novas formas de discriminação”, diz o ensaio. Como todas as novas tecnologias, a disparidade de acesso poderia levar a um abismo ainda maior entre aqueles que podem acessá-la e aqueles que não podem.
  • Viés: Nós geralmente vemos algoritmos como juízes imparciais desprovidos de preconceitos humanos. Mas algoritmos são criados por pessoas, e isso significa que às vezes eles também herdam nossos preconceitos. Por exemplo: no ano passado, uma investigação ProPublica descobriu que algoritmos usados por agências de aplicação da lei nos Estados Unidos erroneamente previam que réus negros eram mais propensos à reincidência do que réus brancos com um registro similar. “Tais preconceitos poderiam se tornar incorporados em dispositivos neurais”, escrevem os pesquisadores. “Nós defendemos que as medidas para combater o preconceito se tornaram a norma para a aprendizagem de máquina.”

Em outras tecnologias, já começamos a ver exemplos das questões de privacidade em um mundo digital que está entrando em nossos corpos.

Alguns anos atrás, em um movimento que na época parecia ser baseado em uma paranoia incrível, o ex-vice-presidente Dick Cheney escolheu remover a funcionalidade sem fio do seu marcapasso, temendo que alguém o hackeasse. Acontece que na verdade ele foi incrivelmente sábio nessa decisão. Neste ano, um relatório descobriu que marcapassos são vulneráveis a milhares de bugs. No ano passado, a Johnson & Johnson advertiu diabéticos sobre um defeito numa de suas bombas de insulina que também poderia permitir um ataque teoricamente.

Deixando os hackers de lado, mesmo os dados biológicos que compartilhamos voluntariamente poderiam ter consequências problemáticas imprevistas. Em fevereiro, dados do marcapasso de um homem ajudaram a colocá-lo na prisão por incêndio criminoso. Dados de Fitbits foram semelhantemente usados em tribunal para reivindicações de acidentes pessoais e para eliminar uma acusação de estupro.

Com apenas o estudo do movimento das pessoas tirado do monitor de atividade de seus smartphones, um estudo de 2017 foi capaz de diagnosticar sinais precoces de deterioração cognitiva associados à doença de Alzheimer. Imagine o que uma linha direta para o cérebro pode revelar.

Há um monte de coisas que precisa acontecer antes das neurotecnologias estarem prontas para o público em geral. Por um lado, tecnologias de interface cérebro-máquina mais eficazes no momento precisam de cirurgia cerebral. Mas empresas como Facebook e Openwater estão trabalhando no desenvolvimento de versões não invasivas amigáveis para o consumidor dessas tecnologias. E embora elas possam não chegar lá nos próximos anos (como ambas as empresas têm proposto), provavelmente vão chegar lá algum dia.

“Os possíveis benefícios clínicos e sociais das neurotecnologias são muitos”, o ensaio concluiu. “Para alcançá-los, temos que orientar o seu desenvolvimento de uma forma que respeite, proteja e permita o que há de melhor na humanidade.”

[Nature]

Imagem: Warner Brothers