_Tecnologia

Conheça o movimento que busca proteger sua mente das tecnologias cerebrais

Enquanto empresas de tecnologia desenvolvem dispositivos cerebrais, iniciativas desenvolvem códigos de ética para seu uso

Ilustração de cérebro

Registrar memórias, ler pensamentos e manipular o que outra pessoa vê por meio de um dispositivo em seu cérebro pode parecer enredo de ficção científica. Mas uma equipe de pesquisadores afirma que os primeiros passos para inventar essas tecnologias já chegaram. Por meio de um conceito chamado “neuro direitos”, eles desejam proteger nosso bem biológico mais precioso: o cérebro.

A protagonista desse esforço atualmente é a NeuroRights Initiative, formada pelo neurocientista Rafael Yuste, da Columbia University. Sua proposta é ficar à frente da tecnologia convencendo governos do mundo todo a criar proteções legais junto à Declaração Universal dos Direitos Humanos. O programa propõe cinco tópicos: os direitos à identidade pessoal, livre arbítrio, privacidade mental, acesso igual à expansão mental pela tecnologia e proteção contra vieses algorítmicos.

É um longo caminho a percorrer até isso se tornar realidade, especialmente quando se trata de uma tecnologia que (ainda) não existe, mas o movimento é promissor. O Congresso Nacional do Chile aprovou recentemente uma emenda para adicionar tais proteções à Constituição, tornando-se o primeiro país a incluir os direitos neurais na lei. O Chile, porém, já tem um braço do governo que lida com proteções relacionadas à saúde (que procurou a Iniciativa NeuroRights e o Yuste por conta própria, em busca de conselhos). Os motivos e métodos de proteção em outros países, incluindo os EUA, por exemplo, podem ser diferentes.

Ainda assim, os defensores dos neuro direitos visam convencer diferentes formuladores de políticas governamentais, colegas pesquisadores e o público de que é vital se manter à frente do jogo, ao invés de esperar que a neurotecnologia se torne um problema. Tudo começou quando Yuste se tornou parte da BRAIN Initiative do governo Obama, um programa que conectava uma rede nacional de laboratórios de neurociência que investigava as interfaces cérebro-máquina e tecnologias relacionadas. A 0natureza ambiciosa da iniciativa fez o pesquisador se preocupar. Embora os códigos médicos de ética e as diretrizes da neurociência existam em várias formas, não existe um código ético unificador atual para a neurotecnologia.

“No primeiro memorando que enviamos a Obama, destacamos a necessidade de regulamentação ética de toda essa tecnologia”, disse Yuste em uma entrevista em vídeo. Isso porque algumas pesquisas se concentravam no mapeamento do cérebro; outros trabalhos incluíram maneiras de decodificar, registrar pensamentos ou implantar microchips no cérebro com segurança. Projetos recentes financiados pela iniciativa também incluem aprender como o cérebro planeja movimentos e como ler mentes usando ultrassom.

Muitos defensores dos direitos neuro são acadêmicos — incluindo cientistas cujos próprios experimentos os convenceram da necessidade de maiores proteções legais. Em 2017, Yuste realizou palestras e um workshop com voluntários independentes de todo o mundo chamado The Morningside Group. Eles se juntavam em uma sala de aula e compartilhavam ideias. Seus campos abrangiam direito, ética, ciências e filosofia e, segundo todos os relatos. “Nos encontramos durante três dias e chegamos a uma série de diretrizes éticas com a reflexão de que se trata de um problema de direitos humanos”, afirmou.

Eles debateram algumas questões importantes: Como podemos garantir que o acesso a dispositivos que aumentam a cognição não seja restrito aos muito ricos? Quem detém os direitos autorais de um sonho gravado? Que leis devem existir para impedir que uma pessoa altere a memória de outra por meio de um implante neural? Como mantemos a integridade mental separada de um dispositivo implantado? Se alguém pode ler nossa mente, como protegemos a leitura de nossos pensamentos?

Um dos estudos de Yuste teve como objetivo entender como grupos de neurônios trabalham juntos no córtex visual do cérebro, mas permitiu que os cientistas alterassem a percepção dos ratos, fazendo-os ver coisas que não existiam. Depois de rastrear quais neurônios foram ativados quando os ratos viram barras verticais em uma tela, os cientistas puderam acionar apenas esses neurônios e conseguiram fazer com que os bichos “vissem” essas barras mesmo que não houvesse nenhuma.

Assim que percebeu as implicações de ser capaz de mudar a percepção de outro ser, o cientista ficou empolgado por ter aprendido mais sobre o cérebro e gravemente preocupado. Ele avisa que, mesmo que essa técnica ainda não funcione em seres humanos, agora que a premissa básica de manipular a percepção é factível, tudo o que alguém precisa fazer é desenvolvê-la.

Da mesma forma, quando o cientista Jack Gallant e sua equipe criaram um projeto para entender melhor o sistema visual humano, eles acabaram criando algumas das bases para “ler” ou “decodificar” alguns tipos de pensamentos, como imagens mentais, usando fMRI e um algoritmo. Em um de seus muitos experimentos, participantes humanos assistiram a curtos filmes mudos enquanto os cientistas monitoravam uma área de seus córtices visuais. A informação foi entregue a uma IA que foi treinada em vídeos do YouTube, mas não nos filmes dos participantes. A partir dos dados recuperados de varreduras cerebrais, a IA reuniu e reproduziu as cenas gerais que os participantes viram. Embora as reproduções estivessem longe de ser perfeitas, elas representaram um primeiro passo na decodificação de informações da mente humana.

Desde então, vários experimentos trabalhando com tecnologia semelhante juntaram-se a este trabalho, e os defensores dos direitos neuro acreditam que é apenas uma questão de tempo antes que essa tecnologia possa ser usada em um mercado de consumo — por exemplo, para registrar sonhos, ideias ou memórias. A Neuralink, empresa de Elon Musk, tem trabalhado em implantes neurais com a intenção de um dia ajudar a tratar distúrbios cerebrais, permitir que as pessoas controlem dispositivos externos com suas mentes e até mesmo aumentar a inteligência e a memória (até agora, uma versão inicial do Neuralink permitia que um macaco jogasse um videogame com sua mente).

Embora cada cérebro opere de maneira um pouco diferente com base em experiências e peculiaridades individuais, a organização geral é a mesma em quase todas as pessoas. Em um workshop virtual recente discutindo os neuro direitos, os cientistas repetiram em suas apresentações que a habilidade está lá, e tudo o que é necessário são dados cerebrais suficientes de um indivíduo para criar um modelo personalizado de seu cérebro.

“Esta é uma nova fronteira de direitos de privacidade, em que as coisas que estão dentro de nossas cabeças são nossas. Elas são íntimas; nós as compartilhamos quando queremos compartilhá-las. E não queremos que isso se transforme em um campo de dados para experiência”, disse Sara Goering, professora de filosofia e co-líder do Grupo de Neuroética do Centro de Neurotecnologia da Universidade de Washington, em entrevista por telefone.

Goering, que estuda os efeitos das tecnologias de interface cérebro-máquina em pacientes como parte de seu trabalho de ética e filosofia, também apontou que, embora acredite que a neurotecnologia futura pode ser libertadora para muitas pessoas, os dispositivos nem sempre dão aos usuários transparência suficiente sobre como estão trabalhando. Interfaces cérebro-máquina que permitem que as pessoas movam os cursores do computador com suas mentes e dispositivos de estimulação cerebral profunda (DBS) para a doença de Parkinson e depressão são ferramentas maravilhosas, mas de acordo com entrevistas conduzidas por Goering e seus colegas, os usuários dessa tecnologia às vezes se perguntam quem está realmente no controle. Uma pessoa usou um DBS para Parkinson para mobilidade e ocasionalmente colocou o pé onde não pretendia. Ele não tinha como saber se o dispositivo não funcionou bem ou se ele simplesmente deu um passo errado.

“Eu fiz isso, o dispositivo me ajudou a fazer isso, ou fizemos isso juntos?” questionou Goering. Os direitos neuro podem iniciar conversas sobre o desenvolvimento de tecnologia útil ou fornecer feedback sobre quando e como um dispositivo está funcionando. E uma vez que a neurotecnologia avançada tem o potencial de ajudar as pessoas que estão atualmente em desvantagem ou sofrendo, reter essas tecnologias também é eticamente questionável. Isso pode ser um problema especialmente se os dispositivos forem projetados para pessoas que não podem comunicar seu consentimento para usar a tecnologia, como ocorre com distúrbio motor cognitivo, por exemplo.

“Acontece que 14%, 15% das pessoas que parecem inconscientes, não estão”, disse Joseph Fins, especialista em ética, autor e médico da Weill Cornell em Nova York. Médicos e neuropsicólogos fazem várias avaliações especializadas à beira do leito para determinar o estado de consciência de um paciente. Esses pacientes não seriam capazes de dar consentimento para que suas mentes fossem lidas, mas futuros avanços neurotecnológicos poderiam ajudar eles e outras pessoas a interagir com o resto do mundo. Se o conceito de neuro direitos decolar, os formuladores de políticas terão que considerar as nuances de como os direitos seriam aplicados em ambientes médicos.

Mas os defensores desses direitos estão mais preocupados com o consumo — supondo que cientistas ou empresas possam colocar os dispositivos no mercado. “É aí que seus direitos podem entrar. No minuto em que você fala sobre o cérebro, você não pode evitar ir para os direitos humanos, porque o cérebro é o que nos torna humanos”, explicou Yuste.

“Ainda estamos nos estágios iniciais”, alertou Fins. “Então a outra coisa é o risco do charlatanismo. Você sabe, o final do século 19 girava em torno do eletromagnetismo e não fazia nada.” De qualquer maneira, os direitos neuro seriam o monstro de proteção do Frankenstein: parte FDA, parte lei de privacidade e parte definições legais. O que Yuste não quer que aconteça é que ninguém preste atenção no problema até que seja tarde demais para regulamentar — semelhante ao que aconteceu com a mídia social, que cresceu em privacidade, segurança e pesadelo ético com muito pouca supervisão. “Talvez possamos ser um pouco mais inteligentes com essa neurotecnologia”, disse Yuste, “e desde o início, podemos ter diretrizes éticas que estejam de acordo com nossa humanidade”.

Sair da versão mobile