A Consumer Reports disse nesta quinta-feira (22) que seus pesquisadores enganaram “facilmente” o sistema de autopiloto da Tesla para que ele dirigisse sem ninguém ao volante. A publicação é preocupante e acontece enquanto as autoridades continuam a investigar um acidente fatal no Texas envolvendo um Tesla, que, segundo indicam as autoridades, não parecia estar sendo dirigido por ninguém no momento da ação.

Usando um Tesla Model Y, os engenheiros da Consumer Reports foram capazes de “dirigir” em uma pista de teste de circuito fechado enquanto estavam sentados no banco do passageiro dianteiro e no banco traseiro. Para enganar o sistema de assistência ao motorista do carro, eles prenderam uma corrente com peso ao volante para simular a pressão das mãos do motorista e usaram o botão de velocidade do volante para acelerar a partir de uma parada total.

Enquanto mantiveram a porta do lado do motorista fechada e o cinto de segurança afivelado (para que o sistema não desligasse automaticamente), o veículo continuou a rodar pela pista de 800 metros e seguir as linhas pintadas das faixas durante o experimento. “Foi um pouco assustador quando percebemos como era fácil enganar os dispositivos de segurança, que provamos serem claramente insuficientes”, disse Jake Fisher, diretor sênior de testes de automóveis da publicação que conduziu o experimento, em um comunicado.

Assine a newsletter do Gizmodo

“Em nossa avaliação, o sistema não só falhou em garantir que o motorista estava prestando atenção, mas também não conseguiu dizer se havia um motorista ali”, continuou ele. “A Tesla está ficando atrás de outras montadoras como GM e Ford que, em modelos com sistemas avançados de assistência ao motorista, usam tecnologia para garantir que ele esteja olhando para a estrada.”

Porém, não tente nada disso em casa, alertou Fisher, enfatizando que a equipe do Consumer Reports conduziu seus testes em um circuito fechado a velocidades relativamente baixas com equipes de segurança em prontidão. “Para ficar claro: qualquer pessoa que usa o autopiloto na estrada sem alguém no assento do motorista está colocando a si mesmo e a outras pessoas em perigo iminente”, disse ele.

O veículo envolvido no acidente fatal do último sábado (17), foi supostamente um Tesla Model S, um modelo diferente daquele usado pela Consumer Reports em seu experimento. No entanto, ambos usam o mesmo sistema de direção automatizado, como afirma a publicação.

Inclusive, na página de suporte da Tesla para o sistema, a empresa divulga que seus carros não são totalmente autônomos. Ele também avisa que, apesar de seus homônimos, seus recursos de Autopilot e full self-driving (direção completamente autônoma em tradução livre) exigem uma “supervisão ativa do motorista”.

Assine a newsletter do Gizmodo

Mas esses avisos não impediram os motoristas da Tesla de passar o controle para o sistema de autopilotagem de seus carros enquanto dormem, trocam de assento ou tiram os olhos da estrada. Em 2018, a polícia da Califórnia parou um motorista de um Tesla Model S que estava bêbado e dormindo ao volante enquanto seu carro acelerava sozinho a 112 km/h. Um incidente semelhante aconteceu no Canadá em setembro do ano passado. O proprietário de um Tesla Model S foi acusado de direção perigosa depois que foi encontrado dormindo ao volante enquanto viajava a 150 km/h pela rodovia.

E a batida de sábado não é um incidente isolado. A Administração Nacional de Segurança de Tráfego Rodoviário (NHTSA, na sigla em inglês), regulador de segurança automotiva dos EUA, abriu pelo menos 14 investigações sobre acidentes de Tesla em que suspeita que o sistema de piloto automático do veículo estava sendo usado. Esta semana, a NHTSA anunciou que também enviaria uma equipe para investigar o acidente no Texas.