A frota de carros autônomos do Google já se envolveu em algumas pequenas colisões, a maioria por causa de humanos distraídos batendo na traseira. Mas, pela primeira vez, um carro do Google bateu em outro veículo.

O acidente foi leve, e impressiona que algo assim só tenha ocorrido agora: afinal, o Google vem testando seus carros autônomos nas ruas desde 2014.

Um relatório do DMV da Califórnia – órgão equivalente ao Detran – descreve o incidente de 14 de fevereiro, que envolveu um carro da Lexus adaptado pelo Google (não se trata daquele veículo que parece um coala).

O carro virou à direita saindo de uma grande avenida em Mountain View, quando detectou sacos de areia em torno de um bueiro no cruzamento. A pista da direita era larga o suficiente, mas ele precisava manobrar em torno do obstáculo.

O software do carro assumiu que um ônibus municipal estava desacelerando para permitir que o carro entrasse no fluxo de veículos. O motorista humano do Google por trás do volante pensou o mesmo. Não era o caso, e o carro (a 3 km/h) bateu no ônibus (que estava a 24 km/h).

De acordo com o relatório, o carro do Google “sofreu danos no para-lama dianteiro esquerdo, na roda dianteira esquerda e em um de seus sensores no lado do motorista”. Ninguém ficou ferido.

Este é exatamente o motivo pelo qual o Google vem tentando ensinar seus carros a pensar mais como seres humanos. Eis o que o Google disse sobre o acidente ao The Verge:

O nosso motorista de testes, que estava observando o ônibus no espelho retrovisor, também esperava que ele desacelerasse ou parasse. E imaginamos que o motorista do ônibus assumiu que íamos ficar parados. Infelizmente, todos estes pressupostos nos levaram ao mesmo local na pista ao mesmo tempo. Este tipo de mal-entendido acontece entre motoristas humanos na estrada todos os dias.

Este é um exemplo clássico da negociação que é uma parte normal de dirigir – todos nós estamos tentando prever os movimentos um do outro. Neste caso, nós claramente temos alguma responsabilidade, porque se o nosso carro não fosse para lá, não teria havido uma colisão. Dito isto, o nosso motorista de testes acreditava que o ônibus iria desacelerar ou parar, permitindo-nos entrar no fluxo de veículos, e que haveria espaço suficiente para fazer isso.

Chris Urmson comanda o projeto de carros autônomos no Google, e falou num evento recente que a segurança é o principal motivador para veículos que dirigem sozinhos. O objetivo é reduzir as cerca de 40.000 mortes por acidente que ocorrem em ruas dos EUA a cada ano; 94% delas são causadas ​​por erro humano.

Urmson também respondeu a perguntas dos membros da audiência, de pessoas claramente preocupadas com motoristas-robô nas ruas. Uma delas mencionou o “dilema do bonde”, conhecido experimento mental que pergunta: se um bonde tivesse que passar por cima de cinco pessoas, e fosse possível puxar uma alavanca que mudaria os trilhos e mataria apenas uma pessoa, o que você faria?

uma questão semelhante para carros autônomos. Se um carro dirigido por um humano ultrapassasse o sinal vermelho, e o veículo autônomo tivesse duas opções – continuar dirigindo e atingir esse carro com cinco pessoas, ou virar à direita e atropelar uma pessoa – o que ele faria?

Urmson lembra que as chances de essa situação específica acontecer são extremamente baixas, o que “reduz as chances desse dilema ético a quase nada”, mas na verdade existe uma hierarquia. Ele diz: “tentamos ao máximo evitar pessoas desprotegidas nas ruas”, como pedestres e ciclistas, seguidos por objetos em movimento na estrada, seguido de objetos estáticos.

Pode-se argumentar que os veículos autônomos só serão realmente seguros quando todo veículo (e ônibus) na estrada for autônomo. Mas Urmson diz que até mesmo um só carro autônomo já melhora as condições para todos. “Ter um deles na estrada deixa o motorista mais seguro, e deixa todos ao seu redor mais seguros.”

[The Verge e Associated Press]

Foto por Tony Avelar/AP