Inteligência artificial não é a solução para prevenir desastres aéreos

Especialista mostra que substituir pilotos humanos por robóticos pode apresentar ainda mais riscos para a aviação.

Ainda tentamos compreender a tragédia da Germanwings. E mesmo assim algumas pessoassugerem que ela poderia ter sido evitada se um computador estivesse controlando o voo. Mas esta não é a solução. Conversamos com alguns especialistas para explicar por que um piloto de inteligência artificial (IA) abriria uma nova série de riscos e complicações para a aviação.

Para compreender este problema, recrutei o auxílio do Dr. Patrick Lin. Ele é diretor do Grupo de Estudos das Ciências da Ética + Emergência na Universidade Estadual Politécnica da Califórnia e co-autor do livro Robot Ethics: The Ethical and Social Implications of Robotics. Como ele me mostrou, pilotos IA podem eventualmente vir controlar a cabine de piloto sem nenhum envolvimento humano, mas este dia ainda está longe de chegar.

Tirando os humanos do controle

Como uma ideia, pilotos robóticos não são novidade. Mas este último desastre trouxe a mentalidade de que tirar o controle das mãos dos humanos é  uma questão urgente.

Quando falamos da falibilidade dos pilotos humanos, geralmente ela está ligada a coisas como fadiga e erro humano. A imprevisibilidade do estado psicológico de um piloto, em comparação, raramente é discutida — mas a queda do avião na última terça mostra que ela também merece consideração. Existe a possibilidade que Andreas Lubitz, copiloto da Germanwings escondesse uma condição médica, condição esta que pode, direta ou indiretamente, estar relacionada ao estado mental dele.

“Pilotos são propensos a erros porque humanos são propensos a erros”, Lin nos disse. “Algumas quedas de avião acontecem porque é pedido que os pilotos sentem e olhem para telas de computador por longas horas de uma vez, e humanos não foram feitos para esse tipo de trabalho. Pilotos de hoje também não têm mais tantas oportunidades de receber treinamento físico e mental para situações de emergência, desde que boa parte da arte de voar se tornou automatizada”.

É daí que vem o pedido para retirar o ponto fraco: humanos. Um sistema de inteligência artificial nunca se cansaria, ficaria deprimido ou cometeria erros.

Parece ótimo a princípio — mas, como diz Lin, o controle entre pilotos humanos e piloto automático é especialmente complicado.

“Mesmo que piloto IA sejam mais seguros que pilotos humanos, a maneira como um piloto IA poderia ter evitado a queda do avião da Germanwings e outros acidentes causados por erro humano não seria apenas detendo o controle de todo o voo — desde posicionar o avião na pista até a decolagem e o pouso — mas também trancando a cabine de piloto inteiramente, impedindo que uma só pessoa pudesse apertar um botão e ter controle completo da aeronave”, disse.

Lin relaciona isso à decisão do Google de remover o volante dos carros autônomos de baixa velocidade que a empresa está construindo, os chamados Koala Car. Semelhantemente, se o objetivo é prevenir desastres causados por humanos, as linhas aéreas terão de impedir que humanos interfiram no controle de IA. E isso não é um panorama muito convidativo.

Níveis de risco

Além disso, os riscos são muito mais presentes em aviões controlados por robôs do que de carros de baixa velocidade também controlados por inteligência artificial.

“O que faz sentido para o Google não faz necessariamente sentido para, digamos, a Lufthansa”, conta Lin. “A tecnologia falhará em algum momento — seja devido a um erro de programação nas milhares linhas de código que são necessárias para fazer uma carro operar de forma autônoma, ou um erro nos sensores, ou um evento inesperado — e importa se o erro ocorre no chão ou no ar. Enquanto o Google não precisa de um piloto de reserva, linhas aéreas precisam. E isso significa manter pelo menos um humano extra na cabine para possíveis emergências”.

igpipt04lovo5jmjxvzn

Koala Car do Google: um risco muito menor do que o de um avião (Foto: Google)

Acidentes de avião são relativamente raros, especialmente quando levamos em consideração o número de voos por ano. As chances de morrer em uma queda de avião são muito pequenas para justificar o risco extra que retirar os humanos do processo causaria. E mudar para pilotos robóticos não economizaria muito dinheiro, já que a mão-de-obra é um custo relativamente baixo para toda a operação das linhas aéreas.

Colisões de IA

“Talvez algum dia, pilotos IA sejam perfeitos o suficiente para tomarem controle completo da cabine sem a necessidade de um plano B, mas este dia não está no nosso futuro próximo”, diz Lin. “Ainda não conseguimos construir aparelhos muito mais simples, como laptops e smartphones, que não dão problemas em condições muito mais ordinárias”.

Eu ainda adicionaria: aviões robóticos também possuem o potencial de serem hackeados. A não que um sistema de segurança seja desenvolvido, existe a chance de que alguém posso atrapalhar o voo e/ou até mesmo tomar controle externo, derrubando a aeronave. É um aspecto bem aterrorizante.

Tecnologia e humanos são ambos propensos a falhar, lembra Lin. “Mas trabalhando juntos, cria-se um excesso no sistema que ajuda a compensar as falhas do outros”.

Imagem de capa: Andrew McMillan/CC

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas