As regras de segurança que Google e Microsoft criaram para a inteligência artificial

Um efeito colateral de falar tanto sobre o risco de robôs assassinos é que todo mundo está correndo para nos garantir exatamente como impedir isso.

Um efeito colateral de falar tanto sobre o risco de robôs assassinos é que todo mundo está correndo para nos garantir exatamente como impedir isso.

Na semana passada, engenheiros do Google publicaram um documento sobre “problemas concretos em segurança de inteligência artificial”. E hoje, Satya Nadella, CEO da Microsoft, também deu sua opinião sobre o assunto.

>>> Google está criando um botão de desligar para não criar a Skynet
>>> Cinco especialistas explicam como a inteligência artificial pode acabar com a humanidade

Em termos de elegância, esses conjuntos de regras nem se comparam às Três Leis da Robótica de Isaac Asimov – mas elas fazem parte de um livro de ficção científica que não precisa obedecer às leis da física.

Por algum motivo, os pesquisadores do Google ilustram suas regras de segurança usando como exemplo um robô de limpeza, em vez de uma superinteligência consciente que quer nos escravizar.

Eis os cinco problemas nos quais o Google se concentrou:

1. Evitar efeitos colaterais negativos, ou “como garantir que um robô de limpeza não derrube um vaso para limpar mais rápido?”

2. Evitar hacking de recompensa, ou “como garantir que o robô de limpeza não esconda a sujeira, em vez de realmente limpar?”

3. Supervisão escalável, ou “como garantir que o robô de limpeza aprenda rapidamente e não pergunte frequentemente onde o esfregão está?”

4. Exploração segura, ou “como garantir que o robô explore estratégias de limpeza, mas não coloque um esfregão em uma tomada elétrica e queime a casa inteira?”

5. Robustez para mudança distributiva, ou “como ensinar o robô a reconhecer quando suas habilidades não são úteis em um ambiente diferente?”

satya nadella microsoft

Enquanto isso, Satya Nadella delineia seis regras mais genéricas no Slate:

1. “A inteligência artificial deve ser projetada para ajudar a humanidade”. Isso mesmo, ela não deve nos atrapalhar nem nos destruir.

2. “A inteligência artificial deve ser transparente”. Os humanos precisam ter clareza que como ela funciona, e quais são suas regras. Nadella explica isso bem: “queremos não apenas máquinas inteligentes, como também máquinas inteligíveis”.

3. “A inteligência artificial deve maximizar eficiências sem destruir a dignidade das pessoas.” Basicamente, ela deve levar em conta a natureza humana, nossa cultura, e promover diversidade. Além disso, “a indústria de tecnologia não deve ditar os valores e virtudes deste futuro”, diz Nadella.

4. “A inteligência artificial deve ser concebida para a privacidade inteligente”. O que torna inteligente a nossa privacidade? Nadella diz que ela deve “oferecer proteção sofisticada… de formas que conquistem sua confiança”.

5. “A inteligência artificial deve ter responsabilidade por seus algoritmos, para que os humanos possam desfazer danos não-intencionais”: isso parece ser algo semelhante ao botão de desligar na AI que o Google propõe para não criar acidentalmente uma Skynet.

6. “A inteligência artificial deve se proteger contra o viés, garantindo pesquisa adequada e representativa, de modo que heurísticas erradas não sejam usadas ​​para discriminação.” Basicamente, a AI não deve ser preconceituosa, mesmo que por acidente – vimos isso quando o Google Fotos estava identificando pessoas negras como gorilas, por exemplo.

Basicamente, todo esse jargão se resume a “tente não prejudicar as pessoas” – uma boa diretriz para a inteligência artificial seguir.

[Google via CNET; Slate via The Verge]

Imagem do filme O Homem Bicentenário; foto por Eric Risberg/AP

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas