As leis de Asimov são defeituosas pelo design ou são possíveis na prática?


19

As famosas Três Leis da Robótica de Isaac Asimov se originaram no contexto das histórias de ficção científica de Asimov. Nessas histórias, as três leis servem como uma medida de segurança, a fim de evitar situações prematuras ou manipuladas de explodir em caos.

Mais frequentemente, as narrativas de Asimov encontrariam uma maneira de quebrá-las, levando o escritor a fazer várias modificações nas próprias leis. Por exemplo, em algumas de suas histórias, ele modificou a Primeira Lei , adicionou uma Quarta Lei (ou Zeroth) , ou até mesmo removeu todas as Leis .

No entanto, é fácil argumentar que, na cultura popular, e mesmo no campo da pesquisa em IA, as Leis da Robótica são levadas muito a sério. Ignorando o problema secundário das interpretações diferentes, subjetivas e mutuamente exclusivas das leis, existem argumentos que provam que as próprias leis são intrinsecamente imperfeitas por seu design, ou, alternativamente, fortes o suficiente para serem usadas na realidade? Da mesma forma, um conjunto de heurísticas de segurança melhores e mais rigorosas está sendo projetado para essa finalidade?


Cuidado com o Killbot Hellscape! xkcd.com/1613
NietzscheanAI

Não devemos esquecer essa possibilidade: xkcd.com/1450
dynrepsys

As leis de Asimov são apenas uma pequena tentativa de iniciar a discussão. Para uma discussão muito mais aprofundada, leia "Superintelligence", de Nick Bostrom - isso é tão exaustivo quanto baseado no conhecimento e entendimento atuais.
Florin Andrei

Respostas:


12

As leis de Asimov não são fortes o suficiente para serem usadas na prática. A força não é sequer uma consideração, ao considerar que, uma vez que foram escritas em inglês, as palavras primeiro teriam que ser interpretadas subjetivamente para ter algum significado. Você pode encontrar uma boa discussão sobre isso aqui .

Para transcrever um trecho:

Como você define essas coisas? Como você define "humano", sem primeiro ter que se posicionar em quase todas as questões. E se "humano" não for suficientemente difícil, você precisará definir "dano" e terá o mesmo problema novamente. Quase todas as definições inequívocas realmente sólidas que você dá para essas palavras - que não dependem da intuição humana - resultam em peculiaridades estranhas da filosofia, levando a sua IA a fazer algo que você realmente não quer que ela faça.

Pode-se facilmente imaginar que Asimov era inteligente o suficiente para saber disso e estava mais interessado em escrever histórias do que em criar protocolos de controle de IA no mundo real.

No romance Neuromancer , foi sugerido que as IAs poderiam servir como controle entre si. A singularidade iminente de Ray Kurzweil , ou a possibilidade de AGIs hiperinteligentes de outra forma, pode não deixar muita possibilidade para os humanos controlarem as IAs, deixando a regulamentação por pares como a única possibilidade possível.

Vale ressaltar que Eliezer Yudkowsky e outros realizaram um experimento em que Yudkowsky desempenhou o papel de uma IA superinteligente com capacidade de falar, mas nenhuma outra conexão fora de uma caixa trancada. Os desafiantes foram encarregados simplesmente de manter a IA na caixa a todo custo. Yudkowsky escapou das duas vezes.


Você sabe se alguma transcrição dos experimentos de Yudkowsky foi publicada? O link que você fornece (e a troca de e-mail e depois o link para) não parece fornecer um.
NietzscheanAI

@ user217281728 Não, eu procurei, mas parece que ele está mantendo, ou seja, sua estratégia secreta para manter a possibilidade de fazê-lo novamente. Tenho algumas idéias sobre o que ele disse e por que penso isso, que ficaria feliz em compartilhar se você me machucar.
Dynrepsys

Eu já fiz isso.
NietzscheanAI

Tenho a impressão de que Asimov foi inteligente o suficiente para saber disso, mas o ponto era que regras simples não funcionam. Apontar exemplos negativos ("você não pode simplesmente dizer para não prejudicar as pessoas, isso não vai funcionar") é um trabalho útil de controle de IA do mundo real por si só.
Matthew Graves

2

Asimov fez as três leis especificamente para provar que não há três leis suficientes, por mais razoáveis ​​que pareçam a princípio. Eu conheço um cara que conhecia o cara e ele confirmou isso.


2
"Eu conheço um cara que conhecia o cara" ... Você não tem uma fonte um pouco mais confiável? Não estou duvidando da sua resposta, mas certamente já deve existir uma citação adequada sobre o assunto.
3442

O nome dele era Ben Williams. Este é o post do Google Plus onde ele descreveu suas opiniões sobre Asimov e as Três Leis: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi 26/08/16

0

Considere a primeira lei da robótica de Asimov:

Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano seja prejudicado.

Essa lei já é problemática quando se considera carros autônomos.

Qual é o problema aqui, você pergunta? Bem, você provavelmente estará familiarizado com o experimento clássico em ética conhecido como problema do carrinho . A forma geral do problema é esta:

O carrinho está indo direto para eles. Você está a uma certa distância no pátio do trem, ao lado de uma alavanca. Se você puxar essa alavanca, o carrinho mudará para um conjunto diferente de faixas. No entanto, você percebe que há uma pessoa na pista lateral. Você tem duas opções: (1) Não faça nada, e o carrinho mata as cinco pessoas na pista principal. (2) Puxe a alavanca, desviando o carrinho para a pista lateral, onde matará uma pessoa. Qual é a escolha correta?

fonte: Wikipedia

Os carros autônomos precisarão realmente implementar variações da vida real no problema do carrinho, o que basicamente significa que os carros autônomos precisam ser programados para matar seres humanos .

É claro que isso não significa que TODOS os robôs precisarão ser programados para matar, mas os carros autônomos são um bom exemplo de um tipo de robô que precisará.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.