Os humanos poderiam ferir uma IA consciente ou consciente?


9

Se uma IA consciente é possível, também seria possível para alguém que sabe o que está fazendo para torturar (ou ferir) a IA? Isso poderia ser evitado? Quão?

Esta pergunta lida com IA baseada em computador, não robôs, que são tão conscientes quanto as pessoas (essa é uma suposição da pergunta). A questão se pergunta como um crime tão difícil de rastrear quanto downloads ilegais, mas muito pior eticamente, poderia ser evitado. Observe que, apesar de a maioria das pessoas ser gentil e ter empatia com os robôs, sempre existem pessoas más e, portanto, confiar na consciência geral não funcionará.

Respostas:


9

O artigo Robô de espancar crianças inspira novo sistema de manobra de escape é baseado em dois trabalhos de pesquisa sobre um experimento em um shopping japonês que levou crianças não supervisionadas a atacar robôs. O artigo de pesquisa em que você está interessado é Escapar do abuso infantil de robôs sociais .

Nesse trabalho de pesquisa, os pesquisadores foram capazes de programar os robôs para seguir uma simulação de planejamento para reduzir a probabilidade de abuso por crianças. Se detectar crianças, o robô é programado para se refugiar em uma multidão de adultos (que podem disciplinar as crianças, se necessário). Isso aconteceu porque os pesquisadores viram que eram apenas as crianças que estavam espancando os robôs no shopping em questão.

Eles discutem experimentar outras opções:

Neste trabalho, a estratégia do robô para evitar abusos era "escapar", ou seja, mudar para um local onde é menos provável que ocorra abuso. Pode-se perguntar por que o robô não pode superar o abuso. Em nossos testes preliminares, tentamos várias abordagens, mas descobrimos que é muito difícil para o robô convencer as crianças a não abusar dele. Por exemplo, alteramos as palavras do robô de várias maneiras, usando palavras fortes, expressões emocionais ou educadas, mas nenhuma delas teve êxito. Uma estratégia parcialmente bem-sucedida foi o robô "fisicamente" empurrando as crianças. Quando seu caminho era bloqueado, ele tentava apenas continuar e se comportar como se colidisse com crianças e forçasse seu caminho (sob cuidadoso monitoramento de um operador humano). Observamos que as crianças a princípio aceitaram os pedidos do robô e os obedeceram; mas, muito em breve eles aprenderam que são mais fortes que o robô para poderem vencer se pressionarem e também que podem pará-lo pressionando o interruptor do para-choque (acoplado ao robô por segurança). Depois de perceber isso, eles apenas continuaram com o comportamento abusivo. Obviamente, ter um robô mais forte representaria um problema de segurança e aceitação social, portanto, lidar com essas situações abusivas permanece difícil.


Mas vamos interrogar mais a sua pergunta:

Se a IA consciente for possível e for disseminada, não seria fácil para alguém que sabe o que está fazendo para torturar a IA?

Por que você considera essa tortura errada ? Afinal, alguém poderia argumentar que a máquina não 'experimentará' realmente dor se você a torturar ... então deve ser moralmente bom torturá-la. Pode responder como se estivesse sofrendo, mas é duvidoso que a capacidade de simular um estado emocional como "sentir dor" seja equivalente a realmente estar nesse estado emocional. Veja a pergunta A simulação de estados emocionais é equivalente a realmente experimentar emoções? para mais discussão sobre este tópico.

Você pode argumentar, mas não funcionará realmente em um nível emocional, porque a maioria dos humanos sentiria empatia com a máquina. Pode ser difícil justificá-lo logicamente (e pode ser baseado nas tendências dos seres humanos de se envolverem no antropomorfismo ), mas sentimos essa empatia. Foi essa empatia que fez você fazer essa pergunta em primeiro lugar, levou os pesquisadores a descobrir como proteger um robô de ser espancado, permitiu que policiais prendessem um japonês bêbado por espancar um robô SoftBank e fizessem muitos humanos chateado com a destruição do hitchBOT . E isso écomo o abuso de IA seria evitado - empatia humana. Se a maioria dos humanos se preocupa com o bem-estar das máquinas, eles priorizam parar aqueles poucos humanos capazes e dispostos a abusar das máquinas.


EDIT: O OP editou sua pergunta para esclarecer que ele está falando sobre software , e não sobre robôs. Para os robôs, você pode confiar no antropomorfismo para produzir algum nível de simpatia, mas é difícil simpatizar com linhas de código brutas.

Você não vai parar o abuso de algoritmos. Francamente, como os algoritmos não são como nós, não vamos estender o mesmo tipo de empatia que teríamos aos robôs. Até os chatbots são meio duvidosos. Se você conseguir que as pessoas simpatizem com as linhas de código (possivelmente fazendo uma simulação convincente de emoção e sapiência), a resposta acima se aplica - os seres humanos antropomorfizam a máquina e apresentam contramedidas. Ainda não estamos nesse nível, portanto, "interromper o abuso de IA" será uma prioridade baixa.

Ainda assim, algumas falhas podem ser programadas para limitar o dano do abuso, conforme detalhado neste tópico sobre abuso de chatbot - fazendo o bot responder de uma maneira chata para fazer com que o agressor se sinta entediado e se mova para o próximo alvo, respondendo de volta ao agressor em uma "batalha de inteligência", ou mesmo apenas impedindo os agressores de usar o serviço.

Essas falhas são um conforto frio para aqueles que desejam impedir o abuso, e não responder a ele.

Além disso ... um agressor pode aprender como programar uma IA para abusar do conteúdo de seu coração. Nada pode ser feito para impedir isso, e quaisquer medidas possíveis para interromper o referido abuso (como monitorar todos os seres humanos para garantir que eles não programem uma IA para abuso) provavelmente causarão mais danos do que resolveriam.


TBH, isso realmente não responde à minha pergunta, eu acho, vou editar a questão um pouco mais.
Destrutível Lemon

11
@TariqAli Obrigado por este post. Eu desconhecia a questão das interações das crianças com os robôs sociais, que acho hilária e pungente. (Lembro-me de ser uma criança pequena na Disney World e "atacar" os personagens da Disney consumidos como Mickey Mouse por excesso de adoração.)
DukeZhou

6

Eu sugiro que você observe todas as maneiras pelas quais tentamos impedir que as pessoas abusem de OUTRAS PESSOAS. Não existe uma área cinza ética aqui - todo mundo está claro que isso está errado. E, no entanto, as pessoas são assassinadas, estupradas e agredidas aos milhões todos os dias.

Quando resolvemos esse problema com relação às vítimas humanas, a solução resultante provavelmente funcionará bem também para as IAs.


Eu estava pronto para dizer por que isso não se aplicava totalmente, mas você provavelmente está certo de qualquer maneira ...
Destructible Lemon

-1

A IA e a perspectiva externa agressiva não podem ser duplicadas, o programa não foi educado ou projetado como a nossa inteligência natural Os dados da AI não podem ser comparados à inteligência das Humanidades, de acordo com a procissão de pensamento emocional e social desenvolvida pelo crescimento da experiência, porque nosso design não é patenteado como a programação da IA ​​A vida duplicada pela teoria da engenharia, baseada apenas no exemplo, não será suficiente, a experiência é um conhecimento feito pelo homem, mas pela ação ao longo do tempo, não pela ação projetada sobre a engenharia de opinião, doutorado e emocional. No entanto AI pode usar nossa entrega emocional roteirizada conceitualmente com um software que, com base em exemplos de ações humanas, prediz respostas não naturais, no caso de diálogos ditados de um receptor humano reagindo sem responder, como se eles entendessem que o bot é artificialmente patenteado, projetado com base em nossa entrega emocional roteirizada à conversa, diagnosticaremos através de causa e efeito. Não é uma experiência razoável, precisamos que a IA se torne o robô emocional experiente, se a emoção da artificialidade distingue nossa validade. Em vez disso, veremos os resultados que obtemos para basear as características do software do programa que fazem o bot reagir à inteligência artificial experiente projetada conceitualmente com a mecânica emocional do software e não temos idéia dos resultados obtidos artificialmente.


2
1. Por favor, formate este post de forma melhor, 2. AI consciente é um axioma da pergunta, não a pergunta
Destructible Lemon
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.