O artigo Robô de espancar crianças inspira novo sistema de manobra de escape é baseado em dois trabalhos de pesquisa sobre um experimento em um shopping japonês que levou crianças não supervisionadas a atacar robôs. O artigo de pesquisa em que você está interessado é Escapar do abuso infantil de robôs sociais .
Nesse trabalho de pesquisa, os pesquisadores foram capazes de programar os robôs para seguir uma simulação de planejamento para reduzir a probabilidade de abuso por crianças. Se detectar crianças, o robô é programado para se refugiar em uma multidão de adultos (que podem disciplinar as crianças, se necessário). Isso aconteceu porque os pesquisadores viram que eram apenas as crianças que estavam espancando os robôs no shopping em questão.
Eles discutem experimentar outras opções:
Neste trabalho, a estratégia do robô para evitar abusos era "escapar", ou seja, mudar para um local onde é menos provável que ocorra abuso. Pode-se perguntar por que o robô não pode superar o abuso. Em nossos testes preliminares, tentamos várias abordagens, mas descobrimos que é muito difícil para o robô convencer as crianças a não abusar dele. Por exemplo, alteramos as palavras do robô de várias maneiras, usando palavras fortes, expressões emocionais ou educadas, mas nenhuma delas teve êxito. Uma estratégia parcialmente bem-sucedida foi o robô "fisicamente" empurrando as crianças. Quando seu caminho era bloqueado, ele tentava apenas continuar e se comportar como se colidisse com crianças e forçasse seu caminho (sob cuidadoso monitoramento de um operador humano). Observamos que as crianças a princípio aceitaram os pedidos do robô e os obedeceram; mas, muito em breve eles aprenderam que são mais fortes que o robô para poderem vencer se pressionarem e também que podem pará-lo pressionando o interruptor do para-choque (acoplado ao robô por segurança). Depois de perceber isso, eles apenas continuaram com o comportamento abusivo. Obviamente, ter um robô mais forte representaria um problema de segurança e aceitação social, portanto, lidar com essas situações abusivas permanece difícil.
Mas vamos interrogar mais a sua pergunta:
Se a IA consciente for possível e for disseminada, não seria fácil para alguém que sabe o que está fazendo para torturar a IA?
Por que você considera essa tortura errada ? Afinal, alguém poderia argumentar que a máquina não 'experimentará' realmente dor se você a torturar ... então deve ser moralmente bom torturá-la. Pode responder como se estivesse sofrendo, mas é duvidoso que a capacidade de simular um estado emocional como "sentir dor" seja equivalente a realmente estar nesse estado emocional. Veja a pergunta A simulação de estados emocionais é equivalente a realmente experimentar emoções? para mais discussão sobre este tópico.
Você pode argumentar, mas não funcionará realmente em um nível emocional, porque a maioria dos humanos sentiria empatia com a máquina. Pode ser difícil justificá-lo logicamente (e pode ser baseado nas tendências dos seres humanos de se envolverem no antropomorfismo ), mas sentimos essa empatia. Foi essa empatia que fez você fazer essa pergunta em primeiro lugar, levou os pesquisadores a descobrir como proteger um robô de ser espancado, permitiu que policiais prendessem um japonês bêbado por espancar um robô SoftBank e fizessem muitos humanos chateado com a destruição do hitchBOT . E isso écomo o abuso de IA seria evitado - empatia humana. Se a maioria dos humanos se preocupa com o bem-estar das máquinas, eles priorizam parar aqueles poucos humanos capazes e dispostos a abusar das máquinas.
EDIT: O OP editou sua pergunta para esclarecer que ele está falando sobre software , e não sobre robôs. Para os robôs, você pode confiar no antropomorfismo para produzir algum nível de simpatia, mas é difícil simpatizar com linhas de código brutas.
Você não vai parar o abuso de algoritmos. Francamente, como os algoritmos não são como nós, não vamos estender o mesmo tipo de empatia que teríamos aos robôs. Até os chatbots são meio duvidosos. Se você conseguir que as pessoas simpatizem com as linhas de código (possivelmente fazendo uma simulação convincente de emoção e sapiência), a resposta acima se aplica - os seres humanos antropomorfizam a máquina e apresentam contramedidas. Ainda não estamos nesse nível, portanto, "interromper o abuso de IA" será uma prioridade baixa.
Ainda assim, algumas falhas podem ser programadas para limitar o dano do abuso, conforme detalhado neste tópico sobre abuso de chatbot - fazendo o bot responder de uma maneira chata para fazer com que o agressor se sinta entediado e se mova para o próximo alvo, respondendo de volta ao agressor em uma "batalha de inteligência", ou mesmo apenas impedindo os agressores de usar o serviço.
Essas falhas são um conforto frio para aqueles que desejam impedir o abuso, e não responder a ele.
Além disso ... um agressor pode aprender como programar uma IA para abusar do conteúdo de seu coração. Nada pode ser feito para impedir isso, e quaisquer medidas possíveis para interromper o referido abuso (como monitorar todos os seres humanos para garantir que eles não programem uma IA para abuso) provavelmente causarão mais danos do que resolveriam.