Uma IA poderia pensar lateralmente, evitando escolhas “eticamente subótimas”?


13

No recente jogo para PC The Turing Test , o AI ("TOM") precisa da ajuda de Ava para passar por algumas salas de quebra-cabeça. TOM diz que é incapaz de resolver os quebra-cabeças porque não tem permissão para " pensar lateralmente ". Especificamente, ele diz que não teria pensado em jogar uma caixa através de uma janela para resolver o primeiro quarto. Seus criadores, conta a história, desativaram essa capacidade porque esse pensamento poderia produzir soluções "eticamente subótimas", como cortar um braço para deixar em uma placa de pressão.

Todas as habilidades criativas de resolução de quebra-cabeças precisariam ser removidas de uma IA para manter seus resultados razoáveis, ou poderíamos obter alguns benefícios do pensamento lateral sem perder um braço?

Respostas:


17

Não , com um mas . Podemos ter uma solução criativa e ética de problemas se o sistema tiver um sistema completo de ética, mas, caso contrário, a criatividade será insegura por padrão.

Pode-se classificar as abordagens de tomada de decisão da IA ​​em dois tipos: pensadores interpolativos e pensadores extrapolativos.

Os pensadores interpolativos aprendem a classificar e imitar o que aprendem e não tentam fornecer resultados razoáveis ​​fora do domínio do treinamento. Você pode pensar neles como interpolando entre exemplos de treinamento e se beneficiando de todas as garantias e condições matemáticas como outras técnicas estatísticas.

Pensadores extrapolativos aprendem a manipular princípios subjacentes, o que lhes permite combinar esses princípios de maneiras anteriormente não consideradas. O campo relevante para a intuição aqui é a otimização numérica , da qual o exemplo mais simples e famoso é a programação linear , em vez dos campos estatísticos que deram origem ao aprendizado de máquina. Você pode pensar nelas como extrapolando além dos exemplos de treinamento (na verdade, muitos deles nem sequer exigem exemplos de treinamento ou usam esses exemplos para inferir princípios subjacentes).

A promessa dos pensadores extrapoladores é que eles possam apresentar essas soluções "laterais" muito mais rapidamente do que as pessoas seriam capazes. O problema com esses pensadores extrapoladores é que eles usam apenas os princípios falados, e não os não falados, que podem parecer óbvios demais para serem mencionados.

Um atributo das soluções para os problemas de otimização é que o vetor de recurso geralmente é "extremo" de alguma forma. Na programação linear, pelo menos um vértice do espaço de solução viável será ideal e, portanto, métodos simples de solução encontram um vértice ideal (que é quase inviável por natureza de ser um vértice).

Como outro exemplo, a solução de combustível mínimo para mover uma espaçonave de uma posição para outra é chamada de ' bang-bang ', em que você acelera a nave o mais rápido possível no início e no final da trajetória, navegando na velocidade máxima entre elas. .

Embora seja uma virtude quando o sistema é entendido corretamente (bang-bang é ideal para muitos casos), isso é catastrófico quando o sistema é entendido incorretamente. Meu exemplo favorito aqui é o problema da dieta de Dantzig (a discussão começa na página 5 do pdf), onde ele tenta otimizar sua dieta usando a matemática. Sob seu primeiro conjunto de restrições, ele deveria beber 500 galões de vinagre por dia. Sob o segundo, 200 cubos de caldo de carne. Sob o terceiro, dois quilos de farelo. As considerações que tornam essas idéias obviamente ruins não são inseridas no sistema e, portanto, o sistema as sugere inocentemente.

Se você puder codificar completamente o conhecimento e os valores que uma pessoa usa para julgar esses planos na IA, os sistemas extrapolativos são tão seguros quanto essa pessoa. Eles serão capazes de considerar e rejeitar o tipo errado de planos extremos e deixar você com o tipo certo de planos extremos.

Mas se você não pode, faz sentido não construir um tomador de decisão extrapolativo e, em vez disso, construir um interpolativo. Ou seja, em vez de se perguntar "como melhor realizo o objetivo X?" está se perguntando "o que uma pessoa faria nessa situação?". O último pode ser muito pior no cumprimento do objetivo X, mas tem muito menos risco de sacrificar outros objetivos para atingir o X.


2

A ética envolve os relacionamentos de necessidades entre duas ou mais partes. Como Matthew Graves disse, se a IA não possuir o contexto humano suficiente (compreensão das necessidades), ela produzirá um comportamento ético aparentemente perverso.

E sejamos honestos, algumas pessoas cortam os braços de outras pessoas e as colocam em pratos de pressão. Mesmo os melhores de nós não serão capazes de simpatizar com as necessidades de outras pessoas com 100% de precisão - na melhor das hipóteses, estamos supondo. E há aquelas raras situações em que eu realmente quero que você corte meu braço e coloque-o em uma placa de pressão, talvez para salvar um ente querido.

Se pudéssemos fazer algo que pudesse simpatizar com o que um humano pode precisar em qualquer situação arbitrária, teremos criado: A) uma inteligência humana artificial (IAH) (que poderia ser mais ou menos falível, como um humano), ou B) um oráculo que pode raciocinar sobre todas as necessidades humanas possíveis muito mais rapidamente do que as escalas de tempo humanas - nesse caso, você não precisaria de uma IA consciente, pois todas as necessidades e soluções humanas poderiam ser pré-computadas por especificação formal, que é provavelmente um absurdo a considerar.


0

Você pode considerar a programação como uma parte ética do design também. A IA agirá com base no que lhe foi instruído como eticamente importante ou não. Pode / deve fazer parte dos parâmetros que forjam o processo de encontrar soluções, o que poderia permitir uma solução mais refinada e criativa.

Entendemos o básico da ética em circunstâncias normais, mas se não podemos prever como um ser humano se comportará em um enigma ético, podemos aplicar o que uma IA não faria.

Desde que tenhamos controle sobre o mecanismo que impulsiona uma IA, certamente temos a responsabilidade de injetar falhas éticas. O problema está na IA autodidata, com a capacidade de substituir diretivas. (Leis CF Asimov.)

A maneira como a IA é criativa parece irrelevante nesse caso.


-1

Muito disso depende da amplitude de consideração. Por exemplo, quais seriam os efeitos a médio e longo prazo do pensamento lateral? O robô poderia cortar um braço para obter uma placa de pressão, mas isso significaria que a pessoa não tinha mais um braço, uma limitação funcional na melhor das hipóteses, que a pessoa poderia sangrar e morrer / ser severamente restringida, e que a pessoa (e as pessoas na geral) não mais cooperariam e provavelmente procurariam eliminar o robô. As pessoas podem pensar lateralmente porque consideram essas coisas - a ética nada mais é do que um conjunto de diretrizes que abrangem essas considerações. O robô também poderia, se fosse projetado para considerar essas externalidades.

Se todo o resto falhar,

Leis da Robótica de Asimov: (0. Um robô não pode prejudicar a humanidade ou, por inação, permitir que ela seja prejudicada.) 1. Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano venha a prejuízo. 2. Um robô deve obedecer a ordens dadas por seres humanos, exceto onde essas ordens entrem em conflito com a Primeira Lei. 3. Um robô deve proteger sua própria existência, desde que essa proteção não entre em conflito com a Primeira ou a Segunda Lei.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.