Por que precisamos de bom senso na IA?


10

Vamos considerar este exemplo:

É aniversário do John, vamos comprar uma pipa para ele.

Nós, humanos, provavelmente diríamos que a pipa é um presente de aniversário, se perguntado por que está sendo comprada; e nos referimos a esse raciocínio como senso comum .

Por que precisamos disso em agentes artificialmente inteligentes? Eu acho que isso poderia causar uma infinidade de problemas, já que muitos de nossos erros humanos são causados ​​por essas vagas suposições.

Imagine uma IA ignorando fazer certas coisas porque assume que já foi feita por outra pessoa (ou outra AI), usando seu bom senso.

Isso não traria erros humanos nos sistemas de IA?


Comentários não são para discussão prolongada; esta conversa foi movida para o bate-papo .
nbro

Respostas:


16

O conhecimento do senso comum é o conjunto de premissas que todos, em um determinado contexto (portanto, o conhecimento do senso comum pode ser uma função do contexto), dão como certo. Haveria muitas falhas de comunicação entre um humano e uma IA se a IA não possuísse conhecimento de senso comum. Portanto, o conhecimento do senso comum é fundamental para a interação humano-AI .

Também existem premissas que todo ser humano dá como certo independentemente do país, cultura ou, em geral, contexto. Por exemplo, todo ser humano (quase desde o seu nascimento) tem um mecanismo para raciocinar sobre a física ingênua, como espaço, tempo e interações físicas. Se uma IA não possuir esse conhecimento, não poderá executar as tarefas que exigem esse conhecimento.

Acredita-se que qualquer tarefa que exija que uma máquina possua conhecimento do senso comum (de um ser humano médio ) seja AI-completa , ou seja, requer inteligência em nível humano (ou geral). Veja a seção 3 do artigo Common Sense Knowledge (2009), de Christian Andrich, Leo Novosel e Bojan Hrnkas.

Obviamente, os problemas que surgem enquanto os humanos se comunicam por causa de diferentes suposições ou premissas também podem surgir entre humanos e IAs (que possuem conhecimento de bom senso).


Comentários não são para discussão prolongada; esta conversa foi movida para o bate-papo .
nbro

10

Precisamos desse tipo de conhecimento de bom senso, se queremos que os computadores entendam a linguagem humana. É fácil para um programa de computador analisar a estrutura gramatical do exemplo que você dá, mas, para entender seu significado, precisamos conhecer os contextos possíveis, que é o que você chama de "senso comum" aqui.

Isso foi enfatizado muito em Roger Schank et al. trabalha na compreensão computadorizada de histórias e leva a muitas pesquisas sobre representação do conhecimento, scripts, planos, objetivos. Um exemplo do trabalho de Schank é que Mary estava com fome. Ela pegou um guia Michelin. - isso parece não-sequitur: se você está com fome, por que pegar um livro? Até você perceber que é um guia de restaurantes e que Mary provavelmente está planejando ir a um restaurante para comer. Se você sabe que ir a um restaurante é uma solução potencial para o problema de ter fome, não há problema em entender esse fragmento de história.

Qualquer história precisa de bom senso para ser entendida, porque nenhuma história é completamente explícita. Coisas comuns são "entendidas" e não são explicitamente mencionadas. Histórias dizem respeito à experiência humana, e uma história que tornaria tudo explícito provavelmente seria lida como um programa de computador. Você também precisa de bom senso para entender como os personagens de uma história se comportam e como eles são afetados pelo que está acontecendo. Novamente, isso é muito subjetivo, mas é necessário. Algum senso comum pode ser geralmente aplicável, outros aspectos não serão. É uma questão complexa, e é por isso que os pesquisadores lutam com ela há pelo menos meio século de pesquisa em IA.

Claro que isso introduziria "erros humanos" em um sistema de IA. Tudo isso é muito subjetivo e específico da cultura. Ir a um restaurante nos EUA é diferente de ir a um na França - é por isso que ir ao exterior pode ser um desafio. E minha leitura de uma história provavelmente será diferente da sua. Mas se você deseja simular a inteligência humana, não pode fazer isso sem "erros" em potencial.


Comentários não são para discussão prolongada; esta conversa foi movida para o bate-papo .
nbro

2

Vou responder a essa pergunta em várias partes:

Por que os sistemas AGI precisam ter bom senso?

Os seres humanos na razão selvagem e se comunicam usando o senso comum mais do que com a lógica estrita, você pode ver isso observando que é mais fácil apelar para a emoção de alguém do que a lógica. Portanto, qualquer sistema que procure replicar a cognição humana (como na AGI) também deve replicar essa tendência a usar o bom senso.

Em termos mais simples, gostaríamos que nosso sistema AGI pudesse falar conosco na linguagem do senso comum, simplesmente porque é isso que entendemos melhor (caso contrário, não entenderíamos nosso AGI amigável, entenderíamos?). A teoria obtusa e a lógica estrita podem tecnicamente estar corretas, mas não apelam ao nosso entendimento.

O objetivo da AGI não é criar o sistema mais cognitivamente avançado? Por que o sistema AGI "mais perfeito" precisa lidar com essas imperfeições e imprecisões presentes no senso comum?

Primeiro, pode parecer que a lógica do senso comum é "irracional". Talvez exista uma maneira matemática consistente de modelar o senso comum, de modo que todas as sutilezas do senso comum sejam representadas de maneira rigorosa.

Segundo, o estudo inicial da Inteligência Artificial começou no estudo da ciência cognitiva, onde os pesquisadores tentaram replicar "algoritmos da mente", ou mais precisamente: procedimentos decidíveis que replicavam o pensamento humano. Nesse sentido, o estudo da IA ​​não é criar o "agente cognitivo mais supremo", mas apenas replicar o pensamento / comportamento humano. Uma vez que podemos replicar o comportamento humano, talvez possamos tentar criar algo super-humano, dando-lhe mais poder computacional, mas isso não é garantido.

Ainda não vejo por que o senso comum é necessário nos sistemas AGI. A AGI não é ser o sistema computacional mais inteligente e poderoso? Por que deveria se importar ou se adaptar aos limites da compreensão humana, que requer bom senso?

Talvez você tenha um pouco de entendimento desalinhado do que a AGI implica. AGI não significa poder computacional ilimitado (fisicamente impossível devido a restrições físicas na computação, como o limite de Bremermann ) ou inteligência ilimitada (talvez fisicamente impossível devido à restrição anterior). Geralmente significa apenas "inteligência geral" artificial, significado geral amplo e comum.

Considerações sobre agentes ilimitados são estudadas com mais detalhes em campos como ciência da computação teórica (teoria dos tipos, acredito), teoria da decisão e talvez até teoria dos conjuntos, onde somos capazes de colocar questões sobre agentes com poder computacional ilimitado. Poderíamos dizer que existem perguntas que mesmo um sistema AGI com poder ilimitado não pode responder devido ao Problema de Parada , mas apenas se as suposições nesses campos mapearem a estrutura do AGI fornecido, o que pode não ser verdade.

Para uma melhor compreensão do que a AGI pode acarretar e de seus objetivos, recomendo dois livros: Inteligência Artificial: A Muito Idéia de John Haugeland para uma abordagem mais pragmática (por mais pragmática que a filosofia da IA ​​possa ser) e On the Origin of Objects by Brian Cantwell Smith por uma abordagem mais filosoficamente inclinada.

Como uma parte divertida à parte, a coleção de Zen koan's: The Gateless Gate, inclui a seguinte passagem: (citada e editada na wikipedia )

Um monge perguntou a Zhaozhou, um mestre zen chinês: "Um cachorro tem natureza de Buda ou não?" Zhaozhou respondeu: "Wú"

Wú (無) é traduzido como "none", "nonesuch" ou "nothing", que pode ser interpretado para evitar responder sim ou não. Esse indivíduo esclarecido não procura responder estritamente a todas as perguntas, mas apenas responder de uma maneira que faça sentido. Realmente não importa se o cão tem ou não a natureza búdica (o que quer que a natureza búdica signifique), então o mestre decide absolver a questão em vez de resolvê-la.


3
Teria sido muito mais engraçado se o mestre tivesse respondido "wuf wúf!"
M3characters 9/07/19

1

Talvez ajude a dar um exemplo do que pode dar errado sem senso comum: no início do romance "As Duas Faces do Amanhã", de James Hogan, um supervisor de construção da Lua registra uma solicitação em um sistema automatizado, pedindo que um grande equipamento específico de construção seja entregue ao local o mais rápido possível. O sistema responde que chegará em vinte minutos. Vinte minutos depois, o supervisor é morto quando o equipamento colide com o canteiro de obras. O sistema determinou que a maneira mais rápida de entregar o equipamento naquele local era montá-lo em um driver de massa e iniciá-lo no local. Se o sistema em questão tivesse dado bom senso, teria inferido restrições adicionais não declaradas na consulta, como 'o equipamento deve chegar intacto' '' a chegada do equipamento não deve causar danos ou perda de vidas 'e assim por diante. (o restante do romance descreve um experimento desenvolvido para produzir um novo sistema com bom senso)


Exemplo bastante interessante. No entanto, talvez pudesse ser o contrário. Imagine uma IA verificando um paciente e, vendo a aparência normal geral do paciente, conclua que o paciente pode / deve estar bem (com base no senso comum de que se você estiver bem, provavelmente estará); no entanto, o paciente precisa de ajuda séria. No entanto, acho que agora está claro que o senso comum não é o problema, é um senso / conhecimento defeituoso que pode vir a ser perigoso em situações críticas. Então acho que devemos controlar e garantir que a IA tenha um bom senso impecável .
Titan

0

Isso é senso comum ou é linguagem natural?

Dizem que o entendimento da linguagem natural é uma das tarefas mais difíceis da IA. Este é um dos exemplos que mostram o porquê. A primeira parte da frase está relacionada à segunda parte, que funciona como as frases.

Agora, a questão relevante é como as duas partes estão relacionadas. Existem algumas relações padrão que encontramos, por exemplo, uma ordem temporal. Neste exemplo específico, a natureza da relação está mais próxima de uma causa e efeito.

Você vê esse efeito quando inserimos uma palavra para tornar essa relação explícita:

É aniversário do John, então vamos comprar uma pipa para ele. ou Vamos comprar uma pipa para o John, porque é o aniversário dele.

Essa é uma técnica para os humanos explicitarem essas relações implícitas.

Agora, como observa curiosodannii, você também precisa do conhecimento cultural para entender como um aniversário pode ser a causa de um presente. Nenhuma quantidade de bom senso ajuda nisso.


Nós usamos o " senso comum ", temos que entender uma frase como essa. PNL é realmente difícil, eu concordo, e isso é porque, até agora, a IA não possuía esse conhecimento abrangente e modelo do mundo que nós, humanos, temos; portanto, falta ligar os pontos e entender essas relações implícitas. Esse " conhecimento cultural " que você mencionou é basicamente considerado nosso senso comum.
Titan
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.