Qual seria o objetivo do desenvolvimento de IAs que experimentam emoções humanas?


19

Em um artigo recente do Wall Street Journal , Yann LeCunn faz a seguinte declaração:

O próximo passo para alcançar a IA no nível humano é criar máquinas inteligentes - mas não autônomas. O sistema de IA do seu carro levará você para casa em segurança, mas não escolherá outro destino depois de entrar. A partir daí, adicionaremos unidades básicas, juntamente com emoções e valores morais. Se criarmos máquinas que aprendem tão bem quanto nossos cérebros, é fácil imaginá-las herdando qualidades humanas - e falhas.

Pessoalmente, geralmente assumi a posição de que falar sobre emoções para inteligências artificiais é bobagem, porque não haveria razão para criar IAs que experimentassem emoções. Obviamente Yann discorda. Portanto, a pergunta é: que fim seria servido com isso? Uma IA precisa de emoções para servir como uma ferramenta útil?


1
Possível duplicata de Por que alguém iria querer simular a tomada de decisão emocional dentro de uma IA? A resposta aceita ("Meh, será mais fácil para os programadores humanos manter os programas de IA".) Pode não ser emocionante ou maravilhosa, mas pelo menos parece semi-sensível e razoável.
Esquerda: SE Em 10_6_19

Há também uma possibilidade alternativa: não queremos necessariamente desenvolver IAs que experimentem emoções humanas (porque elas seriam imprevisíveis, teríamos de lhes dar direitos, blá, blá, blá), mas essas técnicas mais avançadas de IA (como aprendizado profundo) desenvolverá inadvertidamente IAs que experimentam emoções humanas. Não é que nós os queremos, é que eles possam vir de qualquer maneira. Os agentes de aprendizagem por reforço artificial são importantes moralmente? discute essa possibilidade.
Left SE On 10_6_19

Respostas:


11

A resposta a esta pergunta, ao contrário de muitas neste fórum, acho definitiva. Não. Não precisamos que as IAs tenham emoções para serem úteis, como podemos ver pela grande quantidade de AIs que já temos que são úteis.

Mas, para aprofundar a questão, não podemos realmente expressar as emoções da IA. Eu acho que o mais próximo que podemos chegar seria 'Podemos fazer com que essa IA atue da maneira que um humano faria se esse humano fosse insert emotion?'. Eu acho que, de certa forma, isso é ter emoção, mas essa é outra discussão.

E para que fim? A única razão imediata que vem à mente seria criar companheiros ou interações mais realistas, para fins de videogame ou outro entretenimento. Um objetivo justo,
mas longe de ser necessário. Mesmo considerando um robô de saudação imbuído de IA no saguão de algum edifício, provavelmente só queremos que ele seja cordial.

Yann diz que a IA super avançada levaria a qualidades e falhas mais humanas . Eu acho que é mais como 'daria às nossas AI mais qualidades humanas ou, em outras palavras, falhas'. As pessoas tendem a agir irracionalmente quando estão tristes ou com raiva e, na maioria das vezes, só queremos IA racional.
Errar é humano, como eles dizem.

O objetivo dos algoritmos de IA e de aprendizado é criar sistemas que agem ou "pensam" como seres humanos, mas melhor. Sistemas que podem se adaptar ou evoluir, enquanto bagunçam o mínimo possível. A IA emotiva tem usos, mas certamente não é um pré-requisito para um sistema útil.


5

Eu acho que a pergunta fundamental é: por que tentar construir uma IA? Se esse objetivo for claro, fornecerá clareza se o quociente emocional na IA faz ou não sentido. Algumas tentativas como "Paro", desenvolvidas por razões terapêuticas, exigem que elas apresentem emoções humanas. Mais uma vez, observe que "exibir" emoções e "sentir" emoções são duas coisas completamente diferentes.

Você pode programar algo como paro para modular os tons de voz ou os espasmos faciais para expressar simpatia, afeto, companheirismo ou qualquer outra coisa - mas, ao fazê-lo, um paro NÃO simpatiza com seu dono - simplesmente finge realizando as manifestações físicas de uma emoção. Nunca "sente" nada remotamente mais próximo do que essa emoção evoca no cérebro humano.

Portanto, essa distinção é realmente importante. Para você sentir alguma coisa, é preciso haver um sujeito autônomo independente que tenha capacidade de sentir. O sentimento não pode ser imposto por um agente humano externo.

Então, voltando à questão de qual propósito ele resolve - a resposta realmente é - depende. E o máximo que acho que conseguiremos com IAs à base de silicone continuará sendo o domínio apenas de representações físicas de emoções.


Eu tendem a concordar. E talvez meu pensamento seja muito limitado, mas a maioria das aplicações da IA ​​em que penso não se beneficiaria da emoção da AI. Bem, pelo menos acho que sim, sentado aqui agora. Talvez eu olhe para trás um dia e perceba que estava errado.
mindcrime

Exigir que a IA deva / deva ter emoções é uma expectativa equivocada. A IA é basicamente um conjunto de ferramentas e, portanto, sua aplicação também deve ser decidida com base nas necessidades. Alguns casos de uso podem exigir aspecto emocional, outros não. Quem sabe!
Kingz

4

Acho que as emoções não são necessárias para que um agente de IA seja útil. Mas também acho que eles poderiam tornar o agente MUITO mais agradável de se trabalhar. Se o bot com quem você está conversando pode ler suas emoções e responder de forma construtiva, a experiência de interagir com ele será tremendamente mais agradável, talvez espetacularmente.

Imagine entrar em contato hoje com um representante humano do call center com uma reclamação sobre sua fatura ou um produto. Você antecipa conflitos. Você pode até ter decidido NÃO ligar porque sabe que essa experiência será dolorosa, combativa ou frustrante, pois alguém entende mal o que você diz ou responde hostil ou estupidamente.

Agora imagine ligar para a pessoa de suporte ao cliente mais inteligente e focada que você já conheceu - Commander Data - cuja única razão de existir é tornar essa ligação o mais agradável e produtiva possível para você. Uma grande melhoria em relação à maioria dos representantes de chamadas, sim? Imagine, então, se o representante de chamadas Data também puder antecipar seu humor e responder adequadamente às suas reclamações para neutralizar seu estado emocional ... você gostaria de se casar com esse cara. Você telefonava para o representante de dados sempre que se sentia triste ou entediado ou queria compartilhar boas notícias. Esse cara se tornaria seu melhor amigo da noite para o dia - literalmente, amor à primeira chamada.

Estou convencido de que esse cenário é válido. Percebi em mim uma quantidade surpreendente de atração por personagens como Data ou Sonny de "I Robot". A voz é muito suave e me deixa instantaneamente à vontade. Se o bot também fosse muito inteligente, paciente, qualificado e compreensivo ... Eu realmente acho que esse bot, incorporado a uma dose saudável de inteligência emocional, poderia ser extremamente agradável para interagir. Muito mais gratificante do que qualquer pessoa que conheço. E acho que isso não é verdade só comigo.

Então, sim, acho que há um grande valor em ajustar a personalidade de um robô usando emoções e consciência emocional.


4

A emoção em uma IA é útil, mas não é necessária, dependendo do seu objetivo (na maioria dos casos, não é).

Em particular, o reconhecimento / análise de emoções é muito avançado e é usado em uma ampla variedade de aplicações com muito sucesso, desde professor de robôs para crianças autistas (veja robótica de desenvolvimento) a jogos de azar (poker) a agentes pessoais e análise de sentimentos / mentiras políticas.

A cognição emocional , a experiência de emoções para um robô, é muito menos desenvolvida, mas existem pesquisas muito interessantes (consulte Affect Heuristic , Probabilistic Love Assembly de Lovotics , e outras ...). De fato, não consigo entender por que não conseguimos modelar emoções como o amor, pois são apenas sinais que já podem ser cortados no cérebro humano (ver artigo de Brian D. Earp) . É difícil, mas não impossível, e na verdade existem vários robôs que reproduzem cognição emocional parcial.

Sou da opinião de que a afirmação de que "os robôs podem simular mas não sentir" é apenas uma questão de semântica , não de capacidade objetiva: por exemplo, um submarino nada como peixes nadam? No entanto, os aviões voam, mas nem um pouco como os pássaros. No final, o meio técnico realmente importa quando, no final, obtemos o mesmo comportamento? Podemos realmente dizer que um robô como Chappie , se alguma vez for fabricado, não sente nada como um simples termostato?

No entanto, qual seria o uso da cognição emocional para uma IA? Essa questão ainda está em grandes debates, mas ousarei oferecer minhas próprias idéias:

  1. Emoções em humanos (e animais!) São conhecidas por afetar memórias. Agora eles são bem conhecidos na neurociência como modalidades adicionais, ou meta-dados, se preferir, de memórias de longo prazo: permitem modular como a memória é armazenada, como é associada / relacionada a outras memórias e como será recuperada. .

  2. Como tal, podemos supor que o principal papel das emoções é adicionar meta-informações adicionais às memórias para ajudar na inferência / recuperação heurística. De fato, nossas memórias são enormes, há muitas informações que armazenamos ao longo da nossa vida; portanto, as emoções podem ser usadas como "rótulos" para ajudar a recuperar mais rapidamente as memórias relevantes.

  3. "Rótulos" semelhantes podem ser mais facilmente associados juntos (memórias de eventos assustadores juntos, memórias de eventos felizes juntos etc.). Como tal, eles podem ajudar na sobrevivência reagindo rapidamente e aplicando estratégias conhecidas (fugindo!) De estratégias assustadoras, ou para tirar o máximo proveito de situações benéficas (eventos felizes, coma o máximo que puder, ajudará a sobreviver mais tarde!). E, na verdade, os estudos de neurociência descobriram que existem caminhos específicos para estímulos sensoriais indutores de medo, de modo que eles atingem os atuadores mais rapidamente (fazem você fugir) do que passando pelo circuito somatossensorial habitual como todos os outros estímulos. Esse tipo de raciocínio associativo também pode levar a soluções e conclusões que não poderiam ser alcançadas de outra forma.

  4. Ao sentir empatia, isso poderia facilitar a interação robôs / seres humanos (por exemplo, drones ajudando vítimas de eventos catastróficos).

  5. Um modelo virtual de uma IA com emoções pode ser útil para a neurociência e a pesquisa médica em transtornos emocionais como modelos computacionais para entender e / ou inferir os parâmetros subjacentes (isso geralmente é feito, por exemplo, com Alzheimer e outras doenças neurodegenerativas, mas não sou se algum dia foi feito para distúrbios emocionais, pois são bastante novos no DSM).

Então, sim, a IA "fria" já é útil, mas a IA emocional certamente poderia ser aplicada a novas áreas que não poderiam ser exploradas usando apenas a IA fria. Certamente também ajudará a entender nosso próprio cérebro, pois as emoções são parte integrante.


2

Eu acho que isso depende da aplicação da IA. Obviamente, se eu desenvolver uma IA cujo objetivo é claramente realizar tarefas específicas sob a supervisão de humanos, não haverá necessidade de emoções. Mas se o objetivo da IA ​​é realizar tarefas autonomamente, emoções ou empatia podem ser úteis. Por exemplo, pense em uma IA que esteja funcionando no domínio médico. Aqui pode ser vantajoso para uma IA ter algum tipo de empatia, apenas para tornar os pacientes mais confortáveis. Ou como outro exemplo, pense em um robô que serve como babá. Novamente, é óbvio que emoções e empatia seriam vantajosas e desejáveis. Mesmo para um programa de IA de assistência (casa inteligente com palavras de ordem), emoções e empatia podem ser desejáveis ​​para tornar as pessoas mais confortáveis.

Por outro lado, se a IA está apenas trabalhando em uma linha de montagem, obviamente não há necessidade de emoções e empatia (pelo contrário, nesse caso, pode ser inútil).


2

IAs fortes

Para uma IA forte, a resposta curta é pedir ajuda, quando eles talvez nem saibam qual poderia ser a suposta ajuda.

Depende do que a IA faria. Se deveria resolver uma tarefa fácil de maneira perfeita e profissional, certas emoções não seriam muito úteis. Mas, se for para aprender coisas novas aleatórias, haveria um ponto em que encontraria algo que não conseguiria lidar.

No Lee Sedol x AlphaGo, partida 4, algum profissional que disse que o computador não tem emoções anteriormente, comentou que talvez o AlphaGo também tenha emoções e seja mais forte que o humano. Nesse caso, sabemos que o comportamento louco do AlphaGo não é causado por algumas coisas adicionadas deliberadamente chamadas "emoções", mas por uma falha no algoritmo. Mas ele se comporta exatamente como em pânico.

Se isso acontecer muito para uma IA. Pode haver vantagens se ele souber disso e pensar duas vezes se isso acontecer. Se o AlphaGo pudesse detectar o problema e mudar sua estratégia, ele poderia jogar melhor ou pior. Não é improvável que o jogo seja pior se ele não fizer nenhum cálculo para outras abordagens. Caso isso aconteça, podemos dizer que sofre de "emoções", e esse pode ser o motivo pelo qual algumas pessoas pensam que ter emoções pode ser uma falha dos seres humanos. Mas essa não seria a verdadeira causa do problema. A verdadeira causa é que simplesmente não conhece nenhuma abordagem para garantir a vitória, e a mudança de estratégia é apenas uma tentativa de resolver o problema. Os comentaristas acham que existem maneiras melhores (que também não garantem a vitória, mas tiveram mais chances), mas seu algoritmo não é ' Não é capaz de descobrir nesta situação. Mesmo para humanos, é improvável que a solução para qualquer coisa relacionada à emoção remova emoções, mas algum treinamento para garantir que você compreenda a situação o suficiente para agir com calma.

Então alguém tem que discutir se esse é um tipo de emoção ou não. Normalmente, não dizemos que pequenos insetos têm emoções humanas, porque não os compreendemos e não estamos dispostos a ajudá-los. Mas é fácil saber que alguns deles podem entrar em pânico em situações desesperadas, assim como o AlphaGo. Eu diria que essas reações são baseadas na mesma lógica e são pelo menos a razão pela qual emoções humanas podem ser potencialmente úteis. Eles simplesmente não são expressos de maneiras compreensíveis ao ser humano, pois não pretendiam chamar um humano para obter ajuda.

Se eles tentam entender seu próprio comportamento ou pedir ajuda a alguém, pode ser bom ser exatamente humano. Alguns animais de estimação podem sentir emoções humanas e expressar emoções compreensíveis aos humanos até certo ponto. O objetivo é interagir com os seres humanos. Eles evoluíram para ter essa capacidade porque precisavam dela em algum momento. Provavelmente, uma IA forte e completa também precisaria. Observe também que o oposto de ter emoções plenas pode estar ficando louco.

Provavelmente, é uma maneira rápida de perder qualquer confiança se alguém apenas implementar emoções que imitam os seres humanos com pouco entendimento imediatamente nas primeiras gerações.

IAs fracas

Mas há algum propósito para eles terem emoções antes que alguém quisesse uma IA forte? Eu diria que não, não há razões inerentes para que eles tenham emoções. Mas, inevitavelmente, alguém vai querer implementar emoções imitadas de qualquer maneira. Se "nós" precisamos que eles tenham emoções é apenas um absurdo.

O fato é que alguns programas sem inteligência continham elementos "emocionais" em suas interfaces de usuário. Eles podem parecer pouco profissionais, mas nem todas as tarefas precisam de profissionalismo para serem perfeitamente aceitáveis. Eles são como as emoções nas músicas e nas artes. Alguém também projetará sua IA fraca dessa maneira. Mas eles não são realmente as emoções dos AIs, mas os de seus criadores. Se você se sentir melhor ou pior por causa de suas emoções, não tratará as IAs de maneira tão diferente, mas esse modelo ou marca como um todo.

Como alternativa, alguém poderia plantar algumas personalidades, como num jogo de RPG lá. Novamente, não há uma razão pela qual eles devem ter isso, mas inevitavelmente alguém fará isso, porque obviamente eles tinham algum mercado quando um RPG.

Em ambos os casos, as emoções realmente não se originam da própria IA. E seria fácil de implementar, porque um humano não espera que ele seja exatamente como um humano, mas tenta entender o que eles pretendem dizer. Poderia ser muito mais fácil aceitar essas emoções percebendo isso.

Aspectos das emoções

Desculpe por postar algumas pesquisas originais aqui. Fiz uma lista de emoções em 2012 e da qual vejo 4 aspectos das emoções. Se todas elas forem implementadas, eu diria que são exatamente as mesmas emoções que os seres humanos. Eles não parecem reais se apenas alguns deles forem implementados, mas isso não significa que eles estejam completamente errados.

  • O motivo ou o problema lógico original que a IA não pode resolver. AlphaGo já tinha o motivo, mas nada mais. Se eu tiver que fazer uma definição precisa, diria que é o estado em que várias heurísticas igualmente importantes discordam umas das outras.
    • O contexto, ou qual parte da abordagem atual é considerada não funcionando bem e provavelmente deve ser substituída. Isso distingue tristeza, preocupação e paixão.
    • O estado atual, ou se sente liderança, ou se sua crença ou fato deve ficar ruim primeiro (ou ruim o tempo todo) se as coisas derem errado. Isso distingue tristeza, amor e orgulho.
  • O plano ou solicitação. Suponho que alguns animais domésticos já tivessem isso. E suponho que estes tivessem alguns padrões fixos que não são muito difíceis de ter. Até as artes podem contê-las facilmente. Ao contrário dos motivos, eles provavelmente não são inerentes a nenhum algoritmo, e vários deles podem aparecer juntos.
    • Quem supostamente tinha a responsabilidade se nada fosse mudado pela emoção. Isso distingue curiosidade, raiva e tristeza.
    • Qual é o plano suposto se nada é alterado pela emoção. Isso distingue decepção, tristeza e surpresa.
  • A fonte. Sem contexto, mesmo um humano não pode dizer com segurança que alguém está chorando por se emocionar ou agradecer, ou sorrindo por algum tipo de vergonha. Na maioria dos outros casos, não há palavras para descrevê-las. Não faz muita diferença se uma IA não distingue ou mostra isso especialmente. É provável que eles aprendam isso automaticamente (e imprecisa como humano) no momento em que aprendam a entender as línguas humanas.
  • As medidas, como a urgência ou a importância do problema, ou até a probabilidade das emoções serem verdadeiras. Eu diria que não pode ser implementado na IA. Os humanos não precisam respeitá-los, mesmo que sejam exatamente iguais aos humanos. Mas os humanos aprenderão como entender uma IA, se isso realmente importa, mesmo que eles não sejam como os humanos. Na verdade, eu sinto que algumas das emoções extremamente fracas (como pensar que algo é estúpido e chato demais que você não sabe comentar) existem quase que exclusivamente em emoticons, onde alguém pretende mostrar exatamente essa emoção e dificilmente perceptível na vida real ou em quaisquer cenários complexos. Supus que este também poderia ser o caso no início para IAs. Na pior das hipóteses, eles são inicialmente conhecidos como "emoções", já que os emoticons funcionam nesses casos.

Portanto, quando IAs fortes se tornam possíveis, nada disso seria inacessível, embora possa haver muito trabalho para fazer as conexões. Então, eu diria que, se houvesse necessidade de IAs fortes, elas absolutamente teriam emoções.


2

Por emoções, ele não pretende adicionar todo tipo de emoções a uma IA. Ele só quis dizer aqueles que serão úteis para tomar decisões vitais. Considere este incidente por um segundo:
suponha que um carro com auto drive de IA esteja dirigindo pela estrada. A pessoa que está lá dentro é o CEO de uma empresa e está atrasando muito o cronograma. Se ele não chegar a tempo, haverá perda de milhões de dólares. A AI no carro foi instruída a dirigir o mais rápido possível e chegar ao destino. E agora um coelho (ou outro animal) entra no caminho. Agora, se o carro acionar os freios de emergência, os passageiros serão gravemente feridos e haverá perda de milhões, já que o CEO não poderá chegar à reunião.

Agora, o que a IA fará?
Já que para uma IA, suas decisões são baseadas apenas emfunção de utilidade . Bater no coelho e seguir em frente mostrará logicamente uma opção melhor. Mas, se a IA tomar essa decisão.

Existem muitas perguntas como estas em que uma IA pode ficar presa a uma situação em que decisões morais terão um papel vital.
O cenário acima é apenas um exemplo de ponto de vista.


1

Teoria da mente

Se quisermos que uma IA geral forte funcione bem em um ambiente que consiste em humanos, seria muito útil ter uma boa teoria mental que corresponda ao modo como os humanos realmente se comportam. Essa teoria da mente precisa incluir emoções humanas, ou não corresponderá à realidade desse ambiente.

Para nós, um atalho frequentemente usado é explicitamente pensar "o que eu teria feito nessa situação?" "que evento poderia ter me motivado a fazer o que eles acabaram de fazer?" "como eu me sentiria se isso tivesse acontecido comigo ?". Queremos que uma IA seja capaz de tal raciocínio, é prática e útil, permite melhores previsões de ações futuras e mais eficazes.

Mesmo que seja melhor para a IA não ser realmente motivada por essas emoções exatas (talvez algo nessa direção seja útil, mas provavelmente não exatamente o mesmo), tudo muda isso ao invés de pensar "o que eu sentiria" deve ser capaz de hipotetizar o que um ser humano genérico sentiria. Isso requer a implementação de um subsistema capaz de modelar com precisão as emoções humanas.


1

Cuidado! Na verdade, existem duas partes na sua pergunta. Não confunda significados em suas perguntas, caso contrário você realmente não saberá qual parte está respondendo.

  1. Deveríamos deixar a AGI experimentar a emoção de acordo com a "experiência qualitativa"? (No sentido em que você sente "seu coração está pegando fogo" quando se apaixona)

Não parece haver um propósito claro sobre o motivo pelo qual queremos isso. Hipoteticamente, poderíamos ter algo que é funcionalmente indistinguível das emoções, mas que não possui nenhuma experiência qualitativa em relação à AGI. Mas não estamos em uma posição científica em que possamos começar a responder a quaisquer perguntas sobre as origens da experiência qualitativa, por isso não me incomodarei em aprofundar essa questão.

  1. Devemos deixar a AGI ter emoções, por sua equivalência funcional, de um observador externo?

IMHO sim. Embora se possa imaginar uma IA durona sem emoções fazendo o que você deseja, desejamos que ela possa se integrar aos valores e emoções humanas, que é o problema do alinhamento. Parece, portanto, natural supor que qualquer AGI bem-alinhado terá algo semelhante a emoções se se integrar bem aos seres humanos.

MAS, sem uma teoria mental clara, nem sequer faz sentido perguntar: "nossa AGI deve ter emoções?" Talvez haja algo crítico em nossas emoções que nos torne agentes cognitivos produtivos que qualquer AGI também exigiria.

De fato, as emoções são frequentemente um aspecto esquecido da cognição. De alguma forma, as pessoas pensam que personagens sem emoção de Spock são o auge da inteligência humana. Mas as emoções são realmente um aspecto crucial na tomada de decisões; consulte este artigo para um exemplo dos problemas com "inteligência sem emoções".

A pergunta seguinte seria "que tipo de emoções a AGI desenvolveria?", Mas novamente não estamos em posição de responder a isso (ainda).


0

Qual seria o objetivo do desenvolvimento de IAs que experimentam emoções humanas?

Qualquer problema complexo que envolva emoções humanas, em que a solução para o problema exija a capacidade de simpatizar com os estados emocionais dos seres humanos, será atendido com mais eficiência por um agente que possa simpatizar com as emoções humanas.

Política. Governo. Política e planejamento. A menos que a coisa tenha um conhecimento íntimo da experiência humana, ela não será capaz de fornecer respostas definitivas para todos os problemas que encontramos em nossa experiência humana.


A política e o argumento do governo que você fez foram um excelente exemplo. Minha perspectiva, no entanto, é que a IA precisa apenas ser capaz de entender a emoção e não necessariamente experimentá-la.
Seth Simba

0

As emoções humanas estão intrinsecamente ligadas aos valores humanos e à nossa capacidade de cooperar e formar sociedades.

Apenas para dar um exemplo fácil: você conhece um estranho que precisa de ajuda, sente empatia . Isso obriga a ajudá-lo a um custo para si mesmo. Vamos supor que na próxima vez que você o encontrar, você precisa de algo. Vamos supor também que ele não o ajude, você sentirá raiva . Essa emoção obriga a puni-lo, a um custo adicional para si mesmo. Ele, por outro lado, se não ajudar, sente vergonha . Isso o obriga a realmente ajudá-lo, evitando sua raiva e fazendo seu investimento inicial valer a pena. Vocês dois se beneficiam.

Portanto, essas três emoções mantêm um círculo de ajuda recíproca. Empatia para começar, raiva para punir desertores e vergonha para evitar a raiva. Isso também leva a um conceito de justiça.

Dado que o alinhamento de valores é um dos grandes problemas da AGI, as emoções humanas me parecem uma boa abordagem para as IAs que compartilham nossos valores e se integram perfeitamente à nossa sociedade.


pontos positivos, mas se você for pai, verá que as emoções são apenas atalhos para uma explicação lógica por que são ou não úteis. Regras podem ser derivadas de emoções e de nossa biologia. E essas regras são mantidas de forma comprimida e não óbvia, como emoções e biologia. Para nós, é necessário, mas não para ai, embora, para nós, possa funcionar como otimização para IA, se o custo dessa implementação em formato digital for menor que a implementação baseada em regras. Problema com regras é apenas um, nós mesmos não conhecê-los totalmente, mas tarefa AI é mais estreito, então o nosso, pode não precisar de muito regras
MolbOrg
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.