IAs fortes
Para uma IA forte, a resposta curta é pedir ajuda, quando eles talvez nem saibam qual poderia ser a suposta ajuda.
Depende do que a IA faria. Se deveria resolver uma tarefa fácil de maneira perfeita e profissional, certas emoções não seriam muito úteis. Mas, se for para aprender coisas novas aleatórias, haveria um ponto em que encontraria algo que não conseguiria lidar.
No Lee Sedol x AlphaGo, partida 4, algum profissional que disse que o computador não tem emoções anteriormente, comentou que talvez o AlphaGo também tenha emoções e seja mais forte que o humano. Nesse caso, sabemos que o comportamento louco do AlphaGo não é causado por algumas coisas adicionadas deliberadamente chamadas "emoções", mas por uma falha no algoritmo. Mas ele se comporta exatamente como em pânico.
Se isso acontecer muito para uma IA. Pode haver vantagens se ele souber disso e pensar duas vezes se isso acontecer. Se o AlphaGo pudesse detectar o problema e mudar sua estratégia, ele poderia jogar melhor ou pior. Não é improvável que o jogo seja pior se ele não fizer nenhum cálculo para outras abordagens. Caso isso aconteça, podemos dizer que sofre de "emoções", e esse pode ser o motivo pelo qual algumas pessoas pensam que ter emoções pode ser uma falha dos seres humanos. Mas essa não seria a verdadeira causa do problema. A verdadeira causa é que simplesmente não conhece nenhuma abordagem para garantir a vitória, e a mudança de estratégia é apenas uma tentativa de resolver o problema. Os comentaristas acham que existem maneiras melhores (que também não garantem a vitória, mas tiveram mais chances), mas seu algoritmo não é ' Não é capaz de descobrir nesta situação. Mesmo para humanos, é improvável que a solução para qualquer coisa relacionada à emoção remova emoções, mas algum treinamento para garantir que você compreenda a situação o suficiente para agir com calma.
Então alguém tem que discutir se esse é um tipo de emoção ou não. Normalmente, não dizemos que pequenos insetos têm emoções humanas, porque não os compreendemos e não estamos dispostos a ajudá-los. Mas é fácil saber que alguns deles podem entrar em pânico em situações desesperadas, assim como o AlphaGo. Eu diria que essas reações são baseadas na mesma lógica e são pelo menos a razão pela qual emoções humanas podem ser potencialmente úteis. Eles simplesmente não são expressos de maneiras compreensíveis ao ser humano, pois não pretendiam chamar um humano para obter ajuda.
Se eles tentam entender seu próprio comportamento ou pedir ajuda a alguém, pode ser bom ser exatamente humano. Alguns animais de estimação podem sentir emoções humanas e expressar emoções compreensíveis aos humanos até certo ponto. O objetivo é interagir com os seres humanos. Eles evoluíram para ter essa capacidade porque precisavam dela em algum momento. Provavelmente, uma IA forte e completa também precisaria. Observe também que o oposto de ter emoções plenas pode estar ficando louco.
Provavelmente, é uma maneira rápida de perder qualquer confiança se alguém apenas implementar emoções que imitam os seres humanos com pouco entendimento imediatamente nas primeiras gerações.
IAs fracas
Mas há algum propósito para eles terem emoções antes que alguém quisesse uma IA forte? Eu diria que não, não há razões inerentes para que eles tenham emoções. Mas, inevitavelmente, alguém vai querer implementar emoções imitadas de qualquer maneira. Se "nós" precisamos que eles tenham emoções é apenas um absurdo.
O fato é que alguns programas sem inteligência continham elementos "emocionais" em suas interfaces de usuário. Eles podem parecer pouco profissionais, mas nem todas as tarefas precisam de profissionalismo para serem perfeitamente aceitáveis. Eles são como as emoções nas músicas e nas artes. Alguém também projetará sua IA fraca dessa maneira. Mas eles não são realmente as emoções dos AIs, mas os de seus criadores. Se você se sentir melhor ou pior por causa de suas emoções, não tratará as IAs de maneira tão diferente, mas esse modelo ou marca como um todo.
Como alternativa, alguém poderia plantar algumas personalidades, como num jogo de RPG lá. Novamente, não há uma razão pela qual eles devem ter isso, mas inevitavelmente alguém fará isso, porque obviamente eles tinham algum mercado quando um RPG.
Em ambos os casos, as emoções realmente não se originam da própria IA. E seria fácil de implementar, porque um humano não espera que ele seja exatamente como um humano, mas tenta entender o que eles pretendem dizer. Poderia ser muito mais fácil aceitar essas emoções percebendo isso.
Aspectos das emoções
Desculpe por postar algumas pesquisas originais aqui. Fiz uma lista de emoções em 2012 e da qual vejo 4 aspectos das emoções. Se todas elas forem implementadas, eu diria que são exatamente as mesmas emoções que os seres humanos. Eles não parecem reais se apenas alguns deles forem implementados, mas isso não significa que eles estejam completamente errados.
- O motivo ou o problema lógico original que a IA não pode resolver. AlphaGo já tinha o motivo, mas nada mais. Se eu tiver que fazer uma definição precisa, diria que é o estado em que várias heurísticas igualmente importantes discordam umas das outras.
- O contexto, ou qual parte da abordagem atual é considerada não funcionando bem e provavelmente deve ser substituída. Isso distingue tristeza, preocupação e paixão.
- O estado atual, ou se sente liderança, ou se sua crença ou fato deve ficar ruim primeiro (ou ruim o tempo todo) se as coisas derem errado. Isso distingue tristeza, amor e orgulho.
- O plano ou solicitação. Suponho que alguns animais domésticos já tivessem isso. E suponho que estes tivessem alguns padrões fixos que não são muito difíceis de ter. Até as artes podem contê-las facilmente. Ao contrário dos motivos, eles provavelmente não são inerentes a nenhum algoritmo, e vários deles podem aparecer juntos.
- Quem supostamente tinha a responsabilidade se nada fosse mudado pela emoção. Isso distingue curiosidade, raiva e tristeza.
- Qual é o plano suposto se nada é alterado pela emoção. Isso distingue decepção, tristeza e surpresa.
- A fonte. Sem contexto, mesmo um humano não pode dizer com segurança que alguém está chorando por se emocionar ou agradecer, ou sorrindo por algum tipo de vergonha. Na maioria dos outros casos, não há palavras para descrevê-las. Não faz muita diferença se uma IA não distingue ou mostra isso especialmente. É provável que eles aprendam isso automaticamente (e imprecisa como humano) no momento em que aprendam a entender as línguas humanas.
- As medidas, como a urgência ou a importância do problema, ou até a probabilidade das emoções serem verdadeiras. Eu diria que não pode ser implementado na IA. Os humanos não precisam respeitá-los, mesmo que sejam exatamente iguais aos humanos. Mas os humanos aprenderão como entender uma IA, se isso realmente importa, mesmo que eles não sejam como os humanos. Na verdade, eu sinto que algumas das emoções extremamente fracas (como pensar que algo é estúpido e chato demais que você não sabe comentar) existem quase que exclusivamente em emoticons, onde alguém pretende mostrar exatamente essa emoção e dificilmente perceptível na vida real ou em quaisquer cenários complexos. Supus que este também poderia ser o caso no início para IAs. Na pior das hipóteses, eles são inicialmente conhecidos como "emoções", já que os emoticons funcionam nesses casos.
Portanto, quando IAs fortes se tornam possíveis, nada disso seria inacessível, embora possa haver muito trabalho para fazer as conexões. Então, eu diria que, se houvesse necessidade de IAs fortes, elas absolutamente teriam emoções.