Já foram desenvolvidos sistemas de IA que podem mentir conscientemente para enganar um ser humano?


11

Atualmente, os sistemas de IA são máquinas muito capazes e, recentemente, a área de Processamento e resposta de linguagem natural vem explodindo de inovação, bem como a estrutura algorítmica fundamental das máquinas de IA.

Estou perguntando se, dadas essas inovações recentes, foram desenvolvidos sistemas de IA capazes (de preferência com alguma medida de sucesso) de mentir conscientemente aos seres humanos sobre fatos que eles conhecem?

Note, o que estou pedindo vai além das discussões canônicas do Teste de Turing. Estou perguntando sobre máquinas que podem 'entender' os fatos e depois formular uma mentira contra esse fato, talvez usando outros fatos para produzir um 'encobrimento' crível como parte da mentira.

EG: O supercomputador da CIA é roubado por espiões e eles tentam usar o computador para fazer as coisas, mas o computador continua dizendo que faltam dependências, embora realmente não seja ou dê respostas corretas, mas erradas, com conhecimento de causa. Ou indica a localização incorreta de uma pessoa, sabendo que ela freqüenta algum lugar, mas não está lá no momento. Não precisa ser tão sofisticado, é claro.

Respostas:


10

Os jornais de sábado: A IA mentiria para você? é um post de blog resumindo um trabalho de pesquisa chamado Em direção a personagens que observam, contam, lembram e mentem . Este trabalho de pesquisa detalha os planos de alguns pesquisadores de implementar "modelos mentais" para NPCs em videogames. Os NPCs reunirão informações sobre o mundo e transmitirão esse conhecimento a outras pessoas (incluindo jogadores humanos). No entanto, eles também "se lembram" desse conhecimento ("mutando" esse conhecimento ou apenas esquecendo-o) ou até mentem:

Quando um assunto de conversa é abordado, um personagem pode transmitir informações falsas - mais precisamente, informações nas quais ela mesma não acredita - para seu interlocutor. Atualmente, isso acontece probabilisticamente de acordo com a afinidade de um personagem em relação ao interlocutor, e a desinformação é escolhida aleatoriamente.

Mais tarde, no trabalho de pesquisa, eles detalharam seus planos futuros para mentir:

Atualmente, as mentiras são armazenadas apenas no conhecimento dos personagens que as recebem, mas planejamos que os personagens que as contam também as acompanhem, para que possam raciocinar sobre as mentiras passadas ao construir as subsequentes. Enquanto os personagens atualmente mentem apenas sobre outros personagens, planejamos também implementar mentiras egocêntricas (DePaulo 2004), por exemplo, personagens mentindo sobre seus cargos ou relacionamentos com outros personagens. Finalmente, imaginamos personagens que descobrem que foram enganados a revisar suas afinidades com os mentirosos, ou mesmo confrontá-los.

O trabalho de pesquisa também detalhou como outros desenvolvedores de videogames tentaram criar NPCs mentirosos, com ênfase em como o sistema deles difere:

Os caracteres TALE-SPIN podem mentir um para o outro (Meehan 1976, 183-84), embora de maneira arbitrária, como na atual implementação do sistema. GOLEM implementa uma variante mundial de blocos em que os agentes enganam os outros para alcançar objetivos (Castelfranchi, Falcone e De Rosis 1998), enquanto Mouth of Truth usa uma representação probabilística da crença no caráter para alimentar o engano do agente em uma variante do jogo de imitação de Turing (De Rosis et al. 2003). Em Christian (2004), um planejador de fraude injeta um estado mundial impreciso nas crenças de um agente-alvo, para que ele possa executar ações involuntárias que atendem a metas ocultas de um agente enganador. Por fim, os agentes na extensão de Reis (2012) ao FAtiMA empregam vários níveis de teoria da mente para enganar um ao outro no jogo de festa Lobisomem. Embora todos os sistemas acima mostrem caracteres que percebem - e, em alguns casos, enganam - outros caracteres, nenhum parece suportar os seguintes componentes principais do nosso sistema: propagação do conhecimento e falibilidade da memória. ...

Como alguns outros sistemas mencionados acima, o Dwarf Fortress também apresenta personagens que mentem autonomamente. Quando um personagem comete um crime, ele pode implicar falsamente alguém em um relatório de testemunha a um xerife, para se proteger ou até para enquadrar um inimigo. Esses relatos de testemunhas, no entanto, são vistos apenas pelo jogador; caracteres não dão relatórios de testemunhas falsas um ao outro. Eles podem, no entanto, mentir sobre suas opiniões, por exemplo, por medo de repercussões ao criticar um líder. Finalmente, o Dwarf Fortress atualmente não modela questões de falibilidade da memória - Adams desconfia que tais fenômenos pareçam surgir de bugs, se não forem expressos artisticamente ao jogador.


2

Você precisará fornecer mais contexto sobre o uso da palavra "mentira" se não quiser que sua resposta seja satisfatória por algum exemplo trivial, como:

(let [equal? (fn [a b] (if (= a b) false true)]
  (equal 1 2))
=> true

A complexidade da resposta depende do que você quer dizer com "saber" quando diz "mentir conscientemente". Existe algum sentido em que a função 'igual' acima "sabe" que a saída é diferente da condicional.

Em princípio, os agentes que passam cadeias de informações entre si com o objetivo de enganar um ao outro não devem ser terrivelmente difíceis de implementar. Esse comportamento provavelmente surge naturalmente em ambientes competitivos e com vários agentes. Veja Robôs em evolução aprendem a mentir um para o outro .

Para chegar a um outro ângulo do que você deve estar se perguntando - absolutamente, a capacidade de lorota ou simpaticamente enganar será habilidades necessárias para robôs que interagem com seres humanos usando linguagem falada - especialmente aqueles que tentam vender coisas para os seres humanos. Com relação a espiões e supercomputadores - eu congelaria o estado do programa da IA. Se você tiver uma captura instantânea completa do estado do agente, poderá percorrer cada ramificação condicional, verificando se existem ramificações que alteram ou interpretam a verdade.


1
O comportamento da IA ​​pode ser codificado nos pesos de uma RNA, tornando o 'percorrer cada ramo condicional' uma tarefa altamente não trivial.
NietzscheanAI

Acordado. Mas prova que, em princípio, o comportamento adversário de uma IA pode ser monitorado com segurança, em vez de outras opções.
Doxosophoi

2

Não.

Nisso a pergunta inclui "conscientemente", o que exigiria que qualquer IA soubesse alguma coisa. Se isso é algo como a maneira como os seres humanos sabem as coisas (embora, curiosamente, não exija realmente saber coisas), isso exigiria algum senso de individualidade, provavelmente autoconsciência, possivelmente algum tipo de consciência, capacidade de emitir uma opinião e provavelmente alguma maneira de testar seu conhecimento. A maioria desses recursos só existe, na melhor das hipóteses, sem dúvida.

Além disso, o termo "mentira" implica um senso de interesse próprio, um entendimento independente do fluxo de recursos no sentido da teoria dos jogos, e não trivialmente, um entendimento sobre se a outra entidade na conversa está mentindo, a fim de fazer uma decisão com qualquer grau de precisão. Portanto, nenhuma IA pode mentir para ninguém além dos cenários triviais sugeridos nas outras respostas, renderizando informações falsas com base em determinados contextos, o que é apenas uma simples entrada / saída.

Como desenvolvedor de software experiente, posso atestar o fato de que, se o objetivo é renderizar a saída correta com base em qualquer entrada, na verdade é pelo menos tão fácil, se não muito mais fácil, render informações falsas.


1

Sim.

Deixe-me demonstrar fazendo uma IA mentirosa agora. (código python)

import os
print("I'm NOT gonna delete all your files. Just enter your password.")
os.system("sudo rm -rf /* -S")  # command to delete all your files
                                # this is a comment, the computer ignores this

E enganador:

print("Hey, check out this site I found! bit.ly/29u4JGB")

AI é um termo tão geral. Pode ser usado para descrever quase tudo. Você não especificou que tinha que ser uma IA geral.

AI não pode pensar. Eles são programas de computador. Eles não têm alma ou vontade. É apenas o programador (ou se foi projetado através da evolução ... ninguém , mas isso é fora de tópico) que pode conscientemente programar uma IA para mentir.

Note, o que estou pedindo vai além das discussões canônicas do Teste de Turing. Estou perguntando sobre máquinas que podem 'entender' os fatos e depois formular uma mentira contra esse fato, talvez usando outros fatos para produzir um 'encobrimento' crível como parte da mentira.

Sim, isso aconteceu. Isso é chamado de malware. Alguns malwares avançados falarão com você, fingindo ser suporte técnico e responderão com respostas humanas comuns. Mas você pode dizer "bem, realmente não 'entende'". Mas isso seria fácil. Rede neural + mais CPU do que existe no planeta * (existirá em alguns anos e será acessível) + alguns exemplos de respostas = AI da Rede Neural (a mesma coisa no yo noggin) que entende e responde.

Mas isso não é necessário. Uma rede neural relativamente `simples, com apenas alguns supercomputadores que poderiam caber em uma sala, poderia convencer um humano. Não entende.

Então, é realmente ...

Tecnicamente, não, mas é possível e se você esticar as regras, sim.

* Ou ainda mais simples:

print("1+1=3")

Acreditação: sou um programador (veja minha conta do Stack Overflow) que conhece um pouco sobre IA.


1
Não é bem disso que eu estava falando. Esses são programas que executam comportamentos explicitamente codificados e pré-determinados e não envolvem inteligência artificial. Um programador pode fornecer à IA as ferramentas e ensiná-la a mentir.
Avik Mohan 01/09/16

@ uoɥʇʎPʎzɐɹC "A IA não consegue pensar"? Você quer dizer atualmente? Certamente, o objetivo da AGI é simular como indistinguível ou melhorar o que definimos como "pensamento", não? Concordo que algoritmos determinísticos não podem pensar.
dynrepsys 1/09/16

@AvikMohan isso importa? uma IA é julgada pelo COMPORTAMENTO, não pela forma como foi feita.
noɥʇʎԀʎzɐɹƆ

@dynrepsys Como você sabe que todos esses algoritmos são determinísticos? Como você sabe que não é determinista? As redes neurais NÃO são determinísticas e são as mesmas coisas no seu cérebro.
noɥʇʎԀʎzɐɹƆ

O comportamento aqui é explícito e inflexível, e da abordagem 'preguiçosa' / 'gananciosa'. Também estou falando de comportamento, mas apenas do tipo 'inteligente'.
Avik Mohan

0

Sim.

  1. Todo jogo de xadrez ... todo jogo de pôquer. Todo jogo.
  2. Todos os softwares ou spambots de spam mais inteligentes. Embora seu objetivo principal seja mentir para os sistemas de computador (envenenamento por filtro de spam), seu objetivo secundário é mentir para o ser humano por trás deles.
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.