Por que Stephen Hawking diz que “a inteligência artificial matará todos nós”? [fechadas]


10

Esta citação de Stephen Hawking está nas manchetes há algum tempo:

A inteligência artificial pode acabar com a humanidade quando ficar inteligente demais, pois os humanos serão como formigas.

Por que ele diz isso? Simplificando, em termos leigos: quais são as possíveis ameaças da IA? Se sabemos que a IA é tão perigosa, por que ainda a estamos promovendo? Por que não é proibido?

Quais são as consequências adversas da chamada Singularidade Tecnológica ?


1
Talvez essa pergunta possa ser reformulada para uma questão sobre a possibilidade de singularidade tecnológica?
Rob Murray

1
@ R.Murray editar e adicionar o seu ponto para o corpo ...
tatan

2
Sinto muito, mas voto negativo de mim. Por favor, faça perguntas respondidas em vez de perguntas especulativas. Quero dizer "Por que Stephen Hawking diz que" a inteligência artificial vai matar todos nós "?". O que você espera que seja a resposta certa ? Precisamos de perguntas técnicas desde o início da versão beta para atrair especialistas, e não qualquer pessoa que possua conhecimentos básicos lendo algumas páginas da Wikipedia. Mais uma vez citando: "Por que Stephen Hawking diz que" Inteligência Artificial matará todos nós "?". Eu não acho que nenhuma experiência seja necessária para responder a isso. Desculpe se me pareceu rude no meu pequeno discurso: P
Rushat Rai

A pergunta é melhor após a edição, mas seria bom reduzir o número de perguntas que estão sendo feitas de uma só vez. Por exemplo, você pode perguntar "Como a IA poderia acabar com a humanidade?" (como você parece estar fazendo), mas por que ainda está sendo pesquisado intensamente é uma questão diferente.
Ben N

2
Eu acho que a pergunta no título não é uma pergunta ruim. Tem uma resposta, porque está perguntando sobre o que Stephen Hawking pensa. As outras perguntas no corpo são diferentes disso e devem ser removidas. Eu concordo que embora este não é o tipo de pergunta que iria atrair especialistas
Harsh

Respostas:


5

Não é apenas Hawking, você ouve variações desse refrão de muitas pessoas. E como são pessoas muito inteligentes, educadas e bem informadas (Elon Musk é outro, por exemplo), provavelmente não deve ser descartado de imediato.

De qualquer forma, a idéia básica parece ser a seguinte: se criarmos inteligência artificial "real", em algum momento, ela poderá melhorar a si mesma, o que melhora sua capacidade de melhorar a si mesma, o que significa que pode melhorar sua capacidade de melhorar a si mesma, mesmo mais, e assim por diante ... uma cascata descontrolada que leva à "inteligência sobre-humana". Ou seja, levando a algo que é mais inteligente do que o nosso.

Então, o que acontece se houver uma entidade neste planeta que seja literalmente mais inteligente que nós (humanos)? Seria uma ameaça para nós? Bem, certamente parece razoável especular que poderia ser assim. OTOH, não temos nenhuma razão particular, neste momento, a pensar que vai assim.

Parece que Hawking, Musk, etc. estão chegando ao lado mais cauteloso / medroso das coisas. Como não sabemos se uma IA sobre-humana será perigosa ou não, e como seria incontrolável se tornasse malicioso (lembre-se, é mais inteligente do que nós!), É uma coisa razoável a se levar em consideração.

Eliezer Yudkowsky também escreveu bastante sobre esse assunto, incluindo o famoso experimento "AI Box". Acho que qualquer pessoa interessada neste tópico deve ler parte de seu material.

http://www.yudkowsky.net/singularity/aibox/


1
Eu acho que a IA Box é realmente uma má introdução ao risco de IA; ele tem como alvo uma pequena parte específica da explicação, que é "como alguém pode ser convencido a deixar uma IA fora da caixa?". Para alguém que acha que vale a pena usar a IA, eles já decidiram que vale a pena deixar de fora da caixa. A tese da ortogonalidade é provavelmente o melhor lugar para começar, eu acho.
Matthew Graves

Justo. Por acaso, estou mais familiarizado com os escritos de Yudkowsky. Certamente não pretendo diminuir a importância de outros trabalhos sobre esse assunto.
mindcrime

4

Como ele ainda não sabia a que distância está a IA atual ... Trabalhando em um laboratório de mídia, recebo muito essa pergunta. Mas realmente ... ainda estamos muito longe disso. Os robôs ainda fazem tudo o que descrevemos detalhadamente. Em vez de ver o robô como inteligente, eu procuraria no programador humano onde a criatividade realmente acontece.


A avaliação da honestidade do estado da pesquisa é um dos pilares para o progresso. Obrigado. Concordo.
FauChristian

3

Simplificando, em termos leigos, quais são as possíveis ameaças da IA?

Atualmente, não há ameaça.

A ameaça surge se os humanos criarem a chamada máquina ultrainteligente, uma máquina que pode superar todas as atividades intelectuais de qualquer humano. Esta seria a última invenção que o homem precisaria fazer, já que esta máquina é melhor em inventar máquinas do que os humanos (já que essa é uma atividade intelectual). No entanto, isso pode fazer com que a máquina invente máquinas que podem destruir seres humanos, e não podemos detê-los porque são muito mais inteligentes do que nós.

Tudo isso é hipotético, ninguém tem nem ideia de como é uma máquina ultra-inteligente.

Se sabemos que a IA é tão perigosa, por que ainda a estamos promovendo? Por que não é proibido?

Como eu disse antes, a existência de uma máquina ultrainteligente é hipotética. A Inteligência Artificial tem muitas aplicações úteis (mais do que esta resposta pode conter) e, se a desenvolvermos, obteremos ainda mais aplicações úteis. Só precisamos ter cuidado para que as máquinas não nos ultrapassem.


3

Como Andrew Ng disse , se preocupar com essa ameaça da IA ​​é como se preocupar com a superpopulação em Marte. É ficção científica.

insira a descrição da imagem aqui

Dito isto, dada a ascensão de robôs (muito mais fracos) e outros agentes (semi) autônomos, os campos do direito e da ética estão cada vez mais incorporando-os, por exemplo, ver Roboética .


3

Há uma série de recursos de longo para responder a este tipo de pergunta: considere o livro de Stuart Armstrong mais esperto do que nós , o livro de Nick Bostrom Superinteligência , que cresceu a partir desta resposta edge.org , a explicação de Tim Urban , ou a explicação de Michael Cohen .

Mas aqui está a minha resposta (um pouco mais curta): a inteligência tem tudo a ver com a tomada de decisões, e não temos nenhuma razão para acreditar que os humanos estejam perto de serem os melhores possíveis na tomada de decisões. Assim que formos capazes de construir um pesquisador de IA de IA (ou seja, um computador que saiba melhorar o raciocínio dos computadores), a relevância econômica e militar dos seres humanos desaparecerá rapidamente, pois qualquer decisão que possa ser tomada por um humano pode ser tomada. melhor por um computador. (Por que ter generais humanos em vez de generais de robôs, engenheiros humanos em vez de engenheiros de robôs e assim por diante.)

Isso não é necessariamente uma catástrofe. Se os vulcanos aparecessem amanhã e trouxessem melhores decisões à Terra, poderíamos evitar muita miséria. O difícil é garantir que os vulcanos que nos querem por perto e felizes, em vez de algo que não compartilhe nossos valores.


3

Ele diz isso porque pode acontecer. Se algo se torna mais inteligente que nós, por que continuaria a nos servir? O pior cenário é que ele assume todos os processos de fabricação e consome toda a matéria para convertê-la em material capaz de computação, estendendo-se infinitamente até que toda a matéria seja consumida.

Sabemos que a IA é perigosa, mas não importa, porque a maioria das pessoas não acredita nela. Isso vai contra todo conforto que a religião tem a oferecer. O homem é o fim de tudo que existe no universo e, se esse fato for contestado, as pessoas se sentirão deslocadas e sem propósito.

O fato é que a maioria das pessoas simplesmente não reconhece que isso é possível ou que isso acontecerá em nossas vidas, mesmo que muitos especialistas respeitáveis ​​em IA colocem a ocorrência da singularidade em duas décadas. Se as pessoas realmente reconhecessem que a IA mais inteligente do que era possível, elas não viveriam de maneira diferente? Eles não gostariam de fazer as coisas de que gostam, sabendo que o que quer que façam e que temam serão automatizados? Todo mundo não estaria pedindo uma renda básica universal?

A outra razão pela qual não a proibimos é porque sua promessa é tão grande. Um pesquisador pode ser aumentado por 1.000 assistentes de pesquisa digital. Todo o trabalho manual pode ser automatizado. Pela primeira vez, a tecnologia nos oferece liberdade real para fazer o que quisermos.

Mas mesmo nesse melhor cenário em que não nos ultrapassa, os humanos ainda precisam se adaptar e alterar seu sistema econômico para um em que o trabalho não seja necessário. Caso contrário, aqueles que não são treinados tecnicamente morrerão de fome e se revoltarão.


Você tem um molho para isso -> "Os especialistas em IA colocam a ocorrência da singularidade dentro de duas décadas" , por favor? ;)
Daniel

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.