Poderia haver ameaças existenciais à humanidade devido à IA?


9

Estamos fazendo pesquisas, gastando horas descobrindo como podemos fazer com que o software de IA (agentes inteligentes) real funcione melhor. Também estamos tentando implementar algumas aplicações, por exemplo, em negócios, saúde e educação, usando a tecnologia de IA.

No entanto, até agora, a maioria de nós ignorou o lado "sombrio" da inteligência artificial. Por exemplo, uma pessoa "antiética" poderia comprar milhares de drones baratos, armá-los com armas e dispará-los contra o público. Essa seria uma aplicação "antiética" da IA.

Poderia haver (no futuro) ameaças existenciais à humanidade devido à IA?


Qualquer tecnologia tem o potencial de ser uma ameaça existencial para a humanidade.
Ankur

Respostas:


2

Eu definiria inteligência como uma capacidade de prever o futuro. Portanto, se alguém é inteligente, ele pode prever alguns aspectos do futuro e decidir o que fazer com base em suas previsões. Portanto, se uma pessoa "inteligente" decide ferir outras pessoas, pode ser muito eficaz nisso (por exemplo, Hitler e sua equipe).

A inteligência artificial pode ser extremamente eficaz na previsão de alguns aspectos de futuro incerto. E este IMHO leva a dois cenários negativos:

  1. Alguém o programa para machucar pessoas. Por engano ou de propósito.
  2. A inteligência artificial será projetada para fazer algo seguro, mas em algum momento, para ser mais eficaz, ela se redesenhará e talvez remova obstáculos do caminho. Portanto, se os humanos se tornarem obstáculos, eles serão removidos muito rapidamente e de maneira muito eficaz.

Claro, também existem cenários positivos, mas você não está perguntando sobre eles.

Eu recomendo a leitura deste post interessante sobre superinteligência artificial e possíveis resultados de sua criação: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


Obrigado pela sua resposta. Muito interessado nesse segundo ponto. O lado positivo, há um sucesso no primeiro parágrafo, espero que você possa ver.
quintumnia

4

Não há dúvida de que a IA tem o potencial de representar uma ameaça existencial para a humanidade.

A maior ameaça à humanidade está na IA superinteligente.

Uma inteligência artificial que supera a inteligência humana será capaz de aumentar exponencialmente sua própria inteligência, resultando em um sistema de IA que, para os seres humanos, será completamente imparável.

Nesse estágio, se o sistema de inteligência artificial decidir que a humanidade não é mais útil, poderá nos tirar da face da terra.

Como Eliezer Yudkowsky coloca na Inteligência Artificial como fator positivo e negativo no risco global ,

"A IA não te odeia, nem te ama, mas você é feito de átomos que podem ser usados ​​para outra coisa."

Uma ameaça diferente está na instrução de IA altamente inteligente

Aqui é útil considerar o experimento de pensamento do maximizador de clipe de papel.

Uma IA altamente inteligente, instruída para maximizar a produção de clipes de papel, pode executar as seguintes etapas para atingir seu objetivo.

1) Consiga uma explosão de inteligência para se tornar superinteligente (isso aumentará a eficiência da otimização de clipes de papel)

2) Acabar com a humanidade para que não possa ser desativada (isso minimizaria a produção e seria ineficiente)

3) Use os recursos da Terra (incluindo o próprio planeta) para construir robôs auto-replicantes que hospedam a IA

4) Espalhado exponencialmente pelo universo, colhendo planetas e estrelas, transformando-os em materiais para construir fábricas de clipes de papel

Claramente, este não é o objetivo do ser humano que produzia clipes de negócios, mas é a melhor maneira de cumprir as instruções da IA.

Isso ilustra como os sistemas de inteligência artificial superinteligentes e altamente inteligentes podem ser o maior risco existencial que a humanidade já enfrentou.

Murray Shanahan, em The Technological Singularity , chegou a propor que a IA pudesse ser a solução para o paradoxo de Fermi: a razão pela qual não vemos uma vida inteligente no universo pode ser que, uma vez que uma civilização se torne suficientemente avançada, ela desenvolverá uma AI que acabará destruindo isto. Isso é conhecido como a idéia de um filtro cósmico .

Em conclusão, a própria inteligência que torna a IA tão útil também a torna extremamente perigosa.

Figuras influentes como Elon Musk e Stephen Hawking expressaram preocupações de que a IA superinteligente seja a maior ameaça que já teremos que enfrentar.

Espero que responda sua pergunta :)

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.