Como a inteligência artificial pode nos prejudicar?


51

Frequentemente ouvimos que a inteligência artificial pode prejudicar ou até matar seres humanos, por isso pode ser perigosa.

Como a inteligência artificial pode nos prejudicar?


6
Isso é um pouco amplo, pois há muitas razões e cenários sugeridos nos quais a IA pode se tornar perigosa. Por exemplo, como DuttaA sugere acima, os humanos podem projetar sistemas de armas inteligentes que decidem o que atingir, e isso é uma preocupação real, já que é possível já usar IA restrita. Talvez forneça mais contexto aos medos específicos que você deseja entender, citando ou vinculando uma preocupação específica que você leu (use edit ).
Neil Slater

4
@NeilSlater Sim, pode ser muito amplo, mas acho que esta resposta ai.stackexchange.com/a/15462/2444 fornece alguns motivos plausíveis. Editei a pergunta para remover a suposição possivelmente errada.
nbro 16/09

2
Esta pergunta é especificamente sobre "superinteligência" ou IA em geral? (Por exemplo, se houver superinteligência hipotética, o hipotético " problema de controle " é um problema. No entanto, os sistemas de armas automatizados contemporâneos não serão superinteligentes, nem veículos autônomos, e esses podem prejudicar os seres humanos.)
DukeZhou

@DukeZhou O OP não mencionou originalmente e explicitamente superinteligência, mas suponho que ele estivesse se referindo a qualquer coisa que possa ser considerada AI, incluindo um SI.
nbro 16/09

3
Primeiro pergunte como a inteligência normal pode prejudicá-lo? A resposta é então a mesma.
J ...

Respostas:


47

tl; dr

Existem muitas razões válidas pelas quais as pessoas podem temer (ou melhor se preocupar ) com a IA, nem todas envolvem robôs e cenários apocalípticos.

Para ilustrar melhor essas preocupações, tentarei dividi-las em três categorias.

IA consciente

Esse é o tipo de IA a que sua pergunta está se referindo. Uma IA consciente super-inteligente que destruirá / escravizará a humanidade. Isso é principalmente trazido a nós pela ficção científica. Alguns exemplos notáveis ​​de Hollywood são "The Terminator" , "The Matrix" , "Age of Ultron" . Os romances mais influentes foram escritos por Isaac Asimov e são chamados de "séries de robôs" (que incluem "eu, robô" , que também foi adaptado como filme).

A premissa básica da maioria desses trabalhos é que a IA evoluirá a um ponto em que se tornará consciente e ultrapassará os seres humanos em inteligência. Enquanto os filmes de Hollywood se concentram principalmente nos robôs e na batalha entre eles e os seres humanos, não é dada ênfase suficiente à IA real (isto é, o "cérebro" que os controla). Como uma observação lateral, por causa da narrativa, essa IA geralmente é retratada como supercomputador que controla tudo (para que os protagonistas tenham um alvo específico). Não foi feita uma exploração suficiente da "inteligência ambígua" (que eu acho mais realista).

No mundo real, a IA está focada em resolver tarefas específicas! Um agente de IA capaz de resolver problemas de diferentes domínios (por exemplo, entender a fala e processar imagens, dirigir e ... - como os humanos são) é chamado de Inteligência Artificial Geral e é necessário para que a AI possa "pensar" e se tornar consciente.

Realisticamente, estamos muito longe da Inteligência Artificial Geral! Dito isto, não há evidências de por que isso não pode ser alcançado no futuro. Portanto, atualmente, mesmo se ainda estamos na infância da IA, não temos motivos para acreditar que ela não evolua para um ponto em que seja mais inteligente que os humanos.

Usando IA com intenção maliciosa

Embora uma IA que esteja conquistando o mundo esteja muito longe de acontecer, existem várias razões para se preocupar com a IA hoje em dia , que não envolvem robôs! A segunda categoria na qual quero me concentrar um pouco mais é em vários usos maliciosos da IA ​​de hoje.

Vou me concentrar apenas nos aplicativos de IA disponíveis hoje . Alguns exemplos de IA que podem ser usados ​​para intenções maliciosas:

  • DeepFake : uma técnica para impor alguém enfrenta em uma imagem um vídeo de outra pessoa. Isso ganhou popularidade recentemente com o pornô de celebridades e pode ser usado para gerar notícias e boatos falsos. Fontes: 1 , 2 , 3

  • Com o uso de sistemas de vigilância em massa e software de reconhecimento facial capaz de reconhecer milhões de rostos por segundo , a IA pode ser usada para vigilância em massa. Embora quando pensemos em vigilância em massa pensemos na China, muitas cidades ocidentais como Londres , Atlanta e Berlim estão entre as cidades mais pesquisadas do mundo . A China deu um passo adiante ao adotar o sistema de crédito social , um sistema de avaliação para civis que parece ser retirado diretamente das páginas de 1984 de George Orwell.

  • Influenciar pessoas através da mídia social . Além de reconhecer os gostos dos usuários com o objetivo de marketing direcionado e adicionar canais (uma prática comum por muitas empresas de internet), a IA pode ser usada com malícia para influenciar o voto das pessoas (entre outras coisas). Fontes: 1 , 2 , 3 .

  • Hacking .

  • Aplicações militares, por exemplo, ataques com drones, sistemas de mísseis.

Efeitos adversos da IA

Essa categoria é bastante subjetiva, mas o desenvolvimento da IA ​​pode trazer alguns efeitos colaterais adversos. A distinção entre essa categoria e a anterior é que esses efeitos, embora prejudiciais, não são feitos intencionalmente; ao contrário, eles ocorrem com o desenvolvimento da IA. Alguns exemplos são:

  • Empregos se tornando redundantes . À medida que a IA se torna melhor, muitos trabalhos serão substituídos pela IA. Infelizmente, não há muitas coisas que podem ser feitas sobre isso, pois a maioria dos desenvolvimentos tecnológicos tem esse efeito colateral (por exemplo, máquinas agrícolas fizeram com que muitos agricultores perdessem seus empregos, a automação substituiu muitos operários, os computadores fizeram o mesmo).

  • Reforçando o viés em nossos dados . Essa é uma categoria muito interessante, pois a IA (e especialmente as Redes Neurais) são tão boas quanto os dados em que são treinados e têm a tendência de perpetuar e até melhorar diferentes formas de preconceitos sociais, já existentes nos dados. Existem muitos exemplos de redes exibindo comportamento racista e sexista. Fontes: 1 , 2 , 3 , 4 .


4
Não entendo por que "os empregos que se tornam redundantes" são uma preocupação séria. Como o mundo seria bonito se ninguém (ou pelo menos a grande maioria dos humanos) não precisasse trabalhar e pudesse se concentrar em seus hobbies e em aproveitar a vida.
kukis 16/09

4
@kukis Como você consegue comida, casa, etc., sem emprego, a menos que já seja rico? Um emprego significa sobrevivência para a maioria das pessoas.
nbro 16/09

6
Quanto a empregos se tornarem redundantes, parece que podemos fazer algo a respeito, ou seja, reformular nossos modelos econômicos para não depender de humanos tendo empregos. Quero dizer, se nossos sistemas econômicos quebrarem ao serem inundados com mão-de-obra barata e ampla, então eles são obviamente falhos. E, como esperamos que essa falha se torne perigosa no futuro próximo, ela deve ser corrigida.
Nat

2
Outro exemplo de onde a IA pode causar grandes problemas é com a negociação de ações. Atualmente, a grande maioria das operações com ações é realizada por IAs cada vez mais competitivas, que podem reagir muito mais rapidamente do que os operadores humanos. Mas chegou ao ponto em que mesmo os humanos que os escreveram não entendem necessariamente a razão pela qual essas IAs tomam as decisões que tomam, e houve alguns efeitos catastróficos nos mercados devido aos algoritmos de previsão de ações que deram errado.
Darrel Hoffman

8
@penelope nem todo trabalho que a AI tenta substituir é de "baixo interesse". Eu diria que existem muitos empregos de alta demanda que podem ser substituídos no futuro (não tão distante). Alguns exemplos são médicos, comerciantes e pilotos. Se a IA continuar avançando e melhorar cada vez mais o diagnóstico de doenças, não seria razoável pensar que os trabalhos médicos serão reduzidos.
Djib2011 19/09/09

14

Termo curto

  • Acidentes físicos , por exemplo, devido a máquinas industriais, piloto automático de aeronave, carros autônomos. Especialmente no caso de situações incomuns , como clima extremo ou falha do sensor. Normalmente, uma IA funciona mal em condições em que não foi extensivamente testada.
  • Impactos sociais , como redução da disponibilidade de emprego, barreiras para os menos favorecidos. empréstimos, seguros, liberdade condicional.
  • Mecanismos de recomendação estão nos manipulando cada vez mais para mudar nossos comportamentos (além de reforçar nossas próprias bolhas do "mundo pequeno"). Os mecanismos de recomendação rotineiramente veiculam conteúdo inapropriado de vários tipos para crianças pequenas, geralmente porque os criadores de conteúdo (por exemplo, no YouTube) usam a palavra-chave correta para parecer amiga das crianças.
  • Manipulação política ... disse, eu acho.
  • Negação plausível de invasão de privacidade . Agora que a IA pode ler seu e-mail e até fazer chamadas telefônicas para você, é fácil alguém ter humanos agindo em suas informações pessoais e alegar que eles têm um computador para fazer isso.
  • Transformando a guerra em um videogame , ou seja, substituir soldados por máquinas operadas remotamente por alguém que não corre nenhum perigo e está muito distante de suas baixas.
  • Falta de Transparência . Estamos confiando nas máquinas para tomar decisões com pouquíssimos meios de obter a justificativa por trás de uma decisão.
  • Consumo de recursos e poluição.Este não é apenas um problema de IA, mas cada melhoria na IA está criando mais demanda por Big Data e, juntos, aumentam a necessidade de armazenamento, processamento e rede. Além do consumo de eletricidade e minerais raros, a infraestrutura precisa ser descartada após sua vida útil de vários anos.
  • Vigilância - com a onipresença de smartphones e dispositivos de escuta, há uma mina de ouro de dados, mas muito para analisar cada peça. Consiga uma IA para filtrar, é claro!
  • Cibersegurança - os cibercriminosos estão cada vez mais alavancando a IA para atacar seus alvos.

Eu mencionei que todos estes já estão em pleno andamento?

Longo prazo

Embora não exista uma linha clara entre IA e AGI, esta seção é mais sobre o que acontece quando avançamos na direção da AGI. Eu vejo duas alternativas:

  • Ou desenvolvemos a AGI como resultado de nossa melhor compreensão da natureza da inteligência,
  • ou juntamos algo que parece funcionar, mas não entendemos muito bem, muito parecido com muito aprendizado de máquina no momento.

No primeiro caso, se uma IA "ficar desonesta", podemos construir outras AIs para enganar e neutralizá-la. No segundo caso, não podemos e estamos condenados. As IAs serão uma nova forma de vida e podemos ser extintos.

Aqui estão alguns problemas em potencial:

  • Copiar e colar. Um problema com o AGI é que ele pode ser executado em um computador desktop, o que cria vários problemas:
    • Script Kiddies - as pessoas podem baixar uma IA e configurar os parâmetros de maneira destrutiva. Relacionadamente,
    • Grupos criminosos ou terroristas seriam capazes de configurar uma IA ao seu gosto. Você não precisa encontrar um especialista em fabricação de bombas ou armas biológicas se puder fazer o download de uma IA, pedir para fazer alguma pesquisa e fornecer instruções passo a passo.
    • IA auto-replicante - há muitos jogos de computador sobre isso. A IA se solta e se espalha como um vírus. Quanto maior o poder de processamento, maior a capacidade de se proteger e se espalhar ainda mais.
  • Invasão de recursos de computação . É provável que mais poder de computação seja benéfico para uma IA. Uma IA pode comprar ou roubar recursos do servidor ou recursos de desktops e dispositivos móveis. Levado ao extremo, isso poderia significar que todos os nossos dispositivos simplesmente se tornaram inutilizáveis, causando estragos imediatamente no mundo. Também poderia significar um consumo maciço de eletricidade (e seria difícil "desligar" porque as usinas são controladas por computador!)
  • Fábricas automatizadas. Um AGI que deseje ganhar mais presença física no mundo pode assumir o controle de fábricas para produzir robôs que possam construir novas fábricas e essencialmente criar corpos para si.
  • Essas são considerações bastante filosóficas, mas alguns argumentam que a IA destruiria o que nos torna humanos:
    • Inferioridade. E se muitas entidades de IA fossem mais inteligentes, mais rápidas, mais confiáveis ​​e mais criativas do que os melhores humanos?
    • Inutilidade. Com robôs substituindo a necessidade de trabalho físico e IAs substituindo a necessidade de trabalho intelectual, não teremos realmente nada a fazer. Ninguém vai receber o Prêmio Nobel novamente porque a IA já estará à frente. Por que até ser educado em primeiro lugar?
    • Monocultura / estagnação - em vários cenários (como um único AGI "ditador benevolente"), a sociedade pode se fixar em um padrão perpétuo sem novas idéias ou qualquer tipo de mudança (por mais agradável que seja). Basicamente, Admirável Mundo Novo.

Acho que a AGI está chegando e precisamos estar atentos a esses problemas para que possamos minimizá-los.


11
Eu acho que o tipo de IA capaz de reprogramar fábricas para construir robôs para si mesmo está muito longe. A "IA" moderna é apenas um reconhecimento de padrões realmente sofisticado.
user253751 17/09

Eu disse "longo prazo" e "AGI". AGI é, por definição, muito além do sofisticado reconhecimento de padrões. E, embora o "reconhecimento sofisticado de padrões" seja de longe a coisa mais comum usada em aplicativos do mundo real, já há muito trabalho em outras direções (particularmente decomposição de problemas / planejamento de ações, em que a IMO é o ponto principal desses tipos de cenários. )
Artelius 19/09

8

Além das outras respostas, gostaria de adicionar ao exemplo de fábrica de cookies de nuking:

As IAs de aprendizado de máquina basicamente tentam cumprir uma meta descrita pelos seres humanos. Por exemplo, os humanos criam uma IA executando uma fábrica de biscoitos. O objetivo que eles implementam é vender o maior número possível de cookies pela maior margem lucrativa.

Agora, imagine uma IA que seja suficientemente poderosa. Essa IA notará que, se ele destrói todas as outras fábricas de biscoitos, todos precisam comprar biscoitos em sua fábrica, aumentando as vendas e os lucros.

Portanto, o erro humano aqui não está penalizando o uso de violência no algoritmo. Isso é facilmente esquecido porque os humanos não esperavam que o algoritmo chegasse a essa conclusão.


8
Isso me lembra um exemplo do mundo real que vi no reddit uma vez em que alguém treinava uma IA para subir algumas escadas no Unity. Ele descobriu que poderia se pressionar no chão com muita força e a física falharia, fazendo com que ele voasse no ar e fosse o mais rápido até o topo.
GammaGames 16/09

2
Ou, pior, decidiria que os humanos são feitos de átomos que seriam melhor usados ​​para fazer biscoitos.
nick012000 17/09

Já ouvi esse argumento antes. Uma das falácias de prever um dia do juízo final da IA ​​é que não podemos prever o que a AI fará. É perfeitamente possível que a IA reconheça que outras empresas de cookies podem desencadear a economia global e destruir qualquer demanda potencial por cookies ... Lei da economia, oferta e demanda
Zakk Diaz

8

Meu cenário favorito de dano por IA envolve não alta inteligência, mas baixa inteligência. Especificamente, a hipótese da gosma cinzenta .

É aqui que um processo automatizado e auto-replicante fica irritado e converte todos os recursos em cópias de si mesmo.

O ponto aqui é que a IA não é "inteligente" no sentido de ter alta inteligência ou inteligência geral - é apenas muito boa em uma única coisa e tem a capacidade de se replicar exponencialmente.


3
FWIW, os seres humanos já são uma gosma cinzenta. Somos uma gosma cinza egoísta que não quer ser substituída por uma gosma cinza ainda mais eficiente.
user253751 17/09

11
@immibis Isso é, obviamente, um ponto de vista filosófico, não um fato. Existem muitas pessoas que diferenciam seres humanos e máquinas auto-replicantes / auto-sustentáveis. Filmes de zumbi não seriam muito bem-sucedidos se a maioria tivesse sua definição no coração =)
Stian Yttervik 18/09

11
@immibis Você leu o artigo da gosma cinza na Wikipedia que esta resposta faz referência? O termo refere-se a máquinas (nano) não inteligentes que ficam loucas, não a qualquer comportamento inteligente. Então eu diria que não, os humanos não são (e nem a IA), já que não comemos Albert Einstein quando podíamos.
kubanczyk 19/09

@kubanczyk o significado fundamental do termo "inteligência" parece amplamente mal compreendido, tanto na academia quanto no público em geral. A inteligência é um espectro, geralmente relativo (a outros mecanismos de tomada de decisão), e baseia-se na utilidade de qualquer decisão no contexto de um problema. Então, a gosma cinzenta seria inteligente, apenas que a inteligência seria limitada e estreita.
DukeZhou

5

Eu diria que a maior ameaça real seria o desequilíbrio / perturbação que já estamos vendo. As mudanças em colocar 90% do país fora do trabalho são reais, e os resultados (que serão uma distribuição ainda mais desigual da riqueza) são aterrorizantes se você pensar bem.


2
As pessoas disseram a mesma coisa durante a revolução industrial, que tornou a maioria dos empregos agrícolas redundantes. Embora você possa não estar errado, e isso é algo que me preocupa pessoalmente, pesquisas que estudam tendências mostram que isso pode não ser uma preocupação e é provável que novos empregos sejam abertos.
Programmdude

@ Programmdude - Eu acho que há uma diferença fundamental entre as mudanças da revolução industrial e até a eliminação dos trabalhos de secretariado por meio do advento do P com o que acontecerá nas próximas décadas.
Mayo

2
@ Programmdude E as pessoas estavam certas. A revolução industrial mudou tudo na maneira como as pessoas vivem, foi extremamente perturbadora em termos de distribuição de riqueza e na capacidade das pessoas de existir com a renda agrícola. Do outro ponto de vista: os proprietários de escravos que olham para trás a partir de algumas centenas de anos no futuro provavelmente não verão os efeitos da IA ​​neste período como perturbadores, uma vez que formaram sua situação.
Bill K

@ BillK Eu estava com você até a parte sobre os proprietários de escravos. Você sabe que as IAs não têm consciência de si mesmas, certo?
Ray

@ Ray: eu não quis dizer as IAs, mas sim as pessoas que controlavam as IAs (e, portanto, teriam toda a riqueza), e realmente era apenas uma maneira de ressaltar que as coisas podem ser incompreensivelmente diferentes de nós, mas não seria ' Não sinto essa diferença olhando para trás.
Bill K

5

Eu tenho um exemplo que vai na direção oposta aos medos do público, mas é uma coisa muito real, que eu já vejo acontecendo. Não é específico da IA, mas acho que piorará com a IA. É o problema dos humanos confiarem nas conclusões da IA ​​cegamente em aplicações críticas.

Temos muitas áreas nas quais especialistas humanos devem tomar uma decisão. Tomemos, por exemplo, remédios - devemos dar o medicamento X ou o medicamento Y? As situações que tenho em mente são frequentemente problemas complexos (no sentido Cynefin), onde é realmente bom alguém prestar muita atenção e usar muita experiência, e o resultado é realmente importante.

Há uma demanda por médicos médicos para escrever sistemas de suporte à decisão para esse tipo de problema na medicina (e suponho que seja para o mesmo tipo em outros domínios). Eles fazem o melhor possível, mas a expectativa é sempre que um especialista humano sempre considere a sugestão do sistema como mais uma opinião ao tomar a decisão. Em muitos casos, seria irresponsável prometer qualquer outra coisa, dado o estado do conhecimento e os recursos disponíveis para os desenvolvedores. Um exemplo típico seria o uso da visão computacional em radiômica: um paciente recebe uma tomografia computadorizada e a IA precisa processar a imagem e decidir se o paciente tem um tumor.

Claro, a IA não é perfeita. Mesmo quando medido em relação ao padrão ouro, ele nunca atinge 100% de precisão. E há todos os casos em que ele apresenta um bom desempenho em relação às suas próprias métricas de meta, mas o problema era tão complexo que a métrica da meta não a captura bem - não consigo pensar em um exemplo no contexto da CT, mas acho que nós vemos isso aqui no SE, onde os algoritmos favorecem a popularidade nas postagens, o que é um proxy imperfeito para a correção factual.

Você provavelmente estava lendo esse último parágrafo e concordando: "Sim, eu aprendi que no primeiro curso introdutório de ML que fiz". Adivinha? Os médicos nunca fizeram um curso introdutório de ML. Eles raramente têm alfabetização estatística suficiente para entender as conclusões de artigos que aparecem em revistas médicas. Quando estão conversando com o 27º paciente, 7 horas no turno de 16 horas, famintos e emocionalmente esgotados, e a TC não parece tão clara, mas o computador diz "não é uma doença maligna", eles não dedique mais dez minutos para se concentrar mais na imagem, ou procure um livro ou consulte um colega. Eles apenas seguem o que o computador diz, agradecidos por sua carga cognitiva não disparar mais uma vez. Então eles deixam de ser especialistas e são pessoas que lêem algo na tela. Pior, em alguns hospitais, o governo não confia apenas nos computadores, mas também descobriu que são bodes expiatórios convenientes. Assim, um médico tem um palpite ruim que contraria a saída do computador, torna-se difícil para ele agir de acordo com esse palpite e se defender de que optou por anular a opinião da IA.

As IAs são ferramentas poderosas e úteis, mas sempre haverá tarefas em que eles não podem substituir o usuário da ferramenta.


Se você está procurando mais exemplos, a controvérsia em torno do uso de aprendizado de máquina para prever as taxas de reincidência de candidatos a fiança ou liberdade condicional é boa. Concordo que não devemos esperar que médicos e juízes tenham os níveis de conhecimento estatístico necessários para entender a IA, além de seu conhecimento médico e jurídico. Os designers de IA devem estar cientes da falibilidade de seus algoritmos e fornecer orientações claras para seus usuários. Talvez diga ao médico onde procurar na tomografia computadorizada, em vez de dar diretamente o resultado.
craq 18/09

4

Isso só pretende ser um complemento para outras respostas, então não discutirei a possibilidade de a IA tentar escravizar voluntariamente a humanidade.

Mas um risco diferente já está aqui. Eu chamaria isso de tecnologia não dominada . Eu fui ensinado ciência e tecnologia, e IMHO, a IA tem por si só não tem noção de bem e mal, nem liberdade. Mas é construído e usado por seres humanos e, por esse motivo, pode ser envolvido um comportamento não racional.

Eu começaria com um exemplo da vida real mais relacionado à TI geral do que à IA. Vou falar de vírus ou outros malwares. Computadores são máquinas bastante estúpidas, boas para processar dados rapidamente. Então, a maioria das pessoas confia neles. Algumas pessoas (ruins) desenvolvem malwares que atrapalham o comportamento correto dos computadores. E todos sabemos que eles podem ter efeitos terríveis em pequenas e médias organizações que não estão bem preparadas para a perda de computadores.

A IA é baseada em computador e, portanto, vulnerável a ataques do tipo computador. Aqui meu exemplo seria um carro dirigido por IA. A tecnologia está quase pronta para funcionar. Mas imagine o efeito de um malware que faz o carro tentar atacar outras pessoas na estrada. Mesmo sem um acesso direto ao código da IA, ele pode ser atacado por canais laterais . Por exemplo, ele usa câmeras para ler sinais de sinal. Mas, devido à maneira como o aprendizado de máquina é implementado, a IA geralmente não analisa uma cena da mesma maneira que um ser humano. Os pesquisadores mostraram que era possível alterar um sinal de uma maneira que um humano normal ainda veja o sinal original, mas uma IA verá um sinal diferente. Imagine agora que o sinal é o sinal de prioridade na estrada ...

O que quero dizer é que, mesmo que a IA não tenha más intenções, os bandidos podem tentar fazer com que ela se comporte mal. E para ações mais importantes serão delegadas à IA (medicina, carros, aviões, sem falar em bombas), maior o risco. Dito de outra forma, eu realmente não tenho medo da IA ​​por si mesma, mas pela maneira como ela pode ser usada pelos seres humanos.


3

Eu acho que um dos riscos mais reais (isto é, relacionados às IAs atuais e existentes) é confiar cegamente nas IAs não supervisionadas, por duas razões.

1. Os sistemas de IA podem se degradar

O erro físico nos sistemas de IA pode começar a produzir resultados totalmente errados nas regiões nas quais não foram testados porque o sistema físico começa a fornecer valores incorretos. Às vezes, isso é resgatado por autoteste e redundância, mas ainda requer supervisão humana ocasional.

As IAs de autoaprendizagem também têm uma fraqueza no software - suas redes de peso ou representações estatísticas podem se aproximar dos mínimos locais onde estão presos a um resultado errado.

2. Os sistemas de IA são tendenciosos

Felizmente, isso é discutido com frequência, mas vale a pena mencionar: a classificação dos insumos dos sistemas de IA geralmente é tendenciosa porque o conjunto de dados de treinamento / teste também foi tendencioso. Isso resulta em IAs não reconhecendo pessoas de determinada etnia, por exemplo mais óbvio. No entanto, existem casos menos óbvios que só podem ser descobertos após algum acidente grave, como a IA não reconhecer determinados dados e iniciar acidentalmente um incêndio em uma fábrica, quebrando equipamentos ou ferindo pessoas.


Esta é uma resposta boa e contemporânea. É impossível testar IA de "caixa preta", como redes neurais, de maneira absoluta, o que as torna menos de 100% previsíveis - e, por extensão, menos de 100% confiáveis. Nunca sabemos quando uma IA desenvolverá uma estratégia alternativa para um determinado problema, e como essa estratégia alternativa nos afetará, e esse é um problema enorme se quisermos confiar na IA para tarefas importantes, como dirigir carros ou gerenciar recursos.
laancelot 18/09

1

Se um robô é semelhante a uma interface homem-máquina, o dispositivo é igual a um carro com controle remoto. É possível discutir com o operador por trás do joystick e negociar sobre um comportamento de desejo. Robôs controlados remotamente são invenções seguras porque suas ações podem ser rastreadas até os seres humanos e sua motivação pode ser antecipada. Eles podem ser usados ​​para melhorar a vida cotidiana, e é engraçado brincar com eles.

Por outro lado, alguns robôs não são controlados por joysticks, mas estão trabalhando com um gerador de dados interno. O brinquedo de dados é conhecido por seu papel social no jogo, mas também tem um significado místico. Geralmente, um gerador aleatório está fortemente conectado ao comportamento caótico, que é controlado por forças das trevas fora da influência dos seres humanos. Um dado eletrônico construído em um robô e aprimorado com o algoritmo de aprendizado é o oposto de uma interface homem-máquina, mas é um potencial causador de problemas, porque o robô controlado aleatoriamente jogará jogos com humanos que não podem ser antecipados. Não é possível prever o próximo número de dados, portanto o robô também se comportará de forma abrupta.

A conexão entre jogos controlados aleatoriamente e impacto social negativo foi explicada na frase a seguir.

citação: “Em muitas sociedades tradicionais não ocidentais, os jogadores podem orar aos deuses pelo sucesso e explicar vitórias e perdas em termos de vontade divina. “Binde, Per. "Jogos de azar e religião: histórias de concordância e conflito". Journal of Gambling Issues 20 (2007): 145-165.


1

Atualmente, os seres humanos existem em um nicho ecológico-econômico da "coisa que pensa".

A IA também é algo que pensa, por isso estará invadindo nosso nicho ecológico-econômico. Tanto na ecologia quanto na economia, ter outra coisa ocupando seu nicho não é um grande plano para a sobrevivência contínua.

Como exatamente a sobrevivência humana é comprometida por isso será bastante caótico. Haverá várias maneiras plausíveis pelas quais a IA poderia pôr em risco a sobrevivência humana como espécie ou até como forma de vida dominante.


Suponha que exista uma IA forte sem "super ética" que seja mais barata de fabricar do que um humano (incluindo fabricar um "corpo" ou maneira de manipular o mundo) e tão inteligente ou inteligente quanto um humano.

É um caso em que começamos a competir com essa IA por recursos. Isso acontecerá em escalas microeconômicas (contratamos um humano ou compramos / construímos / alugamos / contratamos uma IA para resolver esse problema?). Dependendo da taxa em que as IAs se tornam baratas e / ou mais inteligentes que as pessoas, isso pode acontecer lentamente (talvez um setor de cada vez) ou extremamente rápido.

Em uma competição capitalista, aqueles que não passam para as IAs mais baratas acabam competindo.

Agora, a curto prazo, se as vantagens da IA ​​são apenas marginais, o alto custo de educar os humanos por 20 anos antes de se tornarem produtivos pode tornar esse processo mais lento. Nesse caso, pode valer a pena pagar a um médico acima dos salários de fome para diagnosticar doenças em vez de uma IA, mas provavelmente não vale a pena pagar seus empréstimos estudantis. Assim, novos médicos humanos parariam rapidamente de ser treinados e os médicos existentes seriam empobrecidos. Mais de 20 a 30 anos, a IA substituiria completamente os médicos para fins de diagnóstico.

Se as vantagens da IA ​​forem grandes, seria rápido. Os médicos nem valeriam a pena pagar salários baixos para fazer diagnósticos em humanos. Você pode ver algo assim acontecendo com a agricultura baseada em músculos quando a agricultura baseada em gasolina assumiu o controle.

Durante as revoluções industriais anteriores, o fato de os seres humanos poderem pensar significa que você pode redirecionar os trabalhadores humanos excedentes para realizar outras ações; linhas de fabricação, empregos na economia de serviços, programação de computadores etc. Mas, neste modelo, a IA é mais barata de treinar e construir e mais inteligente ou inteligente do que os seres humanos nesse tipo de trabalho.

Como evidenciado pela primavera árabe induzida pelo etanol, culturas e terras cultiváveis ​​podem ser usadas para alimentar máquinas e seres humanos. Quando as máquinas são mais eficientes em termos de transformar terras agrícolas em trabalhos úteis, você começará a ver o preço dos alimentos subir. Isso normalmente leva a tumultos, pois as pessoas realmente não gostam de morrer de fome e estão dispostas a arriscar suas próprias vidas para derrubar o governo, a fim de evitar isso.

Você pode aplacar as pessoas fornecendo alimentos subsidiados e coisas do gênero. Contanto que isso não seja economicamente prejudicial (ou seja, se caro o suficiente, pode resultar em você ser superado por outros lugares que não fazem isso), isso é meramente politicamente instável.

Como alternativa, a curto prazo, a casta que recebe lucros da economia cada vez mais eficiente administrada pela IA pode pagar por uma casta policial ou militar para acabar com os tumultos. Isso requer que as castas policiais / militares sejam de classe alta baixa para média nos padrões de vida, a fim de garantir lealdade contínua - você não deseja que eles se juntem aos manifestantes.

Portanto, um dos centros de lucro para os quais você pode colocar a IA é o militar e o policiamento baseados em IA. Os drones que fornecem munições letais e não letais com base no processamento de feeds de dados visuais e outros podem reduzir o número de policiais / militares de classe média necessários para reprimir distúrbios provocados pelo preço dos alimentos ou outras instabilidades. Como já assumimos que as IAs podem ter corpos e treinamento mais baratos que um ser humano biológico, isso também pode aumentar a quantidade de força que você pode empregar por dólar gasto.

Neste ponto, estamos falando de policiais e militares principalmente de IA que estão sendo usados ​​para impedir que seres humanos famintos destruam a economia de IA e aproveitem os meios de produção do uso mais eficiente para o qual está sendo utilizado atualmente.

Os humanos vestigiais que "possuem" o sistema no topo estão tomando decisões racionais localmente para otimizar sua riqueza e poder. Eles podem ou não persistir por muito tempo; contanto que drenem uma quantidade relativamente pequena de recursos e não atrapalhem a economia de execução da IA, não haverá muita pressão de seleção para se livrar deles. Por outro lado, como eles não estão contribuindo com nada de valor, eles posicionam "no topo" é politicamente instável.

Esse processo assumiu uma IA geral "forte". AIs mais estreitas podem fazer isso em pedaços. Um computador de diagnóstico barato e eficaz poderia reduzir a maioria dos médicos à pobreza em um período surpreendentemente curto, por exemplo. Carros autônomos podem engolir 5% a 10% da economia. A tecnologia da informação já está engolindo o setor de varejo com IA modesta.

Dizem que todo avanço tecnológico leva a mais e melhores empregos para os seres humanos. E isso tem sido verdade nos últimos 300 anos.

Mas antes de 1900, também era verdade que todo avanço tecnológico levava a mais e melhores empregos para os cavalos. Então o ICE e o automóvel chegaram, e agora há muito menos cavalos trabalhando; os cavalos restantes são basicamente o equivalente a criados pessoais humanos: guardados para a novidade de "uau, frio, cavalo" e a diversão de andar e controlar um animal enorme.


1

Além das muitas respostas já fornecidas, eu abordaria a questão de exemplos contraditórios na área de modelos de imagem.

Exemplos adversos são imagens que foram perturbadas por ruídos projetados especificamente que geralmente são imperceptíveis a um observador humano, mas alteram fortemente a previsão de um modelo.

Exemplos incluem:


0

A IA usada para resolver um problema do mundo real pode representar um risco para a humanidade e não requer exatamente senciência, isso também requer um certo grau de estupidez humana.

Ao contrário dos humanos, uma IA encontraria a resposta mais lógica sem a restrição de emoção, ética ou até ganância ... Somente lógica. Pergunte a esta IA como resolver um problema que os humanos criaram (por exemplo, Mudanças Climáticas) e sua solução pode ser eliminar toda a raça humana para proteger o planeta. Obviamente, isso exigiria dar à IA a capacidade de agir de acordo com seu resultado, o que me leva ao meu ponto anterior, a estupidez humana.


0

A inteligência artificial pode nos prejudicar de qualquer forma da inteligência natural (dos seres humanos). A distinção entre inteligência natural e artificial desaparecerá quando os humanos começarem a se intensificar mais intimamente. A inteligência não pode mais caracterizar a identidade e se tornará uma posse ilimitada. O dano causado será o máximo que os humanos podem suportar por preservar sua auto-identidade em evolução.


0

Poucas pessoas percebem que nossa economia global deve ser considerada uma IA: - As transações monetárias são os sinais de uma rede neural. Os nós da rede neural seriam as diferentes empresas ou particulares que pagam ou recebem dinheiro. - É fabricado pelo homem e é qualificado como artificial

Essa rede neural é melhor em sua tarefa do que os humanos: o capitalismo sempre venceu a economia planejada pelos seres humanos (economia do plano).

Essa rede neural é perigosa? Pode ser diferente se você é o CEO que ganha muito em comparação com um pescador em um rio poluído por resíduos corporativos.

Como essa IA se tornou perigosa? Você poderia responder que é por causa da ganância humana. Nossa criação se reflete. Em outras palavras: não treinamos nossa rede neural para se comportar bem. Em vez de treinar a rede neural para melhorar a qualidade de vida de todos os seres humanos, treinamos para tornar mais ricos os truques ricos.

Seria fácil treinar essa IA para não ser mais perigosa? Talvez não, talvez algumas IA sejam apenas maiores que a vida. É apenas a sobrevivência do mais apto.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.