Frequentemente ouvimos que a inteligência artificial pode prejudicar ou até matar seres humanos, por isso pode ser perigosa.
Como a inteligência artificial pode nos prejudicar?
Frequentemente ouvimos que a inteligência artificial pode prejudicar ou até matar seres humanos, por isso pode ser perigosa.
Como a inteligência artificial pode nos prejudicar?
Respostas:
Existem muitas razões válidas pelas quais as pessoas podem temer (ou melhor se preocupar ) com a IA, nem todas envolvem robôs e cenários apocalípticos.
Para ilustrar melhor essas preocupações, tentarei dividi-las em três categorias.
Esse é o tipo de IA a que sua pergunta está se referindo. Uma IA consciente super-inteligente que destruirá / escravizará a humanidade. Isso é principalmente trazido a nós pela ficção científica. Alguns exemplos notáveis de Hollywood são "The Terminator" , "The Matrix" , "Age of Ultron" . Os romances mais influentes foram escritos por Isaac Asimov e são chamados de "séries de robôs" (que incluem "eu, robô" , que também foi adaptado como filme).
A premissa básica da maioria desses trabalhos é que a IA evoluirá a um ponto em que se tornará consciente e ultrapassará os seres humanos em inteligência. Enquanto os filmes de Hollywood se concentram principalmente nos robôs e na batalha entre eles e os seres humanos, não é dada ênfase suficiente à IA real (isto é, o "cérebro" que os controla). Como uma observação lateral, por causa da narrativa, essa IA geralmente é retratada como supercomputador que controla tudo (para que os protagonistas tenham um alvo específico). Não foi feita uma exploração suficiente da "inteligência ambígua" (que eu acho mais realista).
No mundo real, a IA está focada em resolver tarefas específicas! Um agente de IA capaz de resolver problemas de diferentes domínios (por exemplo, entender a fala e processar imagens, dirigir e ... - como os humanos são) é chamado de Inteligência Artificial Geral e é necessário para que a AI possa "pensar" e se tornar consciente.
Realisticamente, estamos muito longe da Inteligência Artificial Geral! Dito isto, não há evidências de por que isso não pode ser alcançado no futuro. Portanto, atualmente, mesmo se ainda estamos na infância da IA, não temos motivos para acreditar que ela não evolua para um ponto em que seja mais inteligente que os humanos.
Embora uma IA que esteja conquistando o mundo esteja muito longe de acontecer, existem várias razões para se preocupar com a IA hoje em dia , que não envolvem robôs! A segunda categoria na qual quero me concentrar um pouco mais é em vários usos maliciosos da IA de hoje.
Vou me concentrar apenas nos aplicativos de IA disponíveis hoje . Alguns exemplos de IA que podem ser usados para intenções maliciosas:
DeepFake : uma técnica para impor alguém enfrenta em uma imagem um vídeo de outra pessoa. Isso ganhou popularidade recentemente com o pornô de celebridades e pode ser usado para gerar notícias e boatos falsos. Fontes: 1 , 2 , 3
Com o uso de sistemas de vigilância em massa e software de reconhecimento facial capaz de reconhecer milhões de rostos por segundo , a IA pode ser usada para vigilância em massa. Embora quando pensemos em vigilância em massa pensemos na China, muitas cidades ocidentais como Londres , Atlanta e Berlim estão entre as cidades mais pesquisadas do mundo . A China deu um passo adiante ao adotar o sistema de crédito social , um sistema de avaliação para civis que parece ser retirado diretamente das páginas de 1984 de George Orwell.
Influenciar pessoas através da mídia social . Além de reconhecer os gostos dos usuários com o objetivo de marketing direcionado e adicionar canais (uma prática comum por muitas empresas de internet), a IA pode ser usada com malícia para influenciar o voto das pessoas (entre outras coisas). Fontes: 1 , 2 , 3 .
Hacking .
Aplicações militares, por exemplo, ataques com drones, sistemas de mísseis.
Essa categoria é bastante subjetiva, mas o desenvolvimento da IA pode trazer alguns efeitos colaterais adversos. A distinção entre essa categoria e a anterior é que esses efeitos, embora prejudiciais, não são feitos intencionalmente; ao contrário, eles ocorrem com o desenvolvimento da IA. Alguns exemplos são:
Empregos se tornando redundantes . À medida que a IA se torna melhor, muitos trabalhos serão substituídos pela IA. Infelizmente, não há muitas coisas que podem ser feitas sobre isso, pois a maioria dos desenvolvimentos tecnológicos tem esse efeito colateral (por exemplo, máquinas agrícolas fizeram com que muitos agricultores perdessem seus empregos, a automação substituiu muitos operários, os computadores fizeram o mesmo).
Reforçando o viés em nossos dados . Essa é uma categoria muito interessante, pois a IA (e especialmente as Redes Neurais) são tão boas quanto os dados em que são treinados e têm a tendência de perpetuar e até melhorar diferentes formas de preconceitos sociais, já existentes nos dados. Existem muitos exemplos de redes exibindo comportamento racista e sexista. Fontes: 1 , 2 , 3 , 4 .
Eu mencionei que todos estes já estão em pleno andamento?
Embora não exista uma linha clara entre IA e AGI, esta seção é mais sobre o que acontece quando avançamos na direção da AGI. Eu vejo duas alternativas:
No primeiro caso, se uma IA "ficar desonesta", podemos construir outras AIs para enganar e neutralizá-la. No segundo caso, não podemos e estamos condenados. As IAs serão uma nova forma de vida e podemos ser extintos.
Aqui estão alguns problemas em potencial:
Acho que a AGI está chegando e precisamos estar atentos a esses problemas para que possamos minimizá-los.
Além das outras respostas, gostaria de adicionar ao exemplo de fábrica de cookies de nuking:
As IAs de aprendizado de máquina basicamente tentam cumprir uma meta descrita pelos seres humanos. Por exemplo, os humanos criam uma IA executando uma fábrica de biscoitos. O objetivo que eles implementam é vender o maior número possível de cookies pela maior margem lucrativa.
Agora, imagine uma IA que seja suficientemente poderosa. Essa IA notará que, se ele destrói todas as outras fábricas de biscoitos, todos precisam comprar biscoitos em sua fábrica, aumentando as vendas e os lucros.
Portanto, o erro humano aqui não está penalizando o uso de violência no algoritmo. Isso é facilmente esquecido porque os humanos não esperavam que o algoritmo chegasse a essa conclusão.
Meu cenário favorito de dano por IA envolve não alta inteligência, mas baixa inteligência. Especificamente, a hipótese da gosma cinzenta .
É aqui que um processo automatizado e auto-replicante fica irritado e converte todos os recursos em cópias de si mesmo.
O ponto aqui é que a IA não é "inteligente" no sentido de ter alta inteligência ou inteligência geral - é apenas muito boa em uma única coisa e tem a capacidade de se replicar exponencialmente.
Eu diria que a maior ameaça real seria o desequilíbrio / perturbação que já estamos vendo. As mudanças em colocar 90% do país fora do trabalho são reais, e os resultados (que serão uma distribuição ainda mais desigual da riqueza) são aterrorizantes se você pensar bem.
Eu tenho um exemplo que vai na direção oposta aos medos do público, mas é uma coisa muito real, que eu já vejo acontecendo. Não é específico da IA, mas acho que piorará com a IA. É o problema dos humanos confiarem nas conclusões da IA cegamente em aplicações críticas.
Temos muitas áreas nas quais especialistas humanos devem tomar uma decisão. Tomemos, por exemplo, remédios - devemos dar o medicamento X ou o medicamento Y? As situações que tenho em mente são frequentemente problemas complexos (no sentido Cynefin), onde é realmente bom alguém prestar muita atenção e usar muita experiência, e o resultado é realmente importante.
Há uma demanda por médicos médicos para escrever sistemas de suporte à decisão para esse tipo de problema na medicina (e suponho que seja para o mesmo tipo em outros domínios). Eles fazem o melhor possível, mas a expectativa é sempre que um especialista humano sempre considere a sugestão do sistema como mais uma opinião ao tomar a decisão. Em muitos casos, seria irresponsável prometer qualquer outra coisa, dado o estado do conhecimento e os recursos disponíveis para os desenvolvedores. Um exemplo típico seria o uso da visão computacional em radiômica: um paciente recebe uma tomografia computadorizada e a IA precisa processar a imagem e decidir se o paciente tem um tumor.
Claro, a IA não é perfeita. Mesmo quando medido em relação ao padrão ouro, ele nunca atinge 100% de precisão. E há todos os casos em que ele apresenta um bom desempenho em relação às suas próprias métricas de meta, mas o problema era tão complexo que a métrica da meta não a captura bem - não consigo pensar em um exemplo no contexto da CT, mas acho que nós vemos isso aqui no SE, onde os algoritmos favorecem a popularidade nas postagens, o que é um proxy imperfeito para a correção factual.
Você provavelmente estava lendo esse último parágrafo e concordando: "Sim, eu aprendi que no primeiro curso introdutório de ML que fiz". Adivinha? Os médicos nunca fizeram um curso introdutório de ML. Eles raramente têm alfabetização estatística suficiente para entender as conclusões de artigos que aparecem em revistas médicas. Quando estão conversando com o 27º paciente, 7 horas no turno de 16 horas, famintos e emocionalmente esgotados, e a TC não parece tão clara, mas o computador diz "não é uma doença maligna", eles não dedique mais dez minutos para se concentrar mais na imagem, ou procure um livro ou consulte um colega. Eles apenas seguem o que o computador diz, agradecidos por sua carga cognitiva não disparar mais uma vez. Então eles deixam de ser especialistas e são pessoas que lêem algo na tela. Pior, em alguns hospitais, o governo não confia apenas nos computadores, mas também descobriu que são bodes expiatórios convenientes. Assim, um médico tem um palpite ruim que contraria a saída do computador, torna-se difícil para ele agir de acordo com esse palpite e se defender de que optou por anular a opinião da IA.
As IAs são ferramentas poderosas e úteis, mas sempre haverá tarefas em que eles não podem substituir o usuário da ferramenta.
Isso só pretende ser um complemento para outras respostas, então não discutirei a possibilidade de a IA tentar escravizar voluntariamente a humanidade.
Mas um risco diferente já está aqui. Eu chamaria isso de tecnologia não dominada . Eu fui ensinado ciência e tecnologia, e IMHO, a IA tem por si só não tem noção de bem e mal, nem liberdade. Mas é construído e usado por seres humanos e, por esse motivo, pode ser envolvido um comportamento não racional.
Eu começaria com um exemplo da vida real mais relacionado à TI geral do que à IA. Vou falar de vírus ou outros malwares. Computadores são máquinas bastante estúpidas, boas para processar dados rapidamente. Então, a maioria das pessoas confia neles. Algumas pessoas (ruins) desenvolvem malwares que atrapalham o comportamento correto dos computadores. E todos sabemos que eles podem ter efeitos terríveis em pequenas e médias organizações que não estão bem preparadas para a perda de computadores.
A IA é baseada em computador e, portanto, vulnerável a ataques do tipo computador. Aqui meu exemplo seria um carro dirigido por IA. A tecnologia está quase pronta para funcionar. Mas imagine o efeito de um malware que faz o carro tentar atacar outras pessoas na estrada. Mesmo sem um acesso direto ao código da IA, ele pode ser atacado por canais laterais . Por exemplo, ele usa câmeras para ler sinais de sinal. Mas, devido à maneira como o aprendizado de máquina é implementado, a IA geralmente não analisa uma cena da mesma maneira que um ser humano. Os pesquisadores mostraram que era possível alterar um sinal de uma maneira que um humano normal ainda veja o sinal original, mas uma IA verá um sinal diferente. Imagine agora que o sinal é o sinal de prioridade na estrada ...
O que quero dizer é que, mesmo que a IA não tenha más intenções, os bandidos podem tentar fazer com que ela se comporte mal. E para ações mais importantes serão delegadas à IA (medicina, carros, aviões, sem falar em bombas), maior o risco. Dito de outra forma, eu realmente não tenho medo da IA por si mesma, mas pela maneira como ela pode ser usada pelos seres humanos.
Eu acho que um dos riscos mais reais (isto é, relacionados às IAs atuais e existentes) é confiar cegamente nas IAs não supervisionadas, por duas razões.
O erro físico nos sistemas de IA pode começar a produzir resultados totalmente errados nas regiões nas quais não foram testados porque o sistema físico começa a fornecer valores incorretos. Às vezes, isso é resgatado por autoteste e redundância, mas ainda requer supervisão humana ocasional.
As IAs de autoaprendizagem também têm uma fraqueza no software - suas redes de peso ou representações estatísticas podem se aproximar dos mínimos locais onde estão presos a um resultado errado.
Felizmente, isso é discutido com frequência, mas vale a pena mencionar: a classificação dos insumos dos sistemas de IA geralmente é tendenciosa porque o conjunto de dados de treinamento / teste também foi tendencioso. Isso resulta em IAs não reconhecendo pessoas de determinada etnia, por exemplo mais óbvio. No entanto, existem casos menos óbvios que só podem ser descobertos após algum acidente grave, como a IA não reconhecer determinados dados e iniciar acidentalmente um incêndio em uma fábrica, quebrando equipamentos ou ferindo pessoas.
Se um robô é semelhante a uma interface homem-máquina, o dispositivo é igual a um carro com controle remoto. É possível discutir com o operador por trás do joystick e negociar sobre um comportamento de desejo. Robôs controlados remotamente são invenções seguras porque suas ações podem ser rastreadas até os seres humanos e sua motivação pode ser antecipada. Eles podem ser usados para melhorar a vida cotidiana, e é engraçado brincar com eles.
Por outro lado, alguns robôs não são controlados por joysticks, mas estão trabalhando com um gerador de dados interno. O brinquedo de dados é conhecido por seu papel social no jogo, mas também tem um significado místico. Geralmente, um gerador aleatório está fortemente conectado ao comportamento caótico, que é controlado por forças das trevas fora da influência dos seres humanos. Um dado eletrônico construído em um robô e aprimorado com o algoritmo de aprendizado é o oposto de uma interface homem-máquina, mas é um potencial causador de problemas, porque o robô controlado aleatoriamente jogará jogos com humanos que não podem ser antecipados. Não é possível prever o próximo número de dados, portanto o robô também se comportará de forma abrupta.
A conexão entre jogos controlados aleatoriamente e impacto social negativo foi explicada na frase a seguir.
citação: “Em muitas sociedades tradicionais não ocidentais, os jogadores podem orar aos deuses pelo sucesso e explicar vitórias e perdas em termos de vontade divina. “Binde, Per. "Jogos de azar e religião: histórias de concordância e conflito". Journal of Gambling Issues 20 (2007): 145-165.
Atualmente, os seres humanos existem em um nicho ecológico-econômico da "coisa que pensa".
A IA também é algo que pensa, por isso estará invadindo nosso nicho ecológico-econômico. Tanto na ecologia quanto na economia, ter outra coisa ocupando seu nicho não é um grande plano para a sobrevivência contínua.
Como exatamente a sobrevivência humana é comprometida por isso será bastante caótico. Haverá várias maneiras plausíveis pelas quais a IA poderia pôr em risco a sobrevivência humana como espécie ou até como forma de vida dominante.
Suponha que exista uma IA forte sem "super ética" que seja mais barata de fabricar do que um humano (incluindo fabricar um "corpo" ou maneira de manipular o mundo) e tão inteligente ou inteligente quanto um humano.
É um caso em que começamos a competir com essa IA por recursos. Isso acontecerá em escalas microeconômicas (contratamos um humano ou compramos / construímos / alugamos / contratamos uma IA para resolver esse problema?). Dependendo da taxa em que as IAs se tornam baratas e / ou mais inteligentes que as pessoas, isso pode acontecer lentamente (talvez um setor de cada vez) ou extremamente rápido.
Em uma competição capitalista, aqueles que não passam para as IAs mais baratas acabam competindo.
Agora, a curto prazo, se as vantagens da IA são apenas marginais, o alto custo de educar os humanos por 20 anos antes de se tornarem produtivos pode tornar esse processo mais lento. Nesse caso, pode valer a pena pagar a um médico acima dos salários de fome para diagnosticar doenças em vez de uma IA, mas provavelmente não vale a pena pagar seus empréstimos estudantis. Assim, novos médicos humanos parariam rapidamente de ser treinados e os médicos existentes seriam empobrecidos. Mais de 20 a 30 anos, a IA substituiria completamente os médicos para fins de diagnóstico.
Se as vantagens da IA forem grandes, seria rápido. Os médicos nem valeriam a pena pagar salários baixos para fazer diagnósticos em humanos. Você pode ver algo assim acontecendo com a agricultura baseada em músculos quando a agricultura baseada em gasolina assumiu o controle.
Durante as revoluções industriais anteriores, o fato de os seres humanos poderem pensar significa que você pode redirecionar os trabalhadores humanos excedentes para realizar outras ações; linhas de fabricação, empregos na economia de serviços, programação de computadores etc. Mas, neste modelo, a IA é mais barata de treinar e construir e mais inteligente ou inteligente do que os seres humanos nesse tipo de trabalho.
Como evidenciado pela primavera árabe induzida pelo etanol, culturas e terras cultiváveis podem ser usadas para alimentar máquinas e seres humanos. Quando as máquinas são mais eficientes em termos de transformar terras agrícolas em trabalhos úteis, você começará a ver o preço dos alimentos subir. Isso normalmente leva a tumultos, pois as pessoas realmente não gostam de morrer de fome e estão dispostas a arriscar suas próprias vidas para derrubar o governo, a fim de evitar isso.
Você pode aplacar as pessoas fornecendo alimentos subsidiados e coisas do gênero. Contanto que isso não seja economicamente prejudicial (ou seja, se caro o suficiente, pode resultar em você ser superado por outros lugares que não fazem isso), isso é meramente politicamente instável.
Como alternativa, a curto prazo, a casta que recebe lucros da economia cada vez mais eficiente administrada pela IA pode pagar por uma casta policial ou militar para acabar com os tumultos. Isso requer que as castas policiais / militares sejam de classe alta baixa para média nos padrões de vida, a fim de garantir lealdade contínua - você não deseja que eles se juntem aos manifestantes.
Portanto, um dos centros de lucro para os quais você pode colocar a IA é o militar e o policiamento baseados em IA. Os drones que fornecem munições letais e não letais com base no processamento de feeds de dados visuais e outros podem reduzir o número de policiais / militares de classe média necessários para reprimir distúrbios provocados pelo preço dos alimentos ou outras instabilidades. Como já assumimos que as IAs podem ter corpos e treinamento mais baratos que um ser humano biológico, isso também pode aumentar a quantidade de força que você pode empregar por dólar gasto.
Neste ponto, estamos falando de policiais e militares principalmente de IA que estão sendo usados para impedir que seres humanos famintos destruam a economia de IA e aproveitem os meios de produção do uso mais eficiente para o qual está sendo utilizado atualmente.
Os humanos vestigiais que "possuem" o sistema no topo estão tomando decisões racionais localmente para otimizar sua riqueza e poder. Eles podem ou não persistir por muito tempo; contanto que drenem uma quantidade relativamente pequena de recursos e não atrapalhem a economia de execução da IA, não haverá muita pressão de seleção para se livrar deles. Por outro lado, como eles não estão contribuindo com nada de valor, eles posicionam "no topo" é politicamente instável.
Esse processo assumiu uma IA geral "forte". AIs mais estreitas podem fazer isso em pedaços. Um computador de diagnóstico barato e eficaz poderia reduzir a maioria dos médicos à pobreza em um período surpreendentemente curto, por exemplo. Carros autônomos podem engolir 5% a 10% da economia. A tecnologia da informação já está engolindo o setor de varejo com IA modesta.
Dizem que todo avanço tecnológico leva a mais e melhores empregos para os seres humanos. E isso tem sido verdade nos últimos 300 anos.
Mas antes de 1900, também era verdade que todo avanço tecnológico levava a mais e melhores empregos para os cavalos. Então o ICE e o automóvel chegaram, e agora há muito menos cavalos trabalhando; os cavalos restantes são basicamente o equivalente a criados pessoais humanos: guardados para a novidade de "uau, frio, cavalo" e a diversão de andar e controlar um animal enorme.
Além das muitas respostas já fornecidas, eu abordaria a questão de exemplos contraditórios na área de modelos de imagem.
Exemplos adversos são imagens que foram perturbadas por ruídos projetados especificamente que geralmente são imperceptíveis a um observador humano, mas alteram fortemente a previsão de um modelo.
Exemplos incluem:
Afetando o diagnóstico previsto em uma radiografia de tórax
Afetar a detecção de sinais de trânsito necessários para veículos autônomos.
A IA usada para resolver um problema do mundo real pode representar um risco para a humanidade e não requer exatamente senciência, isso também requer um certo grau de estupidez humana.
Ao contrário dos humanos, uma IA encontraria a resposta mais lógica sem a restrição de emoção, ética ou até ganância ... Somente lógica. Pergunte a esta IA como resolver um problema que os humanos criaram (por exemplo, Mudanças Climáticas) e sua solução pode ser eliminar toda a raça humana para proteger o planeta. Obviamente, isso exigiria dar à IA a capacidade de agir de acordo com seu resultado, o que me leva ao meu ponto anterior, a estupidez humana.
A inteligência artificial pode nos prejudicar de qualquer forma da inteligência natural (dos seres humanos). A distinção entre inteligência natural e artificial desaparecerá quando os humanos começarem a se intensificar mais intimamente. A inteligência não pode mais caracterizar a identidade e se tornará uma posse ilimitada. O dano causado será o máximo que os humanos podem suportar por preservar sua auto-identidade em evolução.
Poucas pessoas percebem que nossa economia global deve ser considerada uma IA: - As transações monetárias são os sinais de uma rede neural. Os nós da rede neural seriam as diferentes empresas ou particulares que pagam ou recebem dinheiro. - É fabricado pelo homem e é qualificado como artificial
Essa rede neural é melhor em sua tarefa do que os humanos: o capitalismo sempre venceu a economia planejada pelos seres humanos (economia do plano).
Essa rede neural é perigosa? Pode ser diferente se você é o CEO que ganha muito em comparação com um pescador em um rio poluído por resíduos corporativos.
Como essa IA se tornou perigosa? Você poderia responder que é por causa da ganância humana. Nossa criação se reflete. Em outras palavras: não treinamos nossa rede neural para se comportar bem. Em vez de treinar a rede neural para melhorar a qualidade de vida de todos os seres humanos, treinamos para tornar mais ricos os truques ricos.
Seria fácil treinar essa IA para não ser mais perigosa? Talvez não, talvez algumas IA sejam apenas maiores que a vida. É apenas a sobrevivência do mais apto.