Por que a ética não é mais integrada aos sistemas atuais de IA?


9

Eu sou um estudante de doutorado em ciência da computação e atualmente estou criando uma visão geral do estado da arte em aplicativos feitos em Machine Ethics (um campo multidisciplinar que combina filosofia e IA, que procura criar programas ou agentes éticos explícitos). Parece que o campo contém principalmente argumentos teóricos e há relativamente poucas implementações, embora existam muitas pessoas com formação técnica no campo.

Entendo que, como a ética está envolvida, não existe uma verdade fundamentada e, como faz parte da filosofia, pode-se perder discutindo sobre qual tipo de ética deve ser implementado e como isso pode ser feito melhor. No entanto, na ciência da computação, é comum até tentar uma implementação simples para mostrar as possibilidades ou limitações de sua abordagem.

Quais são as possíveis razões pelas quais tão pouco é feito na implementação explícita da ética na IA e na experimentação?


2
Exemplos de abordagens podem ser encontrados neste e neste documento de visão geral.
Suzanne

Respostas:


2

Esta é necessariamente uma resposta de alto nível e altamente especulativa, mas estive pensando nessa questão e aqui estão os meus pensamentos:

  • A implementação de algoritmos éticos requer uma base matemática para a filosofia, porque os computadores são mecanismos de diferença

Após o famoso fracasso de Russell & Whitehead e o teorema da incompletude de Gödel, isso parece ser problemático.

  • A IA é um campo altamente aplicado, especialmente hoje por validação contínua de aprendizado profundo, e nenhuma empresa quer se aproximar da questão da ética, a menos que seja forçada a

Assim, você vê isso em carros autônomos, porque os engenheiros não têm escolha a não ser lidar com o problema. Por outro lado, não acho que você verá muitas empresas algorítmicas de negociação de ações, onde o negócio é a eficiência de Pareto , preocupada com a ética ou os impactos sociais da especulação financeira. (A solução para "falhas instantâneas" parece ter sido regras para a suspensão temporária da negociação, em vez de abordar o valor social da negociação algorítmica de alta frequência.) Um exemplo mais óbvio são as empresas de mídia social que ignoram as quantidades extremas de abuso de informações (desinformação). e desinformação) postadas em seus sites, alegando ignorância, o que é altamente suspeito, pois a atividade gerada pelo abuso de informações afeta positivamente seus resultados.

  • Os campos aplicados tendem a ser predominantemente impulsionados pelo lucro

A principal diretiva das empresas é devolver um lucro aos investidores. Não é incomum que as empresas violem a lei quando se espera que multas e multas sejam inferiores ao lucro obtido por atividades ilegais. (Existe o conceito de ética nos negócios, mas a cultura em geral parece julgar pessoas e empresas com base em quanto dinheiro elas ganham, independentemente dos meios.)

  • A implementação da ética das máquinas está sendo explorada em áreas onde são necessários para vender o produto, mas em outros lugares, ainda é amplamente hipotético

Se as superinteligências evoluem e acabam com a humanidade (como algumas pessoas muito inteligentes com habilidades matemáticas superiores estão nos alertando), meu sentimento é de que isso será uma função da natureza, onde a evolução irrestrita desses algoritmos se deve a fatores econômicos que se concentram na hiperatividade. autômatos partidários em setores como especulação financeira e guerra autônoma. Essencialmente, perseguir lucros a todo custo, independentemente dos impactos.


Tomada interessante, o aspecto do lucro! Não pensava nisso desde que eu estava tão focado nas razões da pesquisa, mas faz sentido que também não haja pressão da indústria para que a pesquisa prossiga.
Suzanne

@SuzanneTolmeijer Thanks. Estou investigando como a teoria dos jogos se conecta à ética há alguns anos. (Principalmente, a filosofia inicial, em que, por exemplo, o "equilíbrio" era considerado o "bom" - o equilíbrio é uma função de equilíbrio e pode ser precisamente definida matematicamente. Diz respeito à economia, em que a estabilidade é geralmente entendida como ideal, onde a instabilidade é potencialmente catastrófica.) Mas eu não sou o único colaborador da IA ​​que abordou fatores econômicos nesse campo e os perigos potenciais do que estou chamando de "IA hiperpartidária".
DukeZhou

1

Sinto-me parte do problema de por que há muito pouco no caminho das implementações éticas das tecnologias de IA / ML, é simplesmente porque não há necessidade ou aplicação adequada dos marcos teóricos.

Com isso, quero dizer, não há maneiras substanciais de aplicar esse entendimento a algoritmos e modelos que não podem interagir de maneira significativa. Temos uma estrutura teórica tão grande sobre segurança / ética em IA porque é extremamente importante. Precisamos criar diretrizes seguras para implementar IA forte antes que ela seja criada.

Alguns trabalhos muito focados começaram a restringir os problemas na criação de sistemas de IA éticos / seguros. Veja problemas concretos na segurança da IA


Parece haver necessidade de ética explícita, pelo menos muitos pesquisadores pedem o avanço da ética explícita (por exemplo, Moor 2006 ). Em termos de aplicação adequada dos marcos teóricos, você pode estar certo: a implementação implica alguma interpretação em alguns casos, o que pode ser difícil. No entanto, você concorda que diretrizes seguras para IA são importantes, o que significa diretrizes práticas sobre o que consideramos 'certo' ou 'ético' para nossas máquinas. Essas diretrizes implicam em como implementar a ética nas máquinas de alguma maneira.
21717 Suzanne

1

Com o método de imitação, o comportamento mais apropriado pode ser integrado à inteligência artificial. A inteligência artificial pode ser remodelada quando a posição ética muda. É usado para fins ideológicos ou para coletar informações. Não está claro o que é o robô.


1

Podemos levar o modelo de erro ao contador. Reconhecer o viés e a variação entre o desempenho em redes neurais pode ser o primeiro passo. E então podemos discutir se esse desempenho é permitido. Tanto quanto sabemos, a prática da etnicidade requer estudo empírico e de campo. não podemos simplesmente usar argumentos e ensaios em papel para determinar se as ações das máquinas aprendidas estão erradas ou não. Pode ser dividido em acidentes, erros ou até bugs criados pelos desenvolvedores.


Um ponto interessante que você menciona aqui é basicamente, quais medidas podem ser usadas para testar o sistema e como você determina se o sistema está executando com precisão? Isso é algo que está faltando no campo, e eu sinto que é parte do problema: como testar seu sistema sem a verdade básica? Quais (dimensões em) medidas fazem sentido no contexto de algoritmos éticos explícitos? Sem isso, você não tem como comparar sistemas, o que limita o progresso no campo.
21717 Suzanne

1

Intuitivamente, parece haver poucas pesquisas sobre a implementação da ética da IA ​​porque:

  1. A sociedade como um todo parece concordar confortavelmente que o estado atual da inteligência da máquina não é forte o suficiente para ser considerado consciente ou senciente. Portanto, ainda não precisamos conceder direitos éticos.

  2. A implementação do comportamento ético em um programa requer um método para os computadores serem capazes de interpretar o "significado", que ainda não sabemos como fazer.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.