Como os carros autônomos poderiam tomar decisões éticas sobre quem matar?
Não deveria. Carros autônomos não são agentes morais. Os carros falham de maneiras previsíveis. Cavalos falham de maneiras previsíveis.
o carro está indo em direção a uma multidão de 10 pessoas atravessando a rua, por isso não pode parar a tempo, mas pode evitar matar 10 pessoas batendo no muro (matando os passageiros),
Nesse caso, o carro deve pisar no freio. Se as 10 pessoas morrem, isso é lamentável. Simplesmente não podemos confiar em todas as nossas crenças sobre o que está ocorrendo fora do carro. E se essas dez pessoas forem realmente robôs feitos para parecerem pessoas? E se eles estão tentando te matar?
evitando matar o motociclista, considerando que a probabilidade de sobrevivência é maior para o passageiro do carro,
Novamente, a codificação desse tipo de sentimentos em um veículo abre o motociclista para todos os tipos de ataques, incluindo motociclistas "falsos" . Os humanos mal estão equipados para tomar essas decisões por conta própria, se houver. Em caso de dúvida, basta pisar no freio.
matar animais nas ruas em favor do ser humano,
Mais uma vez, basta pisar no freio. E se fosse um bebê? E se fosse uma bomba?
mudar de faixa para colidir com outro carro para evitar matar um cachorro,
Não. O cachorro estava no lugar errado na hora errada. O outro carro não estava. Basta pisar no freio, o mais seguro possível.
O algoritmo reconhece a diferença entre um ser humano e um animal?
Um humano? Nem sempre. E se o humano tiver uma arma? E se o animal tiver dentes grandes? Não há contexto?
- O tamanho do ser humano ou animal é importante?
- Ele conta quantos passageiros ele tem vs. pessoas na frente?
- "Sabe" quando bebês / crianças estão a bordo?
- Isso leva em consideração a idade (por exemplo, matar os mais velhos primeiro)?
Os humanos não podem concordar com essas coisas. Se você perguntar a um policial o que fazer em qualquer uma dessas situações, a resposta não será: "Você deveria ter desviado para a esquerda, ponderado todas as partes relevantes em sua cabeça, avaliado as idades relevantes entre todas as partes e depois se virou levemente certo, e você teria salvado 8% mais vidas ". Não, o policial apenas dirá: "Você deveria ter parado o veículo o mais rápido e seguro possível". Por quê? Porque os policiais sabem que as pessoas normalmente não estão equipadas para lidar com cenários de acidentes de alta velocidade.
Nossa meta para "carro autônomo" não deve ser 'um agente moral a par de um humano'. Deve ser um agente com a complexidade reativa da barata, que falha previsivelmente.