O efeito da IA ocorre quando os espectadores desconsideram o comportamento de um programa de inteligência artificial argumentando que não é uma inteligência real.
Pamela McCorduck escreve: "Faz parte da história do campo da inteligência artificial que toda vez que alguém descobre como fazer um computador fazer alguma coisa - jogar boas damas, resolver problemas simples, mas relativamente informais - havia um coro de críticos a dizer:" isso não está pensando '. "[1] O pesquisador da IA Rodney Brooks reclama:" Toda vez que descobrimos um pedaço dele, ele deixa de ser mágico; dizemos:' Oh, isso é apenas um cálculo '". [2]
A página da Wikipedia propõe vários motivos diferentes que poderiam explicar por que os espectadores podem "descontar" os programas de IA. No entanto, essas razões parecem implicar que os humanos estão cometendo um erro ao "descontar" o comportamento dos programas de IA ... e que esses programas de IA podem realmente ser inteligentes. Eu quero fazer um argumento alternativo, onde os humanos estão cometendo um erro, mas não em "descontar" o comportamento dos programas de IA.
Considere a seguinte situação. Eu quero construir uma máquina que possa executar o X (onde X é uma característica, como inteligência). Consigo avaliar intuitivamente se uma máquina possui esse critério X. Mas eu não tenho uma boa definição do que X realmente é . Tudo o que posso fazer é identificar se algo tem X ou não.
No entanto, acho que as pessoas que têm X podem fazer Y. Então, se eu construo uma máquina que pode fazer Y, certamente construí uma máquina que tem X.
Depois de construir a máquina que pode executar Y, eu a examino para ver se minha máquina possui X. E não. Então, minha máquina não possui X. E enquanto uma máquina que pode fazer Y é legal, o que eu realmente quero é uma máquina que tem X. Volto à prancheta e penso em uma nova idéia para alcançar X.
Depois de escrever no quadro branco por algumas horas, percebo que as pessoas que têm X podem fazer Z. É claro! Eu tento construir uma nova máquina que pode fazer Z, sim, se ele pode fazer Z, então ele deve ter X.
Depois de construir a máquina que pode executar Z, verifico se ela possui X. Não possui. E então volto à prancheta, e o ciclo se repete e se repete ...
Essencialmente, os seres humanos estão tentando determinar se uma entidade possui inteligência por meio de medições por proxy, mas essas medições são potencialmente defeituosas (pois é possível atender a essas medições por proxy sem nunca ter realmente inteligência). Até sabermos como definir inteligência e projetar um teste que possa mensurá-lo com precisão, é muito improvável que construamos uma máquina que tenha inteligência. Portanto, o Efeito AI ocorre porque os humanos não sabem como definir "inteligência", não porque as pessoas descartem os programas por não serem "inteligentes".
Este argumento é válido ou correto? E se não, por que não?