Em outubro de 2014, o Dr. Mark Riedl publicou uma abordagem para testar a inteligência artificial, chamada de "Lovelace Test 2.0" , depois de se inspirar no teste original de Lovelace (publicado em 2001). Mark acreditava que o Teste Lovelace original seria impossível de passar e, portanto, sugeriu uma versão mais fraca e mais prática.
O Lovelace Test 2.0 supõe que, para uma IA ser inteligente, ela deve exibir criatividade. Do próprio papel:
O teste Lovelace 2.0 é o seguinte: o agente artificial a é desafiado da seguinte forma:
a deve criar um artefato o do tipo t;
o deve estar em conformidade com um conjunto de restrições C onde ci ∈ C é qualquer critério expressável em linguagem natural;
um avaliador humano h, tendo escolhido te C, está convencido de que o é uma instância válida de te cumpre C; e
um árbitro humano r determina que a combinação de t e C não é irreal para um humano médio.
Como é possível para um avaliador humano apresentar algumas restrições muito fáceis para uma IA vencer, espera-se que o avaliador humano continue criando restrições cada vez mais complexas para a IA até que a IA falhe. O objetivo do Lovelace Test 2.0 é comparar a criatividade de diferentes IAs, não fornecer uma linha divisória definida entre 'inteligência' e 'não-inteligência', como faria o Teste de Turing.
No entanto, estou curioso para saber se esse teste foi realmente usado em um ambiente acadêmico ou se é visto apenas como um experimento mental no momento. O Teste Lovelace parece fácil de aplicar em ambientes acadêmicos (você só precisa desenvolver algumas restrições mensuráveis que podem ser usadas para testar o agente artificial), mas também pode ser muito subjetivo (os seres humanos podem discordar dos méritos de certas restrições e se um artefato criativo produzido por uma IA realmente atende ao resultado final).