En octubre de 2014, el Dr. Mark Riedl publicó un enfoque para probar la inteligencia artificial, llamado "Prueba Lovelace 2.0" , después de inspirarse en la Prueba Lovelace original (publicada en 2001). Mark creía que la prueba original de Lovelace sería imposible de aprobar y, por lo tanto, sugirió una versión más débil y más práctica.
Lovelace Test 2.0 supone que para que una IA sea inteligente, debe exhibir creatividad. Del propio documento:
La prueba Lovelace 2.0 es la siguiente: el agente artificial a se desafía de la siguiente manera:
a debe crear un artefacto o del tipo t;
o debe ajustarse a un conjunto de restricciones C donde ci ∈ C es cualquier criterio expresable en lenguaje natural;
un evaluador humano h, que ha elegido ty C, está convencido de que o es una instancia válida de ty cumple con C; y
un árbitro humano r determina que la combinación de t y C no es poco realista para un humano promedio.
Dado que es posible que un evaluador humano presente algunas restricciones bastante fáciles para que una IA las supere, se espera que el evaluador humano continúe presentando restricciones cada vez más complejas para la IA hasta que la IA falle. El objetivo de Lovelace Test 2.0 es comparar la creatividad de diferentes IA, no proporcionar una línea divisoria definida entre 'inteligencia' y 'no inteligencia' como lo haría la Prueba de Turing.
Sin embargo, tengo curiosidad acerca de si esta prueba realmente se ha utilizado en un entorno académico, o si solo se ve como un experimento mental en este momento. La prueba de Lovelace parece fácil de aplicar en entornos académicos (solo necesita desarrollar algunas restricciones medibles que pueda usar para probar el agente artificial), pero también puede ser demasiado subjetivo (los humanos pueden estar en desacuerdo sobre los méritos de ciertas restricciones, y si un artefacto creativo producido por una IA realmente cumple con el resultado final).