Steve Omohudro escribió un artículo llamado Unidades de IA básicas que explica por qué esperaríamos que una IA con objetivos limitados encuentre algunos conceptos básicos y generales como útiles para sus objetivos específicos.
Por ejemplo, una IA diseñada para maximizar los rendimientos del mercado de valores, pero cuyo diseño no menciona la importancia de continuar sobreviviendo, se daría cuenta de que su supervivencia continua es un componente clave para maximizar los rendimientos del mercado de valores y, por lo tanto, tomar medidas para mantenerse operativa.
En general, debemos ser escépticos de 'anthropomorphizing' AI y otros códigos, pero parece que no hay razones para esperar que esto más allá "así, los seres humanos se comportan de esta manera, por lo que debe ser cómo se comporta todas inteligencia."