The Saturday Papers: ¿Te mentiría AI? es una publicación de blog que resume un trabajo de investigación llamado Hacia personajes que observan, dicen, recuerdan y mienten . Este trabajo de investigación detalla los planes de algunos investigadores para implementar "modelos mentales" para los NPC en los videojuegos. Los NPC recopilarán información sobre el mundo y transmitirán ese conocimiento a otras personas (incluidos los jugadores humanos). Sin embargo, también "recordarán mal" ese conocimiento (ya sea "mutando" ese conocimiento o simplemente olvidándolo), o incluso mentirán:
A medida que se plantea un tema de conversación, un personaje puede transmitir información falsa, más precisamente, información que ella misma no cree, a su interlocutor. Actualmente, esto ocurre probabilísticamente de acuerdo con la afinidad de un personaje hacia el interlocutor, y la información errónea se elige al azar.
Más adelante en el trabajo de investigación, detallaron sus planes futuros para mentir:
Actualmente, las mentiras solo se almacenan en el conocimiento de los personajes que las reciben, pero planeamos tener personajes que les digan que también las rastreen para que puedan razonar sobre mentiras pasadas al construir las subsiguientes. Si bien los personajes actualmente solo mienten sobre otros personajes, planeamos implementar mentiras egocéntricas (DePaulo 2004), por ejemplo, personajes que mienten sobre sus títulos de trabajo o relaciones con otros personajes. Finalmente, imaginamos personajes que descubren que les han mentido para revisar sus afinidades hacia los mentirosos, o incluso para confrontarlos.
El documento de investigación también detalló cómo otros desarrolladores de videojuegos intentaron crear NPC mentirosos, con énfasis en cómo su sistema difiere:
Los caracteres TALE-SPIN pueden mentirse entre sí (Meehan 1976, 183-84), aunque de manera bastante arbitraria, como en la implementación de nuestro sistema actual. GOLEM implementa una variante del mundo de bloques en la que los agentes engañan a otros para lograr objetivos (Castelfranchi, Falcone y De Rosis 1998), mientras que Mouth of Truth utiliza una representación probabilística de la creencia del personaje para alimentar el engaño del agente en una variante del juego de imitación de Turing (De Rosis et al.2003). En Christian (2004), un planificador de engaños inyecta un estado mundial inexacto en las creencias de un agente objetivo para que pueda realizar acciones sin darse cuenta que cumplan objetivos ocultos de un agente engañoso. Por último, los agentes en la extensión de Reis (2012) a FAtiMA emplean múltiples niveles de teoría de la mente para engañarse mutuamente en el juego de grupo Werewolf. Si bien todos los sistemas anteriores muestran personajes que perciben, y en algunos casos, engañan, otros personajes, ninguno parece admitir los siguientes componentes clave de nuestro sistema: la propagación del conocimiento y la falibilidad de la memoria. ...
Al igual que algunos otros sistemas mencionados anteriormente, Dwarf Fortress también presenta personajes que mienten de forma autónoma. Cuando un personaje comete un delito, puede implicar falsamente a otra persona en un informe de un testigo a un sheriff, para protegerse o incluso para enmarcar a un enemigo. Sin embargo, estos informes de testigos solo son vistos por el jugador; los personajes no se dan informes falsos de testigos entre sí. Sin embargo, pueden mentir sobre sus opiniones, por ejemplo, por temor a las repercusiones de criticar a un líder. Finalmente, Dwarf Fortress actualmente no modela problemas de falibilidad de memoria: Adams desconfía de que tales fenómenos parezcan surgir de errores si no se expresan artísticamente al jugador.