En el Capítulo 26 del libro Inteligencia artificial: un enfoque moderno (3ª edición), el libro de texto discute la "singularidad tecnológica". Cita a IJ Good, quien escribió en 1965:
Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultra inteligente podría diseñar máquinas aún mejores; indudablemente habría una "explosión de inteligencia", y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control.
Más adelante en el libro de texto, tiene esta pregunta:
26.7 - IJ Good afirma que la inteligencia es la cualidad más importante, y que construir máquinas ultra inteligentes lo cambiará todo. Un guepardo inteligente responde que "En realidad, la velocidad es más importante; si pudiéramos construir máquinas ultrarrápidas, eso cambiaría todo" y un elefante inteligente dice "Ambos están equivocados; lo que necesitamos son máquinas ultra fuertes", ¿qué piensas de estos? argumentos?
Parece que la pregunta del libro de texto es un argumento implícito contra IJ Good. El bien puede ser tratar la inteligencia como valiosa, simplemente porque las fortalezas del hombre residen en ese rasgo llamado "inteligencia". Pero otros rasgos podrían ser igualmente valorados (velocidad o fuerza) y los seres sintientes pueden especular salvajemente acerca de que sus rasgos preferidos son "maximizados" por alguna máquina u otra.
Esto me hace preguntarme si una singularidad podría ocurrir si hubiéramos construido máquinas que no maximizaran la inteligencia, sino que maximizaran algún otro rasgo (una máquina que siempre aumenta su fuerza o una máquina que siempre aumenta su velocidad). Estos tipos de máquinas pueden ser igual de transformadores: las máquinas ultrarrápidas pueden resolver problemas rápidamente debido a la "fuerza bruta", y las máquinas ultrafuertes pueden usar su potencia bruta para una variedad de tareas físicas. Tal vez una máquina ultra-X no pueda construir otra máquina ultra-X (ya que IJ Good trató el diseño de las máquinas como una actividad intelectual), pero una máquina que mejora constantemente dejaría a sus creadores muy atrás y obligaría a sus creadores a ser Depende de ello.
¿Las singularidades tecnológicas se limitan a las ultrainteligencias? ¿O las singularidades tecnológicas pueden ser causadas por máquinas que no son "IA fuerte" pero que siguen siendo optimizadores "ultra"?