La singularidad, en el contexto de la IA, es un evento teórico mediante el cual se implementa un sistema inteligente con los siguientes criterios.
- Capaz de mejorar el alcance de su propia inteligencia o desplegar otro sistema con ese alcance mejorado
- Dispuesto o obligado a hacerlo
- Capaz de hacerlo en ausencia de supervisión humana
- La versión mejorada mantiene los criterios (1) a (3) de forma recursiva
Por inducción, la teoría predice que se generará una secuencia de eventos con una tasa potencial de aumento de inteligencia que puede exceder ampliamente la tasa potencial de evolución cerebral.
Qué tan obligada sería esta entidad o población de entidades procreadas para mejorar la vida humana y la libertad es indeterminada. La idea de que dicha obligación puede ser parte de un contrato de software irrevocable es ingenua a la luz de la naturaleza de las capacidades vinculadas a los criterios (1) a (4) anteriores. Al igual que con otras tecnologías potentes, los riesgos son tan numerosos y de gran alcance como los beneficios potenciales.
Los riesgos para la humanidad no requieren inteligencia. Existen otros contextos para el uso del término singularidad, pero están fuera del alcance de este foro de IA, pero puede merecer una breve mención para mayor claridad. Ingeniería genética, ingeniería nuclear, globalización y basar una economía internacional en una fuente de energía finita que se consume miles de veces más rápido de lo que surgió en la tierra. Estos son otros ejemplos de tecnologías de alto riesgo y tendencias masivas que presentan riesgos y beneficios. a la humanidad
Volviendo a la IA, la advertencia principal en la teoría de la singularidad es su incapacidad para incorporar la probabilidad. Aunque es posible desarrollar una entidad que cumpla con los criterios (1) a (4) anteriores, puede ser lo suficientemente improbable como para que el primer evento ocurra mucho después de que todos los idiomas que se hablan en la Tierra estén muertos.
En el otro extremo de la distribución de probabilidad, uno podría argumentar fácilmente que existe una probabilidad distinta de cero de que el primer evento ya haya ocurrido.
En ese sentido, si una presencia más inteligente ya existiera en Internet, ¿qué tan probable sería que encontrara en su mejor interés revelarse a los seres humanos inferiores? ¿Nos presentamos a un gusano que pasa?