No , con un pero . Podemos tener una resolución de problemas creativa pero ética si el sistema tiene un sistema ético completo, pero de lo contrario la creatividad será insegura por defecto.
Se pueden clasificar los enfoques de toma de decisiones de IA en dos tipos: pensadores interpolativos y pensadores extrapolativos.
Los pensadores interpolativos aprenden a clasificar e imitar todo lo que están aprendiendo, y no intentan dar resultados razonables fuera de su dominio de capacitación. Puede considerarlos como una interpolación entre ejemplos de capacitación y que se benefician de todas las garantías y condiciones matemáticas como otras técnicas estadísticas.
Los pensadores extrapolativos aprenden a manipular los principios subyacentes, lo que les permite combinar esos principios de formas previamente no consideradas. El campo relevante para la intuición aquí es la optimización numérica , de los cuales el ejemplo más simple y famoso es la programación lineal , en lugar de los campos estadísticos que dieron lugar al aprendizaje automático. Puede pensar en ellos como extrapolando más allá de los ejemplos de entrenamiento (de hecho, muchos de ellos ni siquiera requieren ejemplos de entrenamiento, o usar esos ejemplos para inferir principios subyacentes).
La promesa de los pensadores extrapolativos es que pueden llegar a estas soluciones "laterales" mucho más rápido de lo que las personas podrían hacerlo. El problema con estos pensadores extrapolativos es que solo usan los principios hablados, no ninguno que parezca demasiado obvio para mencionar.
Un atributo de las soluciones a los problemas de optimización es que el vector de características suele ser "extremo" de alguna manera. En la programación lineal, al menos un vértice del espacio de solución factible será óptimo, por lo que los métodos de solución simples encuentran un vértice óptimo (que es casi inviable por naturaleza de ser un vértice).
Como otro ejemplo, la solución de combustible mínimo para mover una nave espacial de una posición a otra se llama ' bang-bang ', donde aceleras la nave lo más rápido posible al principio y al final de la trayectoria, navegando a la velocidad máxima en el medio .
Si bien es una virtud cuando el sistema se entiende correctamente (bang-bang es óptimo para muchos casos), esto es catastrófico cuando el sistema se entiende incorrectamente. Mi ejemplo favorito aquí es el problema de la dieta de Dantzig (la discusión comienza en la página 5 del pdf), donde intenta optimizar su dieta usando las matemáticas. Bajo su primer conjunto de restricciones, se supone que debe beber 500 galones de vinagre al día. Bajo su segundo, 200 cubitos de caldo. Debajo de su tercero, dos libras de salvado. Las consideraciones que hacen que esas ideas obviamente malas no estén incluidas en el sistema, por lo que el sistema las sugiere inocentemente.
Si puede codificar completamente el conocimiento y los valores que una persona usa para juzgar estos planes en la IA, entonces los sistemas extrapolativos son tan seguros como esa persona. Podrán considerar y rechazar el tipo incorrecto de planes extremos, y dejarlo con el tipo correcto de planes extremos.
Pero si no puede, entonces tiene sentido no construir un tomador de decisiones extrapolativo, y en su lugar construir uno interpolativo. Es decir, en lugar de preguntarse "¿cómo logro mejor el objetivo X?" se pregunta "¿qué haría una persona en esta situación?". Este último podría ser mucho peor para lograr el objetivo X, pero tiene mucho menos riesgo de sacrificar otros objetivos para lograr X.