Voy a abordar esto desde la dirección alternativa de la filosofía, a la luz de los principios realmente útiles de la Gestión de la incertidumbre discutidos en los libros de George F. Klir sobre conjuntos difusos. No puedo dar exactitud a van der Laan, pero puedo proporcionar un caso un tanto exhaustivo de por qué su objetivo es lógicamente imposible; eso requerirá una larga discusión que haga referencia a otros campos, así que tengan paciencia conmigo.
Klir y sus coautores dividen la incertidumbre en varios subtipos, como la no especificidad (es decir, cuando tiene un conjunto desconocido de alternativas, tratadas a través de medios como la función Hartley); imprecisión en las definiciones (es decir, la "difusa" modelada y cuantificada en conjuntos difusos); conflicto o discordia en la evidencia (abordado en la Teoría de la Evidencia Dempster-Shafer); más la teoría de la probabilidad, la teoría de la posibilidad y la incertidumbre de medición, donde el objetivo es tener un alcance adecuado para capturar la evidencia relevante, mientras se minimizan los errores. Miro toda la caja de herramientas de técnicas estadísticas como medios alternativos para dividir la incertidumbre de diferentes maneras, como un cortador de galletas; los intervalos de confianza y los valores p ponen en cuarentena la incertidumbre de una manera, mientras que medidas como la entropía de Shannon la reducen desde otro ángulo. Lo que pueden ' Lo que sí, sin embargo, es eliminarlo por completo. Para lograr un "modelo exacto" del tipo que parece describir van der Laan, tendríamos que reducir todos estos tipos de incertidumbre a cero, para que no quede más partición. Un modelo verdaderamente "exacto" siempre tendría valores de probabilidad y posibilidad de 1, puntajes de no especificidad de 0 y ninguna incertidumbre en las definiciones de términos, rangos de valores o escalas de medición. No habría discordia en fuentes alternativas de evidencia. Las predicciones hechas por dicho modelo siempre serían 100 por ciento precisas; Los modelos predictivos esencialmente dividen su incertidumbre en el futuro, pero no quedaría nada para posponer. La perspectiva de incertidumbre tiene algunas implicaciones importantes: del tipo que parece describir van der Laan, necesitaríamos reducir todos estos tipos de incertidumbre a cero, para que no quede más partición. Un modelo verdaderamente "exacto" siempre tendría valores de probabilidad y posibilidad de 1, puntajes de no especificidad de 0 y ninguna incertidumbre en las definiciones de términos, rangos de valores o escalas de medición. No habría discordia en fuentes alternativas de evidencia. Las predicciones hechas por dicho modelo siempre serían 100 por ciento precisas; Los modelos predictivos esencialmente dividen su incertidumbre en el futuro, pero no quedaría nada para posponer. La perspectiva de incertidumbre tiene algunas implicaciones importantes: del tipo que parece describir van der Laan, necesitaríamos reducir todos estos tipos de incertidumbre a cero, para que no quede más partición. Un modelo verdaderamente "exacto" siempre tendría valores de probabilidad y posibilidad de 1, puntajes de no especificidad de 0 y ninguna incertidumbre en las definiciones de términos, rangos de valores o escalas de medición. No habría discordia en fuentes alternativas de evidencia. Las predicciones hechas por dicho modelo siempre serían 100 por ciento precisas; Los modelos predictivos esencialmente dividen su incertidumbre en el futuro, pero no quedaría nada para posponer. La perspectiva de incertidumbre tiene algunas implicaciones importantes: Un modelo verdaderamente "exacto" siempre tendría valores de probabilidad y posibilidad de 1, puntajes de no especificidad de 0 y ninguna incertidumbre en las definiciones de términos, rangos de valores o escalas de medición. No habría discordia en fuentes alternativas de evidencia. Las predicciones hechas por dicho modelo siempre serían 100 por ciento precisas; Los modelos predictivos esencialmente dividen su incertidumbre en el futuro, pero no quedaría nada para posponer. La perspectiva de incertidumbre tiene algunas implicaciones importantes: Un modelo verdaderamente "exacto" siempre tendría valores de probabilidad y posibilidad de 1, puntajes de no especificidad de 0 y ninguna incertidumbre en las definiciones de términos, rangos de valores o escalas de medición. No habría discordia en fuentes alternativas de evidencia. Las predicciones hechas por dicho modelo siempre serían 100 por ciento precisas; Los modelos predictivos esencialmente dividen su incertidumbre en el futuro, pero no quedaría nada para posponer. La perspectiva de incertidumbre tiene algunas implicaciones importantes: Las predicciones hechas por dicho modelo siempre serían 100 por ciento precisas; Los modelos predictivos esencialmente dividen su incertidumbre en el futuro, pero no quedaría nada para posponer. La perspectiva de incertidumbre tiene algunas implicaciones importantes: Las predicciones hechas por dicho modelo siempre serían 100 por ciento precisas; Los modelos predictivos esencialmente dividen su incertidumbre en el futuro, pero no quedaría nada para posponer. La perspectiva de incertidumbre tiene algunas implicaciones importantes:
• Este alto orden no solo es físicamente inverosímil, sino que en realidad es lógicamente imposible. Obviamente, no podemos lograr escalas de medición perfectamente continuas con grados infinitesimales, mediante la recopilación de observaciones finitas utilizando equipos científicos físicos falibles; siempre habrá cierta incertidumbre en términos de escala de medición. Del mismo modo, siempre habrá algo de confusión en torno a las definiciones que empleamos en nuestros experimentos. El futuro también es inherentemente incierto, por lo que las predicciones supuestamente perfectas de nuestros modelos "exactos" deberán tratarse como imperfectas hasta que se demuestre lo contrario, lo que llevaría una eternidad.
• Para empeorar las cosas, ninguna técnica de medición está 100 por ciento libre de errores en algún momento del proceso, ni se puede hacer lo suficientemente completa como para abarcar toda la información posiblemente conflictiva en el universo. Además, la eliminación de posibles variables de confusión y la completa independencia condicional no se puede probar a fondo sin examinar todos los demás procesos físicos que afectan el que estamos examinando, así como aquellos que afectan estos procesos secundarios, etc.
• La exactitud solo es posible en la lógica pura y su subconjunto, las matemáticas, precisamente porque las abstracciones están divorciadas de las preocupaciones del mundo real como estas fuentes de incertidumbre. Por ejemplo, por pura lógica deductiva, podemos demostrar que 2 + 2 = 4 y cualquier otra respuesta es 100 por ciento incorrecta. También podemos hacer predicciones perfectamente precisas de que siempre será igual a 4. Este tipo de precisión solo es posible en las estadísticas cuando se trata de abstracciones. La estadística es increíblemente útil cuando se aplica al mundo real, pero lo que la hace útil inyecta al menos cierto grado de incertidumbre ineludible, lo que la hace inexacta. Es un dilema inevitable.
• Además, Peter Chu plantea limitaciones adicionales en la sección de comentarios del artículo vinculado a rvl. Lo pone mejor de lo que puedo:
"Esta superficie de solución de problemas difíciles de NP está típicamente plagada de muchos óptimos locales y, en la mayoría de los casos, es computacionalmente inviable resolver el problema, es decir, encontrar la solución global óptima en general. Por lo tanto, cada modelador está utilizando algunas técnicas de modelado (heurísticas), en el mejor de los casos, encontrar soluciones óptimas locales adecuadas en el vasto espacio de soluciones de esta compleja función objetivo "
• Todo esto significa que la ciencia en sí misma no puede ser perfectamente precisa, aunque van der Laan parece hablar de ello de esta manera en su artículo; El método científico como proceso abstracto es definible con precisión, pero la imposibilidad de una medición exacta universal y perfecta significa que no puede producir modelos exactos sin incertidumbre. La ciencia es una gran herramienta, pero tiene límites.
• Empeora a partir de ahí: incluso si fuera posible medir con exactitud todas las fuerzas que actúan sobre cada quark y gluón constituyente en el universo, aún subsistirían algunas incertidumbres . Primero, cualquier predicción hecha por un modelo tan completo aún sería incierta debido a la existencia de múltiples soluciones para ecuaciones quínticas y polinomios superiores. En segundo lugar, no podemos estar completamente seguros de que el escepticismo extremo expresado en la clásica pregunta "tal vez todo esto sea un sueño o una alucinación" no sea un reflejo de la realidad, en cuyo caso todos nuestros modelos están realmente equivocados de la peor manera posible . Esto es básicamente equivalente a una interpretación ontológica más extrema de las formulaciones epistemológicas originales de filosofías como el fenomenalismo, el idealismo y el solipsismo.
• En su ortodoxia clásica de 1909GK Chesterton señaló que las versiones extremas de estas filosofías pueden ser juzgadas, pero por si conducen o no a sus creyentes a instituciones mentales; El solipsismo ontológico, por ejemplo, es en realidad un marcador de esquizofrenia, como lo son algunos de sus primos. Lo mejor que podemos lograr en este mundo es eliminar la duda razonable; dudas irracionales de este tipo inquietantes no pueden eliminarse rigurosamente, incluso en un mundo hipotético de modelos exactos, mediciones exhaustivas y sin errores. Si van der Laan pretende librarnos de dudas irracionales, entonces está jugando con fuego. Al aferrarse a la perfección, el bien finito que podemos hacer se nos escapará de las manos; Somos criaturas finitas que existen en un mundo infinito, lo que significa que el tipo de conocimiento completo y completamente seguro que Van der Laan defiende está permanentemente fuera de nuestro alcance. La única forma en que podemos alcanzar ese tipo de certeza es retirándonos de ese mundo a los confines más estrechos del perfectamente abstracto que llamamos "matemática pura". Sin embargo, esto no significa que un retiro hacia las matemáticas puras sea la solución para eliminar la incertidumbre. Este fue esencialmente el enfoque adoptado por los sucesores de Ludwig Wittgenstein (1889-1951), quien drenó su filosofía del positivismo lógico de cualquier sentido común que tuvo al rechazar la metafísica por completo y retirarse por completo a las matemáticas y el cientificismo puro, así como al escepticismo extremo, sobreespecialización y énfasis excesivo en la exactitud sobre la utilidad. En el proceso, destruyeron la disciplina de la filosofía al disolverla en una maraña de dudas sobre las definiciones y la observación del ombligo, lo que la hizo irrelevante para el resto de la academia. Esto esencialmente mató a toda la disciplina, que todavía había estado a la vanguardia del debate académico hasta principios del siglo XX, hasta el punto de que todavía atrajo la atención de los medios y algunos de sus líderes eran nombres conocidos. Se aferraron a una explicación perfecta y pulida del mundo y se les escapó de las manos, tal como lo hizo a través de los pacientes mentales de los que habló GKC. También se escapará del alcance de Van der Laan, quien ya ha refutado su propio punto, como se discute a continuación. La búsqueda de modelos que sean demasiado exactos no es simplemente imposible; puede ser peligroso, si se lo lleva al punto de la obsesión autodestructiva. La búsqueda de ese tipo de pureza rara vez termina bien; A menudo es tan autodestructivo como los germófobos que se frotan las manos con tanta furia que terminan con heridas que se infectan. Eso' S recuerda a Ícaro tratando de robar fuego del Sol: como seres finitos, solo podemos tener una comprensión finita de las cosas. Como también dice Chesterton en Ortodoxia: "Es el lógico el que busca meter los cielos en su cabeza. Y es su cabeza la que se divide".
A la luz de lo anterior, permítanme abordar algunas de las preguntas específicas enumeradas por rvl:
1) Un modelo sin suposiciones es a) no consciente de sus propias suposiciones ob) debe estar claramente separado de consideraciones que introducen incertidumbre, como errores de medición, que representan cada variable de confusión posible, escalas de medición perfectamente continuas y me gusta.
2) Todavía soy un novato cuando se trata de la estimación de máxima verosimilitud (MLE), por lo que no puedo comentar sobre la mecánica de la probabilidad objetivo, excepto para señalar lo obvio: la probabilidad es solo eso, una probabilidad, no una certeza . Para obtener un modelo exacto se requiere la eliminación completa de la incertidumbre, lo que la lógica probabilística rara vez puede hacer, si es que alguna vez lo hace.
3) Por supuesto que no. Dado que todos los modelos retienen cierta incertidumbre y, por lo tanto, son inexactos (excepto en casos de matemática pura, divorciados de las mediciones físicas del mundo real), la raza humana no habría podido hacer ningún progreso tecnológico hasta la fecha, o de hecho, cualquier otro progreso en todos. Si los modelos inexactos siempre fueran inútiles, estaríamos teniendo esta conversación en una cueva, en lugar de esta increíble hazaña de tecnología llamada Internet, todo lo cual fue posible gracias al modelado inexacto.
Irónicamente, el propio modelo de van der Laan es un ejemplo primario de inexactitud. Su propio artículo esboza un modelo de tipos de cómo debe manejarse el campo de la estadística, con el objetivo de modelos exactos; todavía no hay números adjuntos a este "modelo", no hay una medición de cuán inexactos o inútiles son ahora la mayoría de los modelos, no hay cuantificación de cuán lejos estamos de su visión, pero supongo que uno podría idear pruebas para esas cosas . Tal como está, sin embargo, su modelo es inexacto. Si no es útil, significa que su punto está equivocado; si es útil, derrota su punto principal de que los modelos inexactos no son útiles. De cualquier manera, él refuta su propio argumento.
4) Probablemente no, porque no podemos tener información completa para probar nuestro modelo, por las mismas razones que no podemos derivar un modelo exacto en primer lugar. Un modelo exacto, por definición, requeriría una previsibilidad perfecta, pero incluso si las primeras 100 pruebas resultan 100 por ciento precisas, la 101 no. Luego está el problema de las escalas de medición infinitesimales. Después de eso, ingresamos a todas las otras fuentes de incertidumbre, lo que contaminará cualquier evaluación de Ivory Tower de nuestro modelo Ivory Tower.
5) Para abordar el problema, tuve que ponerlo en el contexto más amplio de cuestiones filosóficas mucho más grandes que a menudo son controvertidas, por lo que no creo que sea posible discutir esto sin entrar en opiniones (tenga en cuenta que eso en sí mismo es otro fuente de incertidumbre) pero tienes razón, este artículo merece una respuesta. Mucho de lo que dice sobre otros temas está en el camino correcto, como la necesidad de hacer estadísticas relevantes para Big Data, pero hay un extremismo poco práctico mezclado allí que debería corregirse.