Es bien sabido que para el aprendizaje PAC clásico, los ejemplos de son necesarios para lograr un límite de error de ε whp, donde d es la dimensión VC de la clase de concepto.
¿Se sabe que se necesitan ejemplos de en el caso agnóstico?
3
No estoy seguro de cómo se ve el límite inferior, uno debería existir si el límite de Hoefding es ajustado (y creo que lo es). Este límite establece que para 1 fn, si la probabilidad de error es p, entonces necesita como máximo muestras para estimar p dentro del error + - ϵ whp Entonces, considere cualquier clase de concepto con 2 conceptos, f 1 y f 2 y VC-dimensión 2. Tomar una distribución más ejemplos para que p 1 = p 2 + ε (o viceversa) - esto es posible porque VC-dimensión es 2. parece que un algoritmo utilizando sólo o
—
Aaron Roth
ejemplos implicarían un límite Hoefding mejorado.
Es decir, creo que el Hoeffding ligados es apretado en para O ( 1 / ε 2 ) . Creo que el razonamiento anterior es generalmente conocido ...
—
Lev Reyzin
OK, parece que me hice otro ejercicio para el curso de ML ... :) ¡Gracias por el aporte, Aaron y Lev!
—
Aryeh
@ Aaron, tal vez esto debería haber sido una respuesta.
—
Suresh Venkat