Editar: como no he recibido ninguna respuesta / comentario en una semana, me gustaría agregar que estoy feliz de escuchar algo sobre el problema. No trabajo en el área, así que aunque sea una simple observación, puede que no lo sepa. ¡Incluso un comentario como "Trabajo en el área, pero no he visto una caracterización como esta" sería útil!
Antecedentes:
Existen varios modelos de aprendizaje bien estudiados en la teoría del aprendizaje (p. Ej., Aprendizaje PAC, aprendizaje en línea, aprendizaje exacto con consultas de membresía / equivalencia).
Por ejemplo, en el aprendizaje PAC, la complejidad de la muestra de una clase de concepto tiene una buena caracterización combinatoria en términos de la dimensión VC de la clase. Entonces, si queremos aprender una clase con precisión y confianza constantes, esto se puede hacer con muestras , donde d es la dimensión VC. (Tenga en cuenta que estamos hablando de la complejidad de la muestra, no de la complejidad del tiempo). También hay una caracterización más refinada en términos de precisión y confianza. Del mismo modo, el modelo de aprendizaje en línea con errores tiene una buena caracterización combinatoria.
Pregunta:
Quiero saber si se conoce un resultado similar para el modelo de aprendizaje exacto con consultas de membresía. El modelo se define de la siguiente manera: tenemos acceso a un cuadro negro que en la entrada le da f ( x ) . Sabemos f viene de alguna clase de concepto C . Queremos determinar f con la menor cantidad de consultas posible.
¿Existe un parámetro combinatorio de una clase de concepto que caracterice el número de consultas necesarias para aprender un concepto en el modelo de aprendizaje exacto con consultas de membresía?
Lo que yo sé:
La mejor caracterización que he encontrado está en este artículo de Servedio y Gortler , usando un parámetro que atribuyen a Bshouty, Cleve, Gavaldà, Kannan y Tamon . Definen un parámetro combinatorio llamado , donde C es la clase de concepto, que tiene las siguientes propiedades. (Deje que Q C sea el número óptimo de consultas necesarias para aprender C en este modelo).
Esta caracterización es casi estricta. Sin embargo, podría haber una brecha cuadrática entre los límites superior e inferior. Por ejemplo si , entonces el límite inferior es Ω ( k ) , pero el límite superior es O ( k 2 ) . (También creo que esta brecha es alcanzable, es decir, existe una clase de concepto para la cual los límites inferiores son Ω ( k ) , pero el límite superior es O ( k 2 ) .)