Preguntas etiquetadas con machine-learning

Preguntas teóricas sobre el aprendizaje automático, especialmente la teoría del aprendizaje computacional, incluida la teoría del aprendizaje algorítmico, el aprendizaje PAC y la inferencia bayesiana

1
Aprendizaje agnóstico sobre distribuciones arbitrarias
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in Cerr(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Digamos que un algoritmo AAA aprende agnósticamente CCC sobre cualquier distribución, si para cualquier DDD puede con una probabilidad 2/32/32/3 encontrar una función fff tal que err(f,D)≤OPT(C,D)+ϵerr(f,D)≤OPT(C,D)+ϵerr(f,D) \leq OPT(C,D) + \epsilon , dado …



3
Recurso / libro para avances recientes en la teoría del aprendizaje estadístico
Estoy bastante familiarizado con la teoría detrás de VC-Dimension, pero ahora estoy mirando los avances recientes (últimos 10 años) en la teoría del aprendizaje estadístico: promedios (locales) Rademacher, Lema de clase finita de Massart, Números de cobertura, Encadenamiento, Dudley Teorema, pseudodimensión, dimensión de rotura de grasa, números de embalaje, composición …

1
Muestra agnóstica de PAC límite inferior
Es bien sabido que para el aprendizaje PAC clásico, los ejemplos de son necesarios para lograr un límite de error de ε whp, donde d es la dimensión VC de la clase de concepto.Ω(d/ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd ¿Se sabe que se necesitan ejemplos de en el caso agnóstico?Ω(d/ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)

1
¿Qué clasificadores de aprendizaje automático son los más paralelizables?
¿Qué clasificadores de aprendizaje automático son los más paralelizables? Si tuviera un problema de clasificación difícil, tiempo limitado, pero una LAN decente de computadoras para trabajar, ¿qué clasificadores probaría? Por supuesto, me parece que algunos clasificadores estándar que conozco se apilan de la siguiente manera, pero podría estar totalmente equivocado: …

5
¿Cuáles son buenas referencias para entender el aprendizaje en línea?
Específicamente, solicito recursos para aprender sobre los sistemas de aprendizaje automático que pueden actualizar sus respectivas redes de creencias (o equivalentes) durante la operación. Incluso me he encontrado con algunos, aunque no pude marcarlos. Como puede imaginar, es un tema bastante desafiante para buscar en Internet.


2
¿Resultados teóricos para bosques aleatorios?
Los bosques aleatorios tienen una reputación entre los profesionales de estar entre las técnicas de clasificación más efectivas. Sin embargo, no los encontramos mucho en la literatura teórica del aprendizaje, de la cual deduzco una ausencia de resultados teóricos profundos. Si uno quisiera profundizar en esta teoría, ¿por dónde empezaría?


1
Aprender con errores (firmados)
Background––––––––––––––Background_\underline{\bf Background} En 2005, Regev [1] introdujo el problema de Aprendizaje con errores (LWE), una generalización del problema de Paridad de aprendizaje con error. La suposición de la dureza de este problema para ciertas opciones de parámetros ahora subyace a las pruebas de seguridad para una gran cantidad de criptosistemas …


2
¿Hay familias de idiomas formales que se sabe que son verdaderamente aprendebles en PAC?
Me refiero específicamente a las familias de idiomas que admiten cadenas arbitrariamente largas, no conjunciones sobre n bits o listas de decisiones o cualquier otro lenguaje "simple" contenido en {0,1} ^ n. Estoy preguntando acerca de los lenguajes regulares "autómatas-teóricos" en lugar de los "lógicos-teóricos": algo así como los lenguajes …



Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.