Preguntas etiquetadas con lg.learning

Aprendizaje automático y teoría del aprendizaje: aprendizaje PAC, teoría del aprendizaje algorítmico y aspectos computacionales de la inferencia bayesiana y los modelos gráficos.






1
Dado
Aquí hay un problema con un sabor similar al de las juntas de aprendizaje: Entrada: Una función f:{0,1}n→{−1,1}f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\} , representada por un oráculo de membresía, es decir, un oráculo que dado xxx , devuelve f(x)f(x)f(x) . Objetivo: encontrar un subcubo SSS de {0,1}n{0,1}n\{0,1\}^n con volumen |S|=2n−k|S|=2n−k|S|=2^{n-k} tal …

1
Paridad ruidosa (LWE) límites inferiores / resultados de dureza
Algunos antecedentes: Estoy interesado en encontrar límites inferiores "menos conocidos" (o resultados de dureza) para el problema de Aprendizaje con errores (LWE) y generalizaciones de los mismos como Aprender con errores sobre anillos. Para definiciones específicas, etc., aquí hay una buena encuesta realizada por Regev: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf El tipo estándar de …

1
Límites inferiores para aprender en la consulta de membresía y el modelo de contraejemplo
Dana Angluin ( 1987 ; pdf ) define un modelo de aprendizaje con consultas de membresía y consultas teóricas (contraejemplos de una función propuesta). Ella muestra que un lenguaje regular que está representado por un DFA mínimo de estados se puede aprender en tiempo polinómico (donde las funciones propuestas son …



3
Aprendiendo con oráculos "taciturnos"
Mi pregunta es un poco genérica, así que estoy inventando una buena historia para justificarla. Ten paciencia conmigo si no es realista ;-) Historia El Sr. X, jefe del departamento de seguridad informática de una gran empresa, es un poco paranoico: exige que todos los empleados cambien sus contraseñas una …

1
Aprendizaje agnóstico sobre distribuciones arbitrarias
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in Cerr(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Digamos que un algoritmo AAA aprende agnósticamente CCC sobre cualquier distribución, si para cualquier DDD puede con una probabilidad 2/32/32/3 encontrar una función fff tal que err(f,D)≤OPT(C,D)+ϵerr(f,D)≤OPT(C,D)+ϵerr(f,D) \leq OPT(C,D) + \epsilon , dado …


1
Una pregunta de aprendizaje de paridad
Definamos una clase de funciones sobre un conjunto de bits. Arregle dos distribuciones p , q que sean "razonablemente" diferentes entre sí (si lo desea, su distancia de variación es al menos ϵ , o algo similar).nnnp,qp,qp, qϵϵ\epsilon Ahora cada función en esta clase se define mediante una colección de …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.