Preguntas etiquetadas con machine-learning

Los algoritmos de aprendizaje automático crean un modelo de los datos de entrenamiento. El término "aprendizaje automático" está vagamente definido; incluye lo que también se llama aprendizaje estadístico, aprendizaje de refuerzo, aprendizaje no supervisado, etc. AGREGUE SIEMPRE UNA ETIQUETA MÁS ESPECÍFICA.


1
¿Cuáles son las normas
Últimamente he estado viendo muchos documentos sobre representaciones dispersas, y la mayoría de ellos usan la norma ℓpℓp\ell_p y minimizan un poco. Mi pregunta es, ¿cuál es la norma ℓpℓp\ell_p y la norma mixta ℓp,qℓp,q\ell_{p, q} ? ¿Y cómo son relevantes para la regularización? Gracias



2
¿Qué tan profunda es la conexión entre la función softmax en ML y la distribución de Boltzmann en termodinámica?
La función softmax, comúnmente utilizada en redes neuronales para convertir números reales en probabilidades, es la misma función que la distribución de Boltzmann, la distribución de probabilidad sobre las energías para un conjunto de partículas en equilibrio térmico a una temperatura T dada en termodinámica. Puedo ver algunas razones heurísticas …


1
Diferentes transformaciones de densidad de probabilidad debido al factor jacobiano
En Bishop's Pattern Recognition and Machine Learning leí lo siguiente, justo después de que se introdujera la densidad de probabilidad :p(x∈(a,b))=∫bap(x)dxp(x∈(a,b))=∫abp(x)dxp(x\in(a,b))=\int_a^bp(x)\textrm{d}x Bajo un cambio no lineal de variable, una densidad de probabilidad se transforma de manera diferente a una función simple, debido al factor jacobiano. Por ejemplo, si consideramos un …


1
¿Cómo entender que el MLE de varianza está sesgado en una distribución gaussiana?
Estoy leyendo PRML y no entiendo la imagen. ¿Podría darnos algunas pistas para comprender la imagen y por qué el MLE de la varianza en una distribución gaussiana está sesgado? fórmula 1.55: fórmula 1.56 σ 2 M L E =1μMLE=1N∑n=1NxnμMLE=1N∑n=1Nxn \mu_{MLE}=\frac{1}{N} \sum_{n=1}^N x_n σ2MLE=1N∑n=1N(xn−μMLE)2σMLE2=1N∑n=1N(xn−μMLE)2 \sigma_{MLE}^2=\frac{1}{N}\sum_{n=1}^{N}(x_n-\mu_{MLE})^2





3
¿KNN tiene una función de pérdida?
No encontré una definición de función de pérdida en wiki en el contexto del aprendizaje automático. sin embargo, este es menos formal, es bastante claro. En esencia, una función de pérdida es increíblemente simple: es un método para evaluar qué tan bien su algoritmo modela su conjunto de datos. Si …

2
Diferencia entre una sola unidad LSTM y una red neuronal LSTM de 3 unidades
El LSTM en el siguiente código Keras input_t = Input((4, 1)) output_t = LSTM(1)(input_t) model = Model(inputs=input_t, outputs=output_t) print(model.summary()) puede ser representado como Entiendo que cuando llamamos a model.predict(np.array([[[1],[2],[3],[4]]]))la (única) unidad LSTM, primero se procesa el vector [1], luego [2] más la retroalimentación de la entrada anterior y así sucesivamente …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.