Preguntas etiquetadas con convolution

La convolución es una operación con valores de función en dos funciones y : . A menudo se utiliza para obtener la densidad de una suma de variables aleatorias independientes. Esta etiqueta también debe usarse para la operación inversa de deconvolución. NO use esta etiqueta para redes neuronales convolucionales. Fgramo-F(τ)gramo(t-τ)reτ


6
Importancia de la normalización de la respuesta local en CNN
Descubrí que Imagenet y otras CNN grandes utilizan capas de normalización de respuesta local. Sin embargo, no puedo encontrar tanta información sobre ellos. ¿Cuán importantes son y cuándo deben usarse? De http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "La capa de normalización de respuesta local realiza una especie de" inhibición lateral "al normalizar las regiones …

4
¿Qué es la invariancia de traducción en la visión por computadora y la red neuronal convolucional?
No tengo experiencia en visión por computadora, pero cuando leo algunos artículos y documentos relacionados con el procesamiento de imágenes y las redes neuronales convolucionales, me enfrento constantemente al término translation invariance, o translation invariant. ¿O leí mucho que la operación de convolución proporciona translation invariance? ¿Qué significa esto? Yo …



1
¿Pueden los grados de libertad ser un número no entero?
Cuando uso GAM, me da un DF residual de 26.626.626.6 (última línea en el código). Qué significa eso? Yendo más allá del ejemplo de GAM, en general, ¿puede el número de grados de libertad ser un número no entero? > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
¿La "estimación de la densidad del núcleo" es una convolución de qué?
Estoy tratando de comprender mejor la estimación de la densidad del kernel. Usando la definición de Wikipedia: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition fh^(x)=1n∑ni=1Kh(x−xi)=1nh∑ni=1K(x−xih)fh^(x)=1n∑i=1nKh(x−xi)=1nh∑i=1nK(x−xih) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) Tomemos como una función rectangular que da si está entre y y contrario, y (tamaño de la ventana) es …

6
Capas convolucionales: ¿rellenar o no rellenar?
La arquitectura AlexNet utiliza rellenos cero como se muestra en la imagen: Sin embargo, no hay explicación en el documento por qué se introduce este relleno. El curso Standford CS 231n enseña que usamos relleno para preservar el tamaño espacial: Me pregunto si es la única razón por la que …

2
¿Una vista de sistemas dinámicos del Teorema del límite central?
( Publicado originalmente en MSE). He visto muchas discusiones heurísticas del teorema clásico del límite central que hablan de la distribución normal (o cualquiera de las distribuciones estables) como un "atractor" en el espacio de las densidades de probabilidad. Por ejemplo, considere estas oraciones en la parte superior del tratamiento …




3
¿Cómo utilizan exactamente las redes neuronales convolucionales la convolución en lugar de la multiplicación de matrices?
Estaba leyendo el libro de Yoshua Bengio sobre aprendizaje profundo y dice en la página 224: Las redes convolucionales son simplemente redes neuronales que usan la convolución en lugar de la multiplicación matricial general en al menos una de sus capas. sin embargo, no estaba 100% seguro de cómo "reemplazar …


2
¿No aprenderían varios filtros en una capa convolucional el mismo parámetro durante el entrenamiento?
Basado en lo que he aprendido, utilizamos múltiples filtros en una capa de convección de una CNN para aprender diferentes detectores de características. Pero dado que estos filtros se aplican de manera similar (es decir, deslizados y multiplicados a las regiones de la entrada), ¿no aprenderían los mismos parámetros durante …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.