Preguntas etiquetadas con kernel-trick

Los métodos de kernel se utilizan en el aprendizaje automático para generalizar técnicas lineales a situaciones no lineales, especialmente SVM, PCA y GP. No debe confundirse con [suavizado de kernel], para la estimación de densidad de kernel (KDE) y la regresión de kernel.

1
Regresión lineal regular vs. regresión RKHS
Estoy estudiando la diferencia entre la regularización en la regresión RKHS y la regresión lineal, pero me resulta difícil comprender la diferencia crucial entre los dos. (xi,yi)(xi,yi)(x_i,y_i)f(⋅)f(⋅)f(\cdot)f(x)≈u(x)=∑i=1mαiK(x,xi),f(x)≈u(x)=∑i=1mαiK(x,xi),\begin{equation}f(x)\approx u(x)=\sum_{i=1}^m \alpha_i K(x,x_i),\end{equation}K(⋅,⋅)K(⋅,⋅)K(\cdot,\cdot)αmαm\alpha_mminα∈Rn1n∥Y−Kα∥2Rn+λαTKα,minα∈Rn1n‖Y−Kα‖Rn2+λαTKα,\begin{equation} {\displaystyle \min _{\alpha\in R^{n}}{\frac {1}{n}}\|Y-K\alpha\|_{R^{n}}^{2}+\lambda \alpha^{T}K\alpha},\end{equation} donde, con algún abuso de notación, la entrada i,ji,ji,j de la matriz del núcleo …


2
Uso del parámetro Gamma con máquinas de vectores de soporte
Cuando se usa libsvm, el parámetro es un parámetro para la función del núcleo. Su valor predeterminado se configura como γ = 1γγ\gammaγ= 1Número de características.γ=1Número de características.\gamma = \frac{1}{\text{number of features.}} ¿Existe alguna guía teórica para configurar este parámetro además de los métodos existentes, por ejemplo, la búsqueda de …




3
Prueba post hoc en un ANOVA de diseño mixto 2x3 con SPSS?
Tengo dos grupos de 10 participantes que fueron evaluados tres veces durante un experimento. Para probar las diferencias entre los grupos y entre las tres evaluaciones, ejecuté un ANOVA de diseño mixto 2x3 con group(control, experimental), time(primero, segundo, tres) y group x time. Ambos timey groupresultaron significativos, además hubo una …
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.