Preguntas etiquetadas con naive-bayes

Un ingenuo clasificador de Bayes es un clasificador probabilístico simple basado en la aplicación del teorema de Bayes con fuertes supuestos de independencia. Un término más descriptivo para el modelo de probabilidad subyacente sería "modelo de característica independiente".

3
Un ejemplo: regresión LASSO usando glmnet para el resultado binario
Estoy empezando a incursionar con el uso de glmnetla LASSO regresión donde mi resultado de interés es dicotómica. He creado un pequeño marco de datos simulados a continuación: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
Comprender Bayes ingenuos
De StatSoft, Inc. (2013), Electronic Statistics Textbook , "Naive Bayes Classifier" : Para demostrar el concepto de Clasificación Naïve Bayes, considere el ejemplo que se muestra en la ilustración de arriba. Como se indicó, los objetos se pueden clasificar como VERDES o ROJOS. Mi tarea es clasificar los casos nuevos …


3
¿Cómo es Naive Bayes un clasificador lineal?
He visto el otro hilo aquí, pero no creo que la respuesta haya satisfecho la pregunta real. Lo que he leído continuamente es que Naive Bayes es un clasificador lineal (por ejemplo, aquí ) (de modo que dibuja un límite de decisión lineal) utilizando la demostración de probabilidades de registro. …


7
En Naive Bayes, ¿por qué molestarse con el suavizado de Laplace cuando tenemos palabras desconocidas en el conjunto de prueba?
Estaba leyendo sobre la clasificación Naive Bayes hoy. Leí, bajo el encabezado de Estimación de parámetros con agregar 1 suavizado : Deje que refiera a una clase (como Positivo o Negativo), y deje que refiera a una ficha o palabra.cccwww El estimador de máxima verosimilitud para esP(w|c)P(w|c)P(w|c)count(w,c)count(c)=counts w in class …




3
En el suavizado de Kneser-Ney, ¿cómo se manejan las palabras invisibles?
Por lo que he visto, la fórmula de suavizado de Kneser-Ney (segundo orden) se da de una forma u otra como P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{ C\left(w_{n-1}, w_n\right) - D, 0\right\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{align} con el factor de normalización dado comoλ(wn−1)λ(wn−1)\lambda(w_{n-1}) λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙)λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙) \begin{align} \lambda(w_{n-1}) &= …


2
Un número creciente de características da como resultado una caída de precisión, pero un aumento de prec / recuperación
Soy nuevo en Machine Learning. En este momento estoy usando un clasificador Naive Bayes (NB) para clasificar textos pequeños en 3 clases como positivos, negativos o neutros, usando NLTK y python. Después de realizar algunas pruebas, con un conjunto de datos compuesto por 300,000 instancias (16,924 positivas 7,477 negativas y …



3
Ejemplo de cómo funciona el truco log-sum-exp en Naive Bayes
He leído sobre el truco log-sum-exp en muchos lugares (por ejemplo , aquí y aquí ) pero nunca he visto un ejemplo de cómo se aplica específicamente al clasificador Naive Bayes (por ejemplo, con características discretas y dos clases) ¿Cómo se evitaría exactamente el problema del desbordamiento numérico con este …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.