Preguntas etiquetadas con cart

'Árboles de clasificación y regresión'. CART es una técnica popular de aprendizaje automático y constituye la base de técnicas como bosques aleatorios e implementaciones comunes de máquinas de aumento de gradiente.

1
¿En qué implementaciones se requiere la escala variable de los árboles de decisión y la normalización (ajuste) de las variables (características)?
En muchos algoritmos de aprendizaje automático, el escalado de características (también conocido como escalado variable, normalización) es un paso de preprocesamiento común Wikipedia - Escalado de características - esta pregunta estaba cerrada Pregunta # 41704 - ¿Cómo y por qué funcionan la normalización y el escalado de características? Tengo dos …

1
¿Por qué Anova () y drop1 () proporcionaron diferentes respuestas para GLMM?
Tengo un GLMM de la forma: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Cuando lo uso drop1(model, test="Chi"), obtengo resultados diferentes a los que uso Anova(model, type="III")del paquete del automóvil o summary(model). Estos dos últimos dan las mismas respuestas. Usando un montón de …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

1
Tamaño del árbol en el impulso del árbol degradado
El refuerzo del árbol de gradiente propuesto por Friedman utiliza árboles de decisión con Jnodos terminales (= hojas) como aprendices básicos. Hay varias formas de hacer crecer un árbol con Jnodos exactos, por ejemplo, uno puede hacer crecer el árbol de una manera profunda o de primera, ... ¿Hay una …
10 r  cart  boosting 

1
R regresión lineal variable categórica valor "oculto"
Este es solo un ejemplo que he encontrado varias veces, por lo que no tengo ningún dato de muestra. Ejecutar un modelo de regresión lineal en R: a.lm = lm(Y ~ x1 + x2) x1Es una variable continua. x2es categórico y tiene tres valores, por ejemplo, "Bajo", "Medio" y "Alto". …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
Investigar las diferencias entre las poblaciones.
Digamos que tenemos una muestra de dos poblaciones: Ay B. Supongamos que estas poblaciones están formadas por individuos y elegimos describirlos en términos de características. Algunas de estas características son categóricas (por ejemplo, ¿conducen al trabajo?) Y otras son numéricas (por ejemplo, su altura). Llamemos a estas características: . Recopilamos …

2
¿Los estimadores de árboles SIEMPRE están sesgados?
Estoy haciendo una tarea sobre árboles de decisión, y una de las preguntas que tengo que responder es "¿Por qué los estimadores están construidos a partir de árboles sesgados, y cómo ayuda el embolsado a reducir su variación?". Ahora, sé que los modelos sobreajustados tienden a tener un sesgo realmente …
9 cart  bias 



1
¿Cómo elegir el número de divisiones en rpart ()?
He utilizado rpart.controlpara minsplit=2, y obtuvo los siguientes resultados de rpart()la función. Para evitar sobreajustar los datos, ¿necesito usar splits 3 o splits 7? ¿No debería usar splits 7? Por favor hagamelo saber. Variables realmente utilizadas en la construcción de árboles: [1] ct_a ct_b usr_a Root node error: 23205/60 = …
9 r  cart  rpart 

4
¿Puede la regresión basada en árbol funcionar peor que la regresión lineal simple?
Hola, estoy estudiando técnicas de regresión. Mis datos tienen 15 características y 60 millones de ejemplos (tarea de regresión). Cuando probé muchas técnicas de regresión conocidas (árbol impulsado por gradiente, regresión de árbol de decisión, AdaBoostRegressor, etc.), la regresión lineal funcionó muy bien. Anotó casi mejor entre esos algoritmos. ¿Cuál …



4
¿Rpart utiliza divisiones multivariadas por defecto?
Sé que la rpartfunción de R mantiene los datos que necesitaría para implementar una división multivariada, pero no sé si en realidad está realizando divisiones multivariadas. Intenté investigarlo en línea mirando los rpartdocumentos, pero no veo ninguna información de que pueda hacerlo o lo esté haciendo. Alguien sabe a ciencia …


3
Regresión (no) lineal en el árbol de decisión de hojas
¿Es común tener una técnica de regresión diferente en las hojas de un árbol de regresión (por ejemplo, regresión lineal)? Lo he estado buscando durante la última hora, pero todo lo que encuentro son implementaciones que tienen un valor constante en las hojas de los árboles. ¿Hay alguna razón por …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.