El "Análisis discriminante de Fisher" es simplemente LDA en una situación de 2 clases. Cuando solo hay 2 clases, los cálculos a mano son factibles y el análisis está directamente relacionado con la regresión múltiple. LDA es la extensión directa de la idea de Fisher sobre la situación de cualquier número de clases y utiliza dispositivos de álgebra matricial (como la descomposición propia) para calcularlo. Entonces, el término "Análisis discriminante de Fisher" puede verse como obsoleto hoy. En su lugar, debe usarse el "análisis discriminante lineal". Ver también . El análisis discriminante con 2+ clases (multiclase) es canónico por su algoritmo (extrae los dicriminantes como variantes canónicas); término raro "Análisis discriminante canónico"
Fisher usó lo que entonces se llamaba "funciones de clasificación de Fisher" para clasificar objetos después de que la función discriminante ha sido calculada. Hoy en día, se utiliza un enfoque más general de Bayes dentro del procedimiento LDA para clasificar objetos.
A su solicitud de explicaciones de LDA, puedo enviarle a estas mis respuestas: extracción en LDA , clasificación en LDA , LDA entre los procedimientos relacionados . También esto , esto , esto preguntas y respuestas.
Al igual que ANOVA requiere un supuesto de varianzas iguales, LDA requiere un supuesto de matrices de varianza-covarianza iguales (entre las variables de entrada) de las clases. Este supuesto es importante para la etapa de clasificación del análisis. Si las matrices difieren sustancialmente, las observaciones tenderán a asignarse a la clase donde la variabilidad es mayor. Para superar el problema, QDA se inventó . QDA es una modificación de LDA que permite la heterogeneidad anterior de las matrices de covarianza de las clases.
Si tiene la heterogeneidad (como se detecta, por ejemplo, mediante la prueba M de Box) y no tiene QDA a mano, aún puede usar LDA en el régimen de usar matrices de covarianza individuales (en lugar de la matriz agrupada) de los discriminantes en la clasificación . Esto resuelve en parte el problema, aunque con menos eficacia que en QDA, porque, como se acaba de señalar, estas son las matrices entre los discriminantes y no entre las variables originales (qué matrices diferían).
Déjame salir analizando tus datos de ejemplo por ti mismo.
Responder a @ zyxue y comentarios
LDA es lo que definió FDA en su respuesta. LDA primero extrae construcciones lineales (llamadas discriminantes) que maximizan la separación entre dentro y dentro, y luego las usa para realizar la clasificación (gaussiana). Si (como usted dice) LDA no estuviera vinculado con la tarea de extraer los discriminantes, LDA parecería ser solo un clasificador gaussiano, no se necesitaría ningún nombre "LDA".
SwSws son las mismas que las covarianzas dentro de la clase son todas iguales, identidad; ese derecho a usarlos se vuelve absoluto.)
El clasificador gaussiano (la segunda etapa de LDA) usa la regla de Bayes para asignar observaciones a las clases por parte de los discriminantes. El mismo resultado se puede lograr a través de las llamadas funciones de clasificación lineal de Fisher que utilizan directamente las características originales. Sin embargo, el enfoque de Bayes basado en discriminantes es un poco general, ya que permitirá utilizar también matrices de covarianza discriminantes de clase separadas, además de la forma predeterminada de usar una, la agrupada. Además, permitirá basar la clasificación en un subconjunto de discriminantes.
Cuando solo hay dos clases, ambas etapas de LDA pueden describirse juntas en una sola pasada porque la "extracción de latentes" y la "clasificación de observaciones" se reducen a la misma tarea.