¿Alguien puede explicarme las diferencias reales entre el análisis de regresión y el ajuste de curvas (lineal y no lineal), con un ejemplo si es posible?
Parece que ambos intentan encontrar una relación entre dos variables (dependiente frente a independiente) y luego determinan el parámetro (o coeficiente) asociado con los modelos propuestos. Por ejemplo, si tengo un conjunto de datos como:
Y = [1.000 1.000 1.000 0.961 0.884 0.000]
X = [1.000 0.063 0.031 0.012 0.005 0.000]
¿Alguien puede sugerir una fórmula de correlación entre estas dos variables? Tengo dificultades para comprender la diferencia entre estos dos enfoques. Si prefiere apoyar su respuesta con otros conjuntos de datos, está bien, ya que parece difícil de adaptar (tal vez solo para mí).
El conjunto de datos anterior representa la y ejes de una característica de funcionamiento del receptor (ROC) curva, donde y es la verdadera tasa positiva (TPR) y x es la tasa de falsos positivos (FPR).
Estoy tratando de ajustar una curva, o hacer un análisis de regresión según mi pregunta original, aún no estoy seguro, entre estos puntos para estimar el TPR para cualquier FPR en particular (o viceversa).
Primero, ¿es científicamente aceptable encontrar una función de ajuste de curva entre dos variables independientes (TPR y FPR)?
Segundo, ¿es científicamente aceptable encontrar dicha función si sé que las distribuciones de los casos negativos reales y positivos reales no son normales?