¿Cómo saber la diferencia entre los modelos de regresión lineal y no lineal?


27

Estaba leyendo el siguiente enlace sobre regresión no lineal SAS no lineal . Mi comprensión al leer la primera sección "Regresión no lineal versus regresión lineal" fue que la siguiente ecuación es en realidad una regresión lineal, ¿es eso correcto? Si es así, ¿por qué?

y=si1X3+si2X2+si3X+do

¿También debo entender que en la regresión no lineal la multicolinealidad no es un problema? Sé que la multicolinealidad puede ser un problema en la regresión lineal, así que seguramente si el modelo anterior es de hecho una regresión lineal, ¿habría multicolinealidad?



Respuestas:


35

Hay (al menos) tres sentidos en los que una regresión puede considerarse "lineal". Para distinguirlos, comencemos con un modelo de regresión extremadamente general.

Y=F(X,θ,ε).

Para mantener la discusión simple, tome las variables independientes como fijas y medidas con precisión (en lugar de variables aleatorias). Modelan n observaciones de p atributos de cada uno, dando lugar a la n -vector de respuestas Y . Convencionalmente, X se representa como una matriz n × p e Y como una columna n- vector. El ( vector q finito ) θ comprende los parámetros . ε es una variable aleatoria con valor vectorial. Generalmente tiene nXnortepagsnorteYXnorte×pagsYnorteqθεnortecomponentes, pero a veces tiene menos. La función tiene un valor vectorial (con n componentes para que coincidan con Y ) y generalmente se asume que es continua en sus dos últimos argumentos ( θ y ε ).FnorteYθε

El ejemplo arquetípico , de ajustar una línea a datos , es el caso donde X es un vector de números ( x i ,(X,y)X --los valores de x; Y es un vector paralelo de n números ( y i ) ; θ = ( α , β ) da la intersección α y la pendiente β ; y ε = ( ε 1 , ε 2 , ... , ε n )(Xyo,yo=1,2,...,norte)Ynorte(yyo)θ=(α,β)αβε=(ε1,ε2,...,εnorte)es un vector de "errores aleatorios" cuyos componentes son independientes (y generalmente se supone que tienen distribuciones idénticas pero desconocidas de la media cero). En la notación anterior,

yyo=α+βXyo+εyo=F(X,θ,ε)yo

con .θ=(α,β)

La función de regresión puede ser lineal en cualquiera (o en todos) de sus tres argumentos:

  • "Regresión lineal, o un" modelo lineal ", generalmente significa que es lineal en función de los parámetros θ . El significado SAS de" regresión no lineal " es en este sentido, con el supuesto agregado de que f es diferenciable en su segundo argumento (los parámetros). Este supuesto facilita la búsqueda de soluciones.F θF

  • A "relación lineal entre y Y " significa f es lineal como una función de X .XYFX

  • Un modelo tiene errores aditivos cuando es lineal en ε . En tales casos, siempre se supone que E ( ε ) = 0 . (De lo contrario, no sería correcto pensar en ε como "errores" o "desviaciones" de los valores "correctos").Fεmi(ε)=0 0ε

Toda combinación posible de estas características puede suceder y es útil. Examinemos las posibilidades.

  1. Un modelo lineal de una relación lineal con errores aditivos. Esta es una regresión ordinaria (múltiple), ya mostrada arriba y más generalmente escrita como

    Y=Xθ+ε.

    se ha aumentado, si es necesario, junto a una columna de constantes, y θ es unvector p .Xθpags

  2. Un modelo lineal de una relación no lineal con errores aditivos. Esto puede expresarse como una regresión múltiple al aumentar las columnas de con funciones no lineales de X en sí. Por ejemplo,XX

    yyo=α+βXyo2+ε

    es de esta forma Es lineal en ; tiene errores aditivos; y es lineal en los valores ( 1 , x 2 i ) aunque x 2 i es una función no lineal de x i .θ=(α,β)(1,xi2)xi2xi

  3. Un modelo lineal de una relación lineal con errores no aditivos. Un ejemplo es el error multiplicativo,

    yi=(α+βxi)εi.

    (En tales casos, puede interpretarse como "errores multiplicativos" cuando la ubicación de ε i es 1. Sin embargo, el sentido adecuado de ubicación ya no es necesariamente la expectativa E ( ε i ) : podría ser la mediana o la media geométrica, por ejemplo. También se aplica un comentario similar sobre los supuestos de ubicación, mutatis mutandis , en todos los demás contextos de error no aditivo).εiεi1E(εi)

  4. Un modelo lineal de una relación no lineal con errores no aditivos. Por ejemplo ,

    yi=(α+βxi2)εi.
  5. Un modelo no lineal de una relación lineal con errores aditivos. Un modelo no lineal implica combinaciones de sus parámetros que no solo son no lineales, sino que ni siquiera se pueden linealizar al volver a expresar los parámetros.

    • Como un no ejemplo, considere

      yi=αβ+β2xi+εi.

      Al definir y β = β 2 , y restringir β 0 , este modelo puede reescribirseα=αββ=β2β0

      yi=α+βxi+εi,

      exhibiéndolo como un modelo lineal (de una relación lineal con errores aditivos).

    • Como ejemplo, considere

      yi=α+α2xi+εi.

      Es imposible encontrar un nuevo parámetro , dependiendo de α , que linealice esto en función de α ' (mientras lo mantiene lineal en x i también).αααxi

  6. Un modelo no lineal de una relación no lineal con errores aditivos.

    yi=α+α2xi2+εi.
  7. Un modelo no lineal de una relación lineal con errores no aditivos.

    yi=(α+α2xi)εi.
  8. Un modelo no lineal de una relación no lineal con errores no aditivos.

    yi=(α+α2xi2)εi.

Aunque estos exhiben ocho formas distintas de regresión, no constituyen un sistema de clasificación porque algunas formas pueden convertirse en otras. Un ejemplo estándar es la conversión de un modelo lineal con errores no aditivos (se supone que tiene soporte positivo)

yi=(α+βxi)εi

log(yi)=μi+log(α+βxi)+(log(εi)μi)

Here, the log geometric mean μi=E(log(εi)) has been removed from the error terms (to ensure they have zero means, as required) and incorporated into the other terms (where its value will need to be estimated). Indeed, one major reason to re-express the dependent variable Y is to create a model with additive errors. Re-expression can also linearize Y as a function of either (or both) of the parameters and explanatory variables.


Collinearity

Collinearity (of the column vectors in X) can be an issue in any form of regression. The key to understanding this is to recognize that collinearity leads to difficulties in estimating the parameters. Abstractly and quite generally, compare two models Y=f(X,θ,ε) and Y=f(X,θ,ε) where X is X with one column slightly changed. If this induces enormous changes in the estimates θ^ and θ^, then obviously we have a problem. One way in which this problem can arise is in a linear model, linear in X (that is, types (1) or (5) above), where the components of θ are in one-to-one correspondence with the columns of X. When one column is a non-trivial linear combination of the others, the estimate of its corresponding parameter can be any real number at all. That is an extreme example of such sensitivity.

From this point of view it should be clear that collinearity is a potential problem for linear models of nonlinear relationships (regardless of the additivity of the errors) and that this generalized concept of collinearity is potentially a problem in any regression model. When you have redundant variables, you will have problems identifying some parameters.


can you recommend a concise, introductory reading that will help me get a better sense of the linearization you mention, which is the heart of the difference between your example and non-example in point 5. Thank you.
ColorStatistics

@Color I'm not familiar with any. Under mild assumptions about the differentiability of possible transformations, this is addressed by the theory of Partial Differential Equations (PDEs).
whuber

0

You should start right now by making a difference between reality and the model you're using to describe it

The equation you just mentionned is a polynomial equation (x^power) ie. non-linear ... but you can still model it using a generlized linear model (using a link function) or polynomail regression since the parameters are linear (b1, b2, b3, c)

hope that helped, it actually is a bit sketchy : reality/model


3
This can be estimated via ordinary least squares since model is linear in parameters.
Analyst

so its all to do with the parameters? if we b3^2 * x it would still be linear?
mHelpMe

0

A model is linear if it is linear in parameters or can be transformed to be linear in parameters (linearizable). Linear models can model linear or non-linear relationships. Let's expand on each of these.

A model is linear in parameters if it can be written as the sum of terms, where each term is either a constant or a parameter multiplying a predictor (Xi):

ingrese la descripción de la imagen aquí

Note that this definition is very narrow. Only the models meeting this definition are linear. Every other model, is non-linear.

There are a two types of linear models that are confused for non-linear models:

1. Linear models of non-linear relationships

For example, the model below models a non-linear relationship (because the derivative of Y with respect to X1 is a function of X1). By creating a new variable W1=X12, and re-writing the equation with W1 replacing X12, we have an equation that satisfies the definition of a linear model.

ingrese la descripción de la imagen aquí

2. Models that aren't immediately linear but can become linear after a transformation (linearizable). Below are 2 examples of linearizable models:

Example 1:

ingrese la descripción de la imagen aquí

This model may appear to be non-linear because it does not meet the definition of a model that is linear in parameters, however it can be transformed into a linear model hence it is linearizable/transformably linear, and is thus considered to be a linear model. The following transformations would linearize it. Start by taking the natural logarithm of both sides to obtain:

ingrese la descripción de la imagen aquí

then make the following substitutions:

ingrese la descripción de la imagen aquí

to obtain the linear model below:

ingrese la descripción de la imagen aquí

Example 2:

ingrese la descripción de la imagen aquí

This model may appear to be non-linear because it does not meet the definition of a model that is linear in parameters, however it can be transformed into a linear model hence it is linearizable/transformably linear, and is thus considered to be a linear model. The following transformations would linearize it. Start by taking the reciprocal of both sides to obtain:

ingrese la descripción de la imagen aquí

then make the following substitutions:

ingrese la descripción de la imagen aquí

to obtain the linear model below:

ingrese la descripción de la imagen aquí

Any model that is not linear (not even through linearization) is non-linear. Think of it this way: If a model does not meet the definition of a linear model then it is a non-linear model, unless it can be proven to be linearizable, at which point it earns the right to be called a linear model.

Whuber's answer above as well as the Glen_b's answer in this link will add more color to my answer. Nonlinear vs. generalized linear model: How do you refer to logistic, Poisson, etc. regression?

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.