Es cierto que los supuestos de la regresión lineal no son realistas. Sin embargo, esto es cierto para todos los modelos estadísticos. "Todos los modelos están equivocados, pero algunos son útiles".
Supongo que tiene la impresión de que no hay razón para usar la regresión lineal cuando podría usar un modelo más complejo. Esto no es cierto, porque en general, los modelos más complejos son más vulnerables al sobreajuste, y utilizan más recursos computacionales, lo cual es importante si, por ejemplo, está tratando de hacer estadísticas en un procesador incorporado o un servidor web. Los modelos más simples también son más fáciles de entender e interpretar; por el contrario, los modelos complejos de aprendizaje automático, como las redes neuronales, tienden a terminar como cajas negras, más o menos.
Incluso si algún día la regresión lineal deja de ser prácticamente útil (lo que parece extremadamente improbable en el futuro previsible), seguirá siendo teóricamente importante, porque los modelos más complejos tienden a basarse en la regresión lineal como base. Por ejemplo, para comprender una regresión logística regularizada de efectos mixtos, primero debe comprender la regresión lineal simple.
Esto no quiere decir que los modelos más complejos, nuevos y brillantes no sean útiles o importantes. Muchos de ellos lo son. Pero los modelos más simples son más ampliamente aplicables y, por lo tanto, más importantes, y claramente tienen sentido presentar primero si va a presentar una variedad de modelos. Hay muchos análisis de datos erróneos realizados en la actualidad por personas que se hacen llamar "científicos de datos" o algo por el estilo, pero que ni siquiera conocen las cosas fundamentales, como qué es realmente un intervalo de confianza. ¡No seas una estadística!