23/04/2026
En el vasto universo del análisis de datos, la regresión lineal se erige como una de las herramientas más fundamentales y poderosas para comprender la relación entre variables. Nos permite modelar cómo una variable dependiente cambia en respuesta a una o más variables independientes, lo que a su vez posibilita la predicción y la toma de decisiones informadas. R, con su robusto ecosistema de paquetes estadísticos y capacidades gráficas, se presenta como el entorno ideal para implementar y visualizar estos modelos. Este artículo te guiará a través del proceso de obtención de la ecuación de una recta de regresión en R, explicando desde los conceptos fundamentales del coeficiente de correlación (r) hasta la interpretación de los resultados y la visualización de la recta de ajuste.

La capacidad de establecer una relación lineal es crucial para muchos campos, desde la economía y las ciencias sociales hasta la ingeniería y la biología. Al entender cómo se construye y se interpreta un modelo de regresión, podrás desvelar patrones ocultos en tus datos y hacer proyecciones con mayor confianza.
- ¿Qué es la Regresión Lineal y Cuál es su Objetivo?
- El Coeficiente de Correlación (r): Midiendo la Fuerza de la Relación
- La Ecuación de la Recta de Regresión Lineal
- Obteniendo la Ecuación de Regresión en R: La Función lm()
- Visualizando la Recta de Regresión con abline() en R
- Interpretación y Limitaciones de la Regresión Lineal
- Preguntas Frecuentes sobre Regresión Lineal en R
- Conclusión
¿Qué es la Regresión Lineal y Cuál es su Objetivo?
La regresión lineal es una técnica de modelado estadístico que busca establecer una relación lineal entre una variable dependiente (o de respuesta) y una o más variables independientes (o predictoras). Cuando se trata de una sola variable independiente, hablamos de regresión lineal simple, cuyo objetivo es encontrar la 'línea de mejor ajuste' que minimice la distancia entre los puntos de datos observados y la línea del modelo.
El objetivo principal es:
- Entender la fuerza de la relación entre la variable dependiente y las independientes.
- Modelar la relación para poder predecir el valor de la variable dependiente para nuevos valores de las variables independientes.
Uno de los supuestos clave al crear un modelo de regresión lineal es que los datos tienen una relación lineal subyacente. Esta suposición puede ser verificada de varias maneras, siendo las más comunes la inspección visual a través de un gráfico de dispersión y el cálculo del coeficiente de correlación (r).
El Coeficiente de Correlación (r): Midiendo la Fuerza de la Relación
El coeficiente de correlación (r), también conocido como coeficiente de correlación de Pearson, es una medida estadística que cuantifica la fuerza y la dirección de una relación lineal entre dos variables cuantitativas. Su valor oscila entre -1 y +1:
- Un valor cercano a +1 indica una relación lineal positiva fuerte (a medida que una variable aumenta, la otra también lo hace).
- Un valor cercano a -1 indica una relación lineal negativa fuerte (a medida que una variable aumenta, la otra disminuye).
- Un valor cercano a 0 sugiere una relación lineal débil o inexistente.
Aunque en la práctica es poco probable que calcules este valor a mano para grandes conjuntos de datos, entender su derivación es fundamental para comprender su significado. La fórmula para 'r' es la siguiente:
r = Σ((x - x̄)(y - ȳ)) / √[Σ(x - x̄)² * Σ(y - ȳ)²]
Donde:
xeyson los valores individuales de las variables.x̄yȳson las medias de las variables x e y, respectivamente.Σdenota la suma de todos los valores.
Cálculo Manual Detallado del Coeficiente de Correlación (r)
Para ilustrar el cálculo, utilizaremos el siguiente conjunto de datos:
| x | y |
|---|---|
| 1 | 2 |
| 3 | 4 |
| 4 | 7 |
| 5 | 5 |
| 6 | 7 |
| 7 | 9 |
| 8 | 10 |
Paso 1: Calcular las medias (x̄ y ȳ)
Suma de x = 1 + 3 + 4 + 5 + 6 + 7 + 8 = 34
Suma de y = 2 + 4 + 7 + 5 + 7 + 9 + 10 = 44
Número de puntos (n) = 7
x̄ = 34 / 7 ≈ 4.86
ȳ = 44 / 7 ≈ 6.29
Paso 2: Calcular la desviación de la media y sus cuadrados
| x | y | x - x̄ | y - ȳ | (x - x̄)² | (y - ȳ)² |
|---|---|---|---|---|---|
| 1 | 2 | -3.86 | -4.29 | 14.90 | 18.40 |
| 3 | 4 | -1.86 | -2.29 | 3.46 | 5.24 |
| 4 | 7 | -0.86 | 0.71 | 0.74 | 0.50 |
| 5 | 5 | 0.14 | -1.29 | 0.02 | 1.66 |
| 6 | 7 | 1.14 | 0.71 | 1.30 | 0.50 |
| 7 | 9 | 2.14 | 2.71 | 4.58 | 7.34 |
| 8 | 10 | 3.14 | 3.71 | 9.86 | 13.76 |
| Suma | 0.00 | 0.00 | 34.86 | 47.40 |
(Nota: Los valores en la tabla original pueden tener un ligero redondeo diferente en las medias, lo que afecta las desviaciones. Utilizaremos los valores de la tabla proporcionada para mantener la coherencia con el ejemplo.)
| x | y | x – x̄ | y – ȳ | (x – x̄)² | (y – ȳ)² |
|---|---|---|---|---|---|
| 1 | 2 | –3.9 | –4.3 | 14.9 | 18.4 |
| 3 | 4 | –1.9 | –2.3 | 3.4 | 5.2 |
| 4 | 7 | –0.9 | 0.7 | 0.7 | 0.5 |
| 5 | 5 | 0.1 | –1.3 | 0.0 | 1.7 |
| 6 | 7 | 1.1 | 0.7 | 1.3 | 0.5 |
| 7 | 9 | 2.1 | 2.7 | 4.6 | 7.4 |
| 8 | 10 | 3.1 | 3.7 | 9.9 | 13.8 |
| x̄ = 4.9 | ȳ = 6.3 | ∑ = 0 | ∑ = 0 | ∑ = 34.9 | ∑ = 47.4 |
Paso 3: Calcular el producto cruzado de las desviaciones (x - x̄)(y - ȳ)
| x | y | x – x̄ | y – ȳ | (x – x̄)² | (y – ȳ)² | Producto Cruzado |
|---|---|---|---|---|---|---|
| 1 | 2 | –3.9 | –4.3 | 14.9 | 18.4 | 16.5 |
| 3 | 4 | –1.9 | –2.3 | 3.4 | 5.2 | 4.2 |
| 4 | 7 | –0.9 | 0.7 | 0.7 | 0.5 | –0.6 |
| 5 | 5 | 0.1 | –1.3 | 0.0 | 1.7 | –0.2 |
| 6 | 7 | 1.1 | 0.7 | 1.3 | 0.5 | 0.8 |
| 7 | 9 | 2.1 | 2.7 | 4.6 | 7.4 | 5.8 |
| 8 | 10 | 3.1 | 3.7 | 9.9 | 13.8 | 11.7 |
| x̄ = 4.9 | ȳ = 6.3 | ∑ = 0 | ∑ = 0 | ∑ = 34.9 | ∑ = 47.4 | ∑ = 38.3 |
Paso 4: Sustituir los valores en la fórmula de 'r'
r = 38.3 / √[34.9 * 47.4]
r = 38.3 / √[1654.26]
r = 38.3 / 40.67
r ≈ 0.941
Este resultado de 0.941 indica una correlación positiva muy fuerte, lo que sugiere que la relación lineal es robusta. Es importante recordar que para calcular el coeficiente de correlación (r), los datos de ambas variables deben ser continuos o estar en una escala de intervalo. Además, al menos una de las variables debe estar distribuida normalmente y, fundamentalmente, debe existir una relación lineal, lo cual se puede verificar visualmente con un gráfico de dispersión.
La Ecuación de la Recta de Regresión Lineal
Una vez que hemos establecido que existe una relación lineal, podemos proceder a calcular la ecuación de la recta de regresión, también conocida como la línea de mejor ajuste. Una línea recta se describe mediante la ecuación:
Y = a + bX
Donde:
Yes la variable dependiente (el valor predicho).Xes la variable independiente.aes el intercepto (a), el valor de Y cuando X es 0.bes la pendiente (b) de la línea, que representa el cambio en Y por cada unidad de cambio en X.
Cálculo Manual Detallado de la Pendiente (b) y el Intercepto (a)
Para determinar la pendiente (b), utilizamos la siguiente ecuación:
b = Σ((x - x̄)(y - ȳ)) / Σ(x - x̄)²
Utilizando los valores que calculamos previamente:
b = 38.3 / 34.9
b ≈ 1.097
Una vez que tenemos la pendiente (b), podemos calcular el intercepto (a) sustituyendo las medias de x e y, junto con el valor de 'b', en la ecuación de la regresión:
ȳ = a + b * x̄
a = ȳ - b * x̄
Sustituyendo los valores:
a = 6.29 - (1.097 * 4.86)
a = 6.29 - 5.33
a ≈ 0.96
Así, nuestra ecuación de la recta de regresión para este conjunto de datos es:
Y = 0.96 + 1.097X
Esta ecuación nos permite predecir el valor de Y para cualquier valor dado de X dentro del rango de nuestros datos.
Obteniendo la Ecuación de Regresión en R: La Función lm()
Afortunadamente, R simplifica enormemente el proceso de cálculo de la regresión lineal a través de la función lm(), que significa 'linear model'.

Primero, definamos nuestros datos en R:
x <- c(1, 3, 4, 5, 6, 7, 8) y <- c(2, 4, 7, 5, 7, 9, 10) Para ajustar un modelo de regresión lineal simple, simplemente usamos lm():
modelo_regresion <- lm(y ~ x) El argumento y ~ x se lee como 'y es modelado por x', indicando que 'y' es la variable dependiente y 'x' la independiente. El objeto modelo_regresion contiene toda la información del modelo.
Para ver los coeficientes del modelo (el intercepto (a) y la pendiente (b)), puedes simplemente imprimir el objeto o usar la función coef():
print(modelo_regresion) # O coef(modelo_regresion) Esto te mostrará los valores de la pendiente (b) y el intercepto (a), que deberían ser muy cercanos a los que calculamos manualmente (diferencias mínimas pueden deberse a redondeos en los cálculos manuales).
Para obtener un resumen más detallado del modelo, incluyendo la significancia estadística de los coeficientes, el R-cuadrado y otras métricas importantes, usa la función summary():
summary(modelo_regresion) La salida de summary() es extensa y proporciona información crucial:
- Residuals: Distribución de los errores del modelo.
- Coefficients: Aquí encontrarás el intercepto (a) (Estimate para '(Intercept)') y la pendiente (b) (Estimate para 'x'). También verás el Error Estándar, el valor t y el p-valor (Pr(>|t|)) para cada coeficiente. Un p-valor bajo (típicamente < 0.05) indica que el coeficiente es estadísticamente significativo.
- Residual standard error: Medida de la dispersión de los residuales.
- Multiple R-squared: El R-cuadrado nos dice qué proporción de la varianza en la variable dependiente es explicada por el modelo. Un valor más cercano a 1 indica un mejor ajuste.
- Adjusted R-squared: Una versión ajustada del R-cuadrado, útil cuando se comparan modelos con diferente número de predictores.
- F-statistic and p-value: Evalúa la significancia global del modelo. Un p-valor bajo aquí (< 0.05) sugiere que el modelo en su conjunto es significativo.
Visualizando la Recta de Regresión con abline() en R
Una vez que tienes el modelo, la visualización es clave para comprender la relación y verificar visualmente el ajuste. R ofrece excelentes capacidades gráficas para esto.
Primero, crea un gráfico de dispersión de tus datos usando plot():
plot(x, y, main = "Gráfico de Dispersión con Recta de Regresión", xlab = "Variable X", ylab = "Variable Y", pch = 19, col = "blue") Aquí, pch = 19 establece el tipo de punto y col = "blue" su color. main, xlab y ylab son para el título y las etiquetas de los ejes.
Ahora, para añadir la recta de regresión a este gráfico, la función abline() es tu mejor aliada. Esta función es extremadamente versátil y puede dibujar líneas horizontales, verticales o de pendiente. Cuando se le pasa un objeto lm(), automáticamente dibuja la recta de regresión ajustada:
abline(modelo_regresion, col = "red", lwd = 2) col = "red" establece el color de la línea a rojo y lwd = 2 aumenta su grosor para que sea más visible. El resultado será un gráfico de dispersión con la línea de mejor ajuste que representa tu modelo de regresión.
Además de añadir una recta de regresión de un objeto lm, abline() también puede usarse para:
- Dibujar una línea horizontal:
abline(h = 0.5, col = "red")(como en el ejemplo de la función logística simple). - Dibujar una línea vertical:
abline(v = 23, col = "blue"). - Dibujar una línea con un intercepto (a) y pendiente (b) específicos:
abline(a = 0.96, b = 1.097, col = "green").
El uso de abline() es fundamental para la exploración visual de modelos y para presentar los resultados de manera clara y concisa.
Interpretación y Limitaciones de la Regresión Lineal
Una vez que has ajustado un modelo de regresión y lo has visualizado, es crucial interpretar sus resultados correctamente y ser consciente de sus limitaciones.

Interpretación del Modelo
- Coeficientes (a y b): Ya hemos visto que 'a' es el intercepto (a) (valor de Y cuando X es cero) y 'b' es la pendiente (b) (cambio en Y por cada unidad de cambio en X). La interpretación de 'a' solo tiene sentido si X=0 es un valor posible y relevante en tu contexto. La pendiente (b) es a menudo el foco, ya que cuantifica la relación directa.
- R-cuadrado: Este valor (también conocido como coeficiente de determinación) te dice qué porcentaje de la variabilidad en la variable dependiente (Y) es explicada por la(s) variable(s) independiente(s) (X) en tu modelo. Por ejemplo, un R-cuadrado de 0.85 significa que el 85% de la variación en Y puede explicarse por X. Un R-cuadrado alto es deseable, pero no es el único criterio para un buen modelo.
- P-valores: Los p-valores asociados a los coeficientes (en la salida de
summary()) indican la probabilidad de observar un coeficiente tan extremo (o más extremo) si no hubiera una relación real (es decir, si el coeficiente verdadero fuera cero). Un p-valor bajo (comúnmente < 0.05) sugiere que el coeficiente es estadísticamente significativo, lo que implica que la variable independiente tiene una relación significativa con la variable dependiente.
Limitaciones y Consideraciones
- Asunción de Linealidad: La regresión lineal asume una relación lineal. Si la relación es curvilínea, un modelo lineal no la capturará adecuadamente. Siempre visualiza tus datos con un gráfico de dispersión.
- Outliers (valores atípicos): Puntos de datos extremos pueden influir desproporcionadamente en la recta de regresión, distorsionando los resultados.
- Homocedasticidad: Se asume que la varianza de los residuales es constante en todos los niveles de las variables predictoras.
- Normalidad de los Residuales: Los residuales (errores del modelo) deben seguir una distribución aproximadamente normal.
- Independencia de los Residuales: Los errores deben ser independientes entre sí (no autocorrelacionados).
- Causalidad: La correlación no implica causalidad. Un modelo de regresión muestra una asociación, pero no prueba que la variable independiente cause el cambio en la dependiente.
Es fundamental no solo obtener la ecuación, sino también validar los supuestos y entender las implicaciones estadísticas de tu modelo.
Preguntas Frecuentes sobre Regresión Lineal en R
¿Qué significa un valor de R cercano a cero?
Un coeficiente de correlación (r) cercano a cero indica que no existe una relación lineal fuerte entre las dos variables. Esto no significa que no haya ninguna relación en absoluto, solo que no es lineal. Podría existir una relación no lineal (curva), o ninguna relación.
¿Puedo usar regresión lineal con datos categóricos?
La regresión lineal simple, tal como la hemos descrito, se utiliza para variables cuantitativas. Sin embargo, la regresión lineal múltiple puede incorporar variables categóricas mediante la creación de 'variables dummy' o 'variables indicadoras'. Para variables dependientes categóricas, se utilizan otros tipos de regresión, como la regresión logística.
¿Cómo sé si mi modelo de regresión es bueno?
Un 'buen' modelo se evalúa por varios factores:
- Significancia de los coeficientes: Los p-valores de las variables independientes deben ser bajos.
- R-cuadrado: Un R-cuadrado alto indica que el modelo explica una gran proporción de la varianza en la variable dependiente.
- Análisis de residuales: Los gráficos de residuales deben mostrar un patrón aleatorio, sin estructuras claras, lo que indica que los supuestos del modelo se cumplen.
- Contexto del problema: El modelo debe tener sentido desde el punto de vista teórico o del dominio de conocimiento.
¿Cuál es la diferencia entre r y R-cuadrado?
El coeficiente de correlación (r) mide la fuerza y dirección de la relación lineal entre dos variables. El R-cuadrado (R²) es el cuadrado del coeficiente de correlación (r²) en regresión lineal simple, y representa la proporción de la varianza de la variable dependiente que es predecible a partir de la(s) variable(s) independiente(s). En regresión múltiple, el R-cuadrado es una extensión que mide la bondad de ajuste del modelo, pero no es simplemente el cuadrado de un único 'r'.
¿Es necesario graficar la recta de regresión?
Sí, es altamente recomendable. Un gráfico de dispersión con la recta de regresión te permite inspeccionar visualmente la linealidad de la relación, identificar posibles valores atípicos y tener una comprensión intuitiva de cómo el modelo se ajusta a los datos. Es un paso crítico en la validación y presentación de tu análisis.
Conclusión
La regresión lineal es una piedra angular en el análisis de datos, y R proporciona las herramientas perfectas para dominarla. Desde el cálculo fundamental del coeficiente de correlación (r) hasta la obtención de la ecuación de la recta de regresión utilizando la potente función
lm()y su visualización conabline(), ahora tienes los conocimientos para aplicar esta técnica vital. Recuerda que, si bien la tecnología simplifica los cálculos, una comprensión profunda de los principios estadísticos y una interpretación cuidadosa de los resultados son esenciales para extraer conclusiones significativas y tomar decisiones basadas en datos.
Si quieres conocer otros artículos parecidos a Regresión Lineal en R: Guía Completa y Cálculo del Valor R puedes visitar la categoría Estadística.
