ˆY=b0+b1XˆY=b0+b1X
Donde
ˆYˆY es el valor estimado de YY
b0b0 es el intercepto de la recta (el valor de Y cuando X es 0)
b1b1 es el coeficiente de regresión, que nos dice cuánto aumenta Y por cada punto que aumenta X
SStot=SSreg+SSerrorSStot=SSreg+SSerror
Coeficiente de regresión por mínimos cuadrados: permite predecir en cuántas unidades aumenta Y por cada punto de aumento en X
El valor del beta de regresión nos informa sobre una magnitud y sentido de la pendiente, no sobre la bondad (ajuste) del modelo
Coeficiente de regresión por mínimos cuadrados: permite predecir en cuántas unidades aumenta Y por cada punto de aumento en X
El valor del beta de regresión nos informa sobre una magnitud y sentido de la pendiente, no sobre la bondad (ajuste) del modelo
El ajuste del modelo a los datos se relaciona con la proporción de residuos generados por el modelo respecto de la varianza total de Y (R2)
ˆY=β0+β1X1ˆY=β0+β1X1
ˆY=β0+β1X1+β2X2+β3X3+βiXiˆY=β0+β1X1+β2X2+β3X3+βiXi
ˆY=β0+β1X1+β2X2+β3X3+βiXiˆY=β0+β1X1+β2X2+β3X3+βiXi
^ingreso=β0+β1educación+β2edad+β3género+...+βiXiˆingreso=β0+β1educación+β2edad+β3género+...+βiXi
^ingreso=β0+β1educación+β2edad+β3género+...+βiXiˆingreso=β0+β1educación+β2edad+β3género+...+βiXi
¿Qué implicancias puede tener para la estimación la correlación entre predictores?
^Ingreso=b0+b1(Educ)ˆIngreso=b0+b1(Educ)
^Ingreso=b0+b1(Educ)ˆIngreso=b0+b1(Educ)
^Ingreso=b0+b1(Educ)+b2(Int)ˆIngreso=b0+b1(Educ)+b2(Int)
En datos observacionales de encuestas en general no hay control por diseño, por lo que se recurre al control estadístico
En el modelo de regresión se logra incluyendo predictores que teóricamente podrían dar cuenta o afectar la relación entre X e Y.
En datos observacionales de encuestas en general no hay control por diseño, por lo que se recurre al control estadístico
En el modelo de regresión se logra incluyendo predictores que teóricamente podrían dar cuenta o afectar la relación entre X e Y.
La inclusión de otros predictores despeja o "controla" la asociación de X1X1 e YY, aislando el efecto conjunto de X1X1 y X2X2 (... y XnXn)
Conceptualmente:
aislar el efecto de educación en ingreso, manteniendo la inteligencia constante.
estimar el efecto de educación en ingreso independiente del efecto de la inteligencia
estimación del efecto de educación en ingreso ceteris paribus (manteniendo el efecto del resto de los predictores constante)
Model 1 | Model 2 | Model 3 | |
---|---|---|---|
(Intercept) | -0.15 | -0.15 | -0.16 |
(0.09) | (0.10) | (0.09) | |
educacion | 0.40*** | 0.40*** | |
(0.10) | (0.10) | ||
inteligencia | 0.30** | 0.31** | |
(0.10) | (0.10) | ||
R2 | 0.13 | 0.08 | 0.21 |
Adj. R2 | 0.12 | 0.07 | 0.20 |
Num. obs. | 100 | 100 | 100 |
***p < 0.001; **p < 0.01; *p < 0.05 |
Model 1 | Model 2 | Model 3 | |
---|---|---|---|
(Intercept) | -0.15 | -0.15 | -0.16 |
(0.09) | (0.10) | (0.09) | |
educacion | 0.40*** | 0.35** | |
(0.10) | (0.11) | ||
inteligencia | 0.30** | 0.18 | |
(0.10) | (0.11) | ||
R2 | 0.13 | 0.08 | 0.16 |
Adj. R2 | 0.12 | 0.07 | 0.14 |
Num. obs. | 100 | 100 | 100 |
***p < 0.001; **p < 0.01; *p < 0.05 |
Model 1 | Model 2 | Model 3 | |
---|---|---|---|
(Intercept) | -0.15 | -0.15 | -0.16 |
(0.09) | (0.10) | (0.09) | |
educacion | 0.40*** | 0.40*** | |
(0.10) | (0.10) | ||
inteligencia | 0.30** | 0.31** | |
(0.10) | (0.10) | ||
R2 | 0.13 | 0.08 | 0.21 |
Adj. R2 | 0.12 | 0.07 | 0.20 |
Num. obs. | 100 | 100 | 100 |
***p < 0.001; **p < 0.01; *p < 0.05 |
Model 1 | Model 2 | Model 3 | |
---|---|---|---|
(Intercept) | -0.15 | -0.15 | -0.16 |
(0.09) | (0.10) | (0.09) | |
educacion | 0.40*** | 0.35** | |
(0.10) | (0.11) | ||
inteligencia | 0.30** | 0.18 | |
(0.10) | (0.11) | ||
R2 | 0.13 | 0.08 | 0.16 |
Adj. R2 | 0.12 | 0.07 | 0.14 |
Num. obs. | 100 | 100 | 100 |
***p < 0.001; **p < 0.01; *p < 0.05 |
Los coeficientes de regresión ββ no alteran su valor en los modelos en ausencia de correlación entre predictores XX (Ejemplo 1)
Si hay correlación entre predictores, el valor de los coeficientes de regresión será distinto en modelos simples y en modelos múltiples -> control estadístico
Los coeficientes de regresión ββ no alteran su valor en los modelos en ausencia de correlación entre predictores XX (Ejemplo 1)
Si hay correlación entre predictores, el valor de los coeficientes de regresión será distinto en modelos simples y en modelos múltiples -> control estadístico
Por ello, en regresión múltiple se habla de coeficientes de regresión parciales
Ejemplo 2, modelo 3: El ingreso aumenta en 0.4 puntos por cada nivel adicional de educación, controlando por inteligencia. O también ...
manteniendo la inteligencia constante
ceteris paribus
Regresión múltiple: más de un predictor / variable independiente en el modelo
Permite
contrastar hipótesis de la influencia simultánea de más de una variable
controlar por la posible influencia de terceras variables (control estadístico)
Keyboard shortcuts
↑, ←, Pg Up, k | Go to previous slide |
↓, →, Pg Dn, Space, j | Go to next slide |
Home | Go to first slide |
End | Go to last slide |
Number + Return | Go to specific slide |
b / m / f | Toggle blackout / mirrored / fullscreen mode |
c | Clone slideshow |
p | Toggle presenter mode |
t | Restart the presentation timer |
?, h | Toggle this help |
o | Tile View: Overview of Slides |
s | Toggle scribble toolbox |
Esc | Back to slideshow |
ˆY=b0+b1XˆY=b0+b1X
Donde
ˆYˆY es el valor estimado de YY
b0b0 es el intercepto de la recta (el valor de Y cuando X es 0)
b1b1 es el coeficiente de regresión, que nos dice cuánto aumenta Y por cada punto que aumenta X
SStot=SSreg+SSerrorSStot=SSreg+SSerror
Coeficiente de regresión por mínimos cuadrados: permite predecir en cuántas unidades aumenta Y por cada punto de aumento en X
El valor del beta de regresión nos informa sobre una magnitud y sentido de la pendiente, no sobre la bondad (ajuste) del modelo
Coeficiente de regresión por mínimos cuadrados: permite predecir en cuántas unidades aumenta Y por cada punto de aumento en X
El valor del beta de regresión nos informa sobre una magnitud y sentido de la pendiente, no sobre la bondad (ajuste) del modelo
El ajuste del modelo a los datos se relaciona con la proporción de residuos generados por el modelo respecto de la varianza total de Y (R2)
ˆY=β0+β1X1ˆY=β0+β1X1
ˆY=β0+β1X1+β2X2+β3X3+βiXiˆY=β0+β1X1+β2X2+β3X3+βiXi
ˆY=β0+β1X1+β2X2+β3X3+βiXiˆY=β0+β1X1+β2X2+β3X3+βiXi
^ingreso=β0+β1educación+β2edad+β3género+...+βiXiˆingreso=β0+β1educación+β2edad+β3género+...+βiXi
^ingreso=β0+β1educación+β2edad+β3género+...+βiXiˆingreso=β0+β1educación+β2edad+β3género+...+βiXi
¿Qué implicancias puede tener para la estimación la correlación entre predictores?
^Ingreso=b0+b1(Educ)
^Ingreso=b0+b1(Educ)
^Ingreso=b0+b1(Educ)+b2(Int)
En datos observacionales de encuestas en general no hay control por diseño, por lo que se recurre al control estadístico
En el modelo de regresión se logra incluyendo predictores que teóricamente podrían dar cuenta o afectar la relación entre X e Y.
En datos observacionales de encuestas en general no hay control por diseño, por lo que se recurre al control estadístico
En el modelo de regresión se logra incluyendo predictores que teóricamente podrían dar cuenta o afectar la relación entre X e Y.
La inclusión de otros predictores despeja o "controla" la asociación de X1 e Y, aislando el efecto conjunto de X1 y X2 (... y Xn)
Conceptualmente:
aislar el efecto de educación en ingreso, manteniendo la inteligencia constante.
estimar el efecto de educación en ingreso independiente del efecto de la inteligencia
estimación del efecto de educación en ingreso ceteris paribus (manteniendo el efecto del resto de los predictores constante)
Model 1 | Model 2 | Model 3 | |
---|---|---|---|
(Intercept) | -0.15 | -0.15 | -0.16 |
(0.09) | (0.10) | (0.09) | |
educacion | 0.40*** | 0.40*** | |
(0.10) | (0.10) | ||
inteligencia | 0.30** | 0.31** | |
(0.10) | (0.10) | ||
R2 | 0.13 | 0.08 | 0.21 |
Adj. R2 | 0.12 | 0.07 | 0.20 |
Num. obs. | 100 | 100 | 100 |
***p < 0.001; **p < 0.01; *p < 0.05 |
Model 1 | Model 2 | Model 3 | |
---|---|---|---|
(Intercept) | -0.15 | -0.15 | -0.16 |
(0.09) | (0.10) | (0.09) | |
educacion | 0.40*** | 0.35** | |
(0.10) | (0.11) | ||
inteligencia | 0.30** | 0.18 | |
(0.10) | (0.11) | ||
R2 | 0.13 | 0.08 | 0.16 |
Adj. R2 | 0.12 | 0.07 | 0.14 |
Num. obs. | 100 | 100 | 100 |
***p < 0.001; **p < 0.01; *p < 0.05 |
Model 1 | Model 2 | Model 3 | |
---|---|---|---|
(Intercept) | -0.15 | -0.15 | -0.16 |
(0.09) | (0.10) | (0.09) | |
educacion | 0.40*** | 0.40*** | |
(0.10) | (0.10) | ||
inteligencia | 0.30** | 0.31** | |
(0.10) | (0.10) | ||
R2 | 0.13 | 0.08 | 0.21 |
Adj. R2 | 0.12 | 0.07 | 0.20 |
Num. obs. | 100 | 100 | 100 |
***p < 0.001; **p < 0.01; *p < 0.05 |
Model 1 | Model 2 | Model 3 | |
---|---|---|---|
(Intercept) | -0.15 | -0.15 | -0.16 |
(0.09) | (0.10) | (0.09) | |
educacion | 0.40*** | 0.35** | |
(0.10) | (0.11) | ||
inteligencia | 0.30** | 0.18 | |
(0.10) | (0.11) | ||
R2 | 0.13 | 0.08 | 0.16 |
Adj. R2 | 0.12 | 0.07 | 0.14 |
Num. obs. | 100 | 100 | 100 |
***p < 0.001; **p < 0.01; *p < 0.05 |
Los coeficientes de regresión β no alteran su valor en los modelos en ausencia de correlación entre predictores X (Ejemplo 1)
Si hay correlación entre predictores, el valor de los coeficientes de regresión será distinto en modelos simples y en modelos múltiples -> control estadístico
Los coeficientes de regresión β no alteran su valor en los modelos en ausencia de correlación entre predictores X (Ejemplo 1)
Si hay correlación entre predictores, el valor de los coeficientes de regresión será distinto en modelos simples y en modelos múltiples -> control estadístico
Por ello, en regresión múltiple se habla de coeficientes de regresión parciales
Ejemplo 2, modelo 3: El ingreso aumenta en 0.4 puntos por cada nivel adicional de educación, controlando por inteligencia. O también ...
manteniendo la inteligencia constante
ceteris paribus
Regresión múltiple: más de un predictor / variable independiente en el modelo
Permite
contrastar hipótesis de la influencia simultánea de más de una variable
controlar por la posible influencia de terceras variables (control estadístico)