Analisis de regresióN


Tabla 6.1 Esatdísticas para detectar observaciones influyentes



Descargar 16.39 Mb.
Página36/59
Fecha de conversión02.11.2019
Tamaño16.39 Mb.
1   ...   32   33   34   35   36   37   38   39   ...   59
Tabla 6.1 Esatdísticas para detectar observaciones influyentes




MSE =

10.62422153




(a)




R Student

(b)

(c )

(d)

(e )

(f)




(g)

Observación

hii

ri=ei/raiz(MSE(1-hii))

ti

Distancia COOK Di

DFFITS

DFBETTAS (0),i

DFBETTAS (1),i

DFBETTAS (2),i

S(i)^2

COVRATIOi

1

0.1018

-1.6277

-1.8878

0.10009265

-0.63554067

-0.208482352

 

 

9.7897

0.871051326

2

0.0707

0.3648

0.3847

0.00337483

0.10610942

0.096614091

 

 

11.0627

1.214887646

3

0.09874

-0.0161

-0.0174

9.4662E-06

-0.00575931

-0.003890398

 

 

11.1299

1.275652362

4

0.08538

1.5797

1.7922

0.07765035

0.54757574

 

 

 

9.8676

0.875996886

5

0.07501

-0.1418

-0.1498

0.00054352

-0.04265823

 

 

 

11.1199

1.239579127

6

0.04287

-0.0908

-0.0927

0.00012309

-0.01961874

 

 

 

11.1259

1.19989481

7

0.0818

0.2704

0.2882

0.00217124

0.0860205

 

 

 

11.0931

1.239738655

8

0.06373

0.3667

0.3839

0.00305101

0.10015889

 

 

 

11.062

1.205614608

9

0.49829

3.2138

8.5921

3.41936807

8.56276509

 

 

 

5.9049

0.342210658

10

0.1963

0.8133

1.0038

0.05385259

0.49608987

 

 

 

10.7955

1.305398063

11

0.08613

0.7181

0.7768

0.01620013

0.23847575

 

 

 

10.8692

1.171701448

12

0.11366

-0.1933

-0.2132

0.00159716

-0.0763468

 

 

 

11.1112

1.290598609

13

0.06113

0.3252

0.3392

0.00229524

0.08655264

 

 

 

11.0766

1.207042614

14

0.07824

0.3411

0.3625

0.00329195

0.10561206

 

 

 

11.0712

1.227650876

15

0.04111

0.2103

0.2145

0.00063203

0.04441367

 

 

 

11.1077

1.191824428

16

0.16594

-0.2227

-0.2612

0.00328907

-0.11650648

 

 

 

11.105

1.369200478

17

0.05943

0.138

0.1434

0.0004011

0.03604595

 

 

 

11.1204

1.219210661

18

0.09626

1.113

1.2386

0.04398164

0.40423345

 

 

 

10.5034

1.069189924

19

0.09645

0.5788

0.6306

0.01192026

0.2060293

 

 

 

10.9606

1.215232688

20

0.10169

-1.8736

-2.2227

0.13245993

-0.74783684

 

 

 

9.3542

0.759805384

21

0.16528

-0.8778

-1.046

0.05085684

-0.46544828

 

 

 

10.7402

1.237670199

22

0.39158

-1.45

-2.4484

0.45105736

-1.9642234

 

 

 

10.0664

1.398066135

23

0.04126

-1.4437

-1.5463

0.0298993

-0.32078049

 

 

 

10.0756

0.889652807

24

0.12061

-1.4961

-1.7537

0.10232972

-0.64946567

 

 

 

9.9977

0.947605181

25

0.06664

-0.0675

-0.0707

0.00010844

-0.01889132

 

 

 

11.1278

1.231083177

De acuerdo a los puntos de corte de DFFITS de 0.69, los puntos 9 y 22 excend este valor por lo que se consideran influyentes.

Con base en el punto de corte de DFBETAS de 0.4, los puntos 9 y 22 tienen efectos grandes sobre los tres parámetros. La eliminación del punto 9 da como resultado que la respuesta estimada se desplace en en más de cuatro desviaciones estándar.
Medida de desempeño del modelo

Como medida escalar de la precisión general de la estimación, se usa el determinante de la matriz de covarianza, denominada varianza generalizada, para expresar el papel de la i-ésima observación en la estimación de la precisión de la estimación, se define la relación de covarianzas (COVRATIOi) como sigue:




Notar que [1/(1-hii)] es la relación de , por lo que un punto de alto balanceo hará que COVRATIOi, sea grande.
Si se debería considerar el i-ésimo punto como influyente.
Ejemplo:

En el caso de los refrescos: el corte para COVRATIOi es 1+-3*3/25 o sea (0.64, 1.66), se puede observar de la tabla que se salen los puntos 9 y apenas el 22.



Multicolinealidad

La multicolinealidad implica una dependencia cercana entre regresores (columnas de la matriz X ), de tal forma que si hay una dependencia lineal exacta hará que la matriz X’X se singular. La presencia de dependencias cercanamente lineales impactan dramáticamente en la habilidad para estimar los coeficientes de regresión.


La varianza de los coeficientes de la regresión son inflados debido a la multicolinealidad. Esta es evidente por los valores diferentes de cero que no estan en la diagonal principal de X’X. Los cuales se denominan correlaciones simples entre los regresores. La multicolinealidad puede afectar seriamente la precisión con la cual los coeficientes de regresión son estimados.
Entre las fuentes de colinealidad se encuantran:

  • El método de recolección de datos empleado.

  • Restricciones en el modelo o en la población.

  • Especificación del modelo.

  • Un modelo sobredefinido.

Los elementos de la diagonal principal de la matriz X’X se denominan Factores de inflación de varianza (VIFs) y se usan como un diagnóstico importante de multicolinealidad. El factor para el coeficiente j-ésimo coeficiente de regresión es:


(3.77)

es el coeficiente de determinación múltiple obtenido al hacer una regresión de Xj con con todos los demás regresores. Si Xj es casi linealmente dependiente de algunos de los otros regresores, entonces el coeficiente de determinación Rj2 será cercano a la unidad y el VIFj será muy grande, de tal forma que si es mayor a 10 implica que se tienen serios problemas de multicolinealidad.
Los modelos de regresión que tienen presente multicolinealidad muestran ecuaciones de predicción pobres y los coeficientes de regresión son muy sensibles a los datos en la muestra colectada en particular. En comparación con el caso de regresores ortogonales que son muy estables (imaginar un plano encima).

Y Y











X1 X2 X1 X2

a) Datos con multicolinealidad b) Regresores ortogonales

(muy inestable) (muy estable)

Fig. 3.2 Efectos de la colinealidad en la estabilidad del sistema
En la figura anterior, un sistema ortogonal se obtiene de los datos siguientes:
X1 X2


  1. 20

  1. 20

  1. 30

  1. 30

  1. 20

  1. 20

  1. 30

  1. 30

Asumiendo que se utiliza el escalamiento unitario para los coeficientes de regresión, se obtiene:



Las varianzas de los coeficientes estandarizados de regresión son:

Y un sistema con colinealidad es:
donde

Las varianzas de los coeficientes estandarizados de regresión son:

Se observa que están infladas debido a la multicolinealidad.



Compartir con tus amigos:
1   ...   32   33   34   35   36   37   38   39   ...   59


La base de datos está protegida por derechos de autor ©odont.info 2019
enviar mensaje

    Página principal