Covarianza
De Wikipedia, la enciclopedia libre
El análisis de la covarianza es una técnica estadística que, utilizando un modelo de regresión lineal múltiple, busca comparar los resultados obtenidos en diferentes grupos de una variable cuantitativa pero corrigiendo las posibles diferencias existentes entre los grupos en otras variables que pudieran afectar también al resultado (covariantes).
En el estudio conjunto de dos variables, lo que interesa principalmente es saber si existe algún tipo de relación entre ellas. Esto se ve gráficamente con el diagrama de dispersión. La covarianza S(X,Y) de dos variables aleatorias X e Y se define como:
- Si Sxy > 0 hay dependencia directa (positiva), es decir, a grandes valores de x corresponden grandes valores de y.
- Si Sxy = 0 las variables están no correlacionadas, es decir no hay relación lineal.
- Si Sxy < 0 hay dependencia inversa o negativa, es decir, a grandes valores de x corresponden pequeños valores de y.
[editar] Propiedades
- Si a todos los valores de la variable x, les sumamos una constante k y a todos los valores de la variable y, les sumamos una constante k’, la covarianza no varía.
- Si a todos los valores de una variable x los multiplicamos por una constante k y a todos los valores de la variable y, los multiplicamos por una constante k’, su covarianza queda multiplicada por el producto de las constantes.
- A partir de las anteriores: si tenemos dos variables x, y con la covarianza Sxy, y transformaciones lineales de las variables de la forma z=ax+b, y t=cy+d, la nueva covarianza se relaciona con la anterior de la forma: Szt = acSxy.