Conteúdo verificado

Variação

Assuntos Relacionados: Matemática

Fundo para as escolas Wikipédia

Esta seleção wikipedia foi escolhido por voluntários que ajudam Crianças SOS da Wikipedia para este Seleção Wikipedia para as escolas. Todas as crianças disponíveis para apadrinhamento de crianças de Crianças SOS são cuidadas em uma casa de família pela caridade. Leia mais ...

Em teoria da probabilidade e estatística , a variância de uma variável aleatória , distribuição de probabilidade , ou amostra é uma medida de dispersão estatística, a média da distância ao quadrado dos seus valores possíveis do valor esperado (média). Considerando que a média é uma maneira de descrever a localização de uma distribuição, a variância é uma maneira de captar a sua dimensão ou grau de serem espalhados. O unidade de variância é o quadrado da unidade da variável original. A raiz quadrada da variância, chamado o desvio padrão , tem as mesmas unidades que a variável original e pode ser mais fácil de interpretar por esta razão.

A variância de uma verdadeira variável aleatória -valued é sua segunda momento central, e que também passa a ser o seu segundo cumulant. Assim como algumas distribuições não têm uma média, alguns não têm uma variação bem. A média existe sempre que existe a variância, mas não vice-versa.

Definição

Se μ = E (X) é a valor esperado (média) da variável aleatória X, então a variância é

\ Operatorname {var} (X) = \ operatorname {E} [(X - \ mu) ^ 2] \,.

Esta definição inclui as variáveis aleatórias que sejam discretos , contínua ou não. De todos os pontos em que os desvios quadrados poderia ter sido calculados, a média produz o valor mínimo para a soma média dos desvios quadrados.

Muitas distribuições, como o Distribuição Cauchy, não têm uma variância porque as integral relevante diverge. Em particular, se uma distribuição não tem um valor esperado, que não tem uma variância ou. O inverso não é verdadeiro: há distribuições para os quais existe o valor esperado, mas a variação não.

Caso discreto

Se a variável aleatória é discreta com função massa de probabilidade p 1, ..., p n, isto é equivalente a

\ Sum_ {i = 1} ^ n (x_i - \ mu) ^ 2 p_i \ ,.

(Nota: esta variação deve ser dividido pela soma dos pesos, no caso de um discreto variância ponderada.) Isto é, é o valor esperado do quadrado do desvio de X a partir do seu próprio significativo. Em linguagem simples, que pode ser expresso como "A média do quadrado da distância de cada ponto de dados a partir da média". É, portanto, a média do quadrado dos desvios. A variância da variável aleatória X é tipicamente designada como Var (X), \ Scriptstyle \ sigma_X ^ 2 , Ou simplesmente σ 2.

Propriedades

Variância é não-negativo porque os quadrados são sempre positivos ou zero. A variância de uma variável aleatória é 0 se e só se a variável é degenerado, isto é, leva-se a um valor constante com probabilidade 1, e a variância de uma variável de um conjunto de dados é 0 se e apenas se todas as entradas tem o mesmo valor.

Variância é invariante com respeito a mudanças em um parâmetro de localização. Isto é, se uma constante é adicionado a todos os valores da variável, a variância é inalterada. Se todos os valores são dimensionadas por uma constante, a variância é dimensionada pelo quadrado do que constante. Estas duas propriedades podem ser expresso na seguinte fórmula:

\ Operatorname {var} (ax + b) = a ^ 2 \ operatorname {var} (X).

A variância de uma soma finita de variáveis aleatórias não correlacionadas é igual à soma das suas variâncias.

  1. Suponha que as observações podem ser divididos em subgrupos de acordo com alguns segunda variável. Em seguida, a variância do grupo total é igual à média das variâncias dos subgrupos mais a variância das médias dos subgrupos. Esta propriedade é conhecida como decomposição da variância ou o lei da variância total e desempenha um papel importante na análise de variância. Por exemplo, suponhamos que um grupo é formado de um subgrupo de homens e um igualmente grande subgrupo de mulheres. Suponha-se que os homens tem um comprimento de corpo médio de 180 e que a variância dos seus comprimentos é 100. Suponha-se que as mulheres têm um comprimento médio de 160 e que a variância dos seus comprimentos é 50. Em seguida, a média das variâncias é (100 + 50) / 2 = 75; a variância dos meios é a variância de 180, 160 que é 100. Em seguida, para o grupo total de homens e mulheres combinada, a variação dos comprimentos de corpo vai ser 75 100 + = 175. Note-se que esta utiliza N para o denominador em vez de N - 1.

    Num caso mais geral, se os subgrupos têm tamanhos desiguais, então eles devem ser ponderados proporcionalmente ao seu tamanho nos cálculos das médias e desvios. A fórmula também é válido com mais de dois grupos, e mesmo que a variável de agrupamento é contínua.

    Esta fórmula implica que a variação do grupo total não pode ser menor do que a média das variâncias dos subgrupos. Note-se, no entanto, que a variância total não é necessariamente maior do que as variâncias dos subgrupos. No exemplo acima, quando os subgrupos são analisadas separadamente, a variação é influenciada apenas pelas diferenças homem-homem e as diferenças mulher-mulher. Se os dois grupos são combinados, no entanto, então as diferenças homem-mulheres entram na variância também.

  2. Muitas fórmulas computacionais para a variância são baseados nesta igualdade:. A variância é igual à média das praças menos o quadrado da média Por exemplo, se considerarmos os números 1, 2, 3, 4, em seguida, a média dos quadrados é (1 × 2 × 1 + 2 + 3 + 4 × 3 × 4) / 4 = 7,5. A média é de 2,5, de modo que o quadrado da média é 6,25. Portanto, a variação é 7,5-6,25 = 1,25, o que é de fato o mesmo resultado obtido anteriormente com as fórmulas de definição. Muitas calculadoras de bolso utilizar um algoritmo que se baseia esta fórmula e que lhes permite calcular a variância enquanto os dados são introduzidos, sem armazenar todos os valores na memória. O algoritmo é ajustar apenas três variáveis, quando um novo valor de dados é introduzido: O número de dados introduzidos até ao momento (n), a soma dos valores de medida (S), e a soma dos valores quadrados medida (SS) . Por exemplo, se os dados são 1, 2, 3, 4, em seguida, depois de entrar o primeiro valor, o algoritmo teria n = 1, S = 1 e SS = 1. Depois de introduzir o segundo valor (2), que teria n = 2, S = 3 e SS = 5. Quando todos os dados são introduzidos, teria que n = 4, S = 10 e SS = 30. Em seguida, a média é calculada como M = S / N, e, finalmente, a variância é calculado como SS / n - M × M. Neste exemplo, o resultado seria de 30/4 - 2,5 x 2,5 = 7,5-6,25 = 1,25. Se a estimativa de amostra imparcial deve ser calculado, o resultado será multiplicado por n / (n - 1), que produz 1,667 neste exemplo.

Propriedades, formal

8.a. variância da soma de variáveis não correlacionadas

Uma das razões para a utilização da variância de preferência a outras medidas de dispersão é que a variância da soma (ou a diferença) de variáveis aleatórias não correlacionadas é a soma das suas variâncias:

\ Operatorname {var} \ Big (\ sum_ {i = 1} ^ n x_i \ Big) = \ sum_ {i = 1} ^ n \ operatorname {var} (x_i).

Esta afirmação é muitas vezes feita com a condição mais forte que as variáveis são sufixos independentes, mas uncorrelatedness. Portanto, se as variáveis têm a mesma variância σ 2, então, uma vez que a divisão por n é uma transformação linear, esta fórmula implica imediatamente que a variância da sua média é

\ Operatorname {var} (\ overline {X}) = \ operatorname {var} \ left (\ frac {1} {n} \ sum_ {i = 1} ^ n x_i \ right) = \ frac {1} {n ^ 2} n \ sigma ^ 2 = \ frac {\ sigma ^ 2} {n}.

Isto é, a variação da média diminui com o n. Este facto é utilizado na definição do erro padrão da média de amostras, o qual é utilizado no teorema do limite central.

8.b. variância da soma de variáveis correlacionadas

Em geral, se as variáveis são correlacionados, em seguida, a variância da sua soma é a soma da sua covariâncias:

\ Operatorname {var} \ left (\ sum_ {i = 1} ^ n x_i \ right) = \ sum_ {i = 1} ^ n \ sum_ {j = 1} ^ n \ operatorname {} Cov (x_i, X_j) .

Aqui Cov é a covariância, que é zero para as variáveis aleatórias independentes (se existir). A fórmula indica que a variância de uma soma é igual à soma de todos os elementos da matriz de covariância dos componentes. Esta fórmula é utilizada na teoria de Alfa de Cronbach em teoria teste clássico.

Portanto, se as variáveis têm igual variância σ 2 ea correlação média de variáveis distintas é ρ, então a variância de sua média é

\ Operatorname {var} (\ overline {X}) = \ frac {\ sigma ^ 2} {n} + \ frac {n-1} {n} \ rho \ sigma ^ 2.

Isso implica que a variação da média aumenta com a média das correlações. Além disso, se as variáveis têm variância unitária, por exemplo, se eles são padronizados, em seguida, o que simplifica a

\ Operatorname {var} (\ overline {X}) = \ frac {1} {n} + \ frac {n-1} {n} \ rho.

Esta fórmula é utilizada na Spearman-Brown fórmula de previsão da teoria clássica dos testes. Este converge para ρ se n tende ao infinito, desde que a correlação média se mantém constante ou converge muito. Assim, para a variância da média de variáveis padronizadas com correlações iguais ou convergindo correlação média temos

\ Lim_ {n \ to \ infty} \ operatorname {var} (\ overline {X}) = \ rho.

Portanto, a variação da média de um grande número de variáveis padronizadas é aproximadamente igual à sua correlação média. Isto torna claro que a média da amostra de variáveis correlacionadas geralmente não converge para a média da população, embora o Lei dos grandes números afirma que a média da amostra irá convergir para as variáveis independentes.

8.c. variância de uma soma ponderada das variáveis

Propriedades 6 e 8, juntamente com esta propriedade do Página covariance: COV (aX, por) = ab Cov (X, Y) implica que, em conjunto

\ Operatorname {var} (ax + by) = a ^ 2 \ operatorname {} Var (X) + b ^ 2 \ operatorname {} Var (Y) + 2ab \, \ operatorname {} Cov (X, Y).

Isto implica que, numa soma ponderada de variáveis, a variável com o maior peso terá um desproporcionalmente grande peso na variância do total. Por exemplo, se X e Y não estão correlacionados e o peso de X é duas vezes o peso de Y, então o peso da variância de X será quatro vezes o peso da variância de Y.

9. Decomposição da variância

A fórmula geral para decomposição de variância ou o lei da variância total é: Se X e Y são duas variáveis aleatórias e a variância de X existe, então

\ Operatorname {} Var (X) = \ operatorname {var} (\ operatorname {E} (X | Y)) + \ operatorname {E} (\ operatorname {} Var (X | Y)).

Aqui, E (X | Y) é a expectativa condicional de X dado Y, e Var (X | Y) é a variância condicional de X dado Y. (A explicação mais intuitiva é que, dado um determinado valor de Y, então X segue uma distribuição com média E (X | Y) e variância Var (X |. Y) A fórmula acima indica como encontrar Var (X) com base na distribuições de estas duas quantidades quando Y é permitido variar.) Esta fórmula é frequentemente aplicado em A análise de variância, onde a fórmula correspondente é

SS _ {\ mbox {total}} = SS _ {\ mbox {}} Entre SS + _ {\ mbox {}} Dentro.

Também é utilizado em regressão linear análise, onde a fórmula correspondente é

SS _ {\ mbox {total}} = SS _ {\ mbox {}} Regressão + SS _ {\ mbox {}} Residual.

Isto também pode ser derivada a partir da aditividade de variâncias (propriedade 8), uma vez que o total (observada) pontuação é a soma da pontuação previsto e a pontuação de erro, onde os dois últimos não estão correlacionadas.

10. fórmula computacional para variância

O fórmula computacional para a variância segue de uma forma simples a partir da linearidade dos valores esperados e a definição acima:

{} \ Operatorname {} Var (X) = \ operatorname {E} (X ^ 2-2 \, X \, \ operatorname {E} (X) + (\ operatorname {E} (X)) ^ 2),
{} = \ Operatorname {E} (X ^ 2) - 2 (\ operatorname {E} (X)) ^ 2 + (\ operatorname {E} (X)) ^ 2,
{} = \ Operatorname {E} (X ^ 2) - (\ operatorname {E} (X)) ^ 2.

Isso é muitas vezes usado para calcular a variação na prática, embora sofra de aproximação numérica erro se os dois componentes da equação são semelhantes em magnitude.

Propriedade característica

O segundo momento de uma variável aleatória atinge o valor mínimo quando tomado em torno da média da variável aleatória, isto é, \ Mathrm {E} X = \ mathrm {argmin} _a \ mathrm {E} (X - a) ^ 2 . Esta propriedade pode ser revertido, ou seja, se a função \ Phi satisfaz \ Mathrm {E} X = \ mathrm {argmin} _a \ mathrm {E} \ phi (X - a) em seguida, é necessário de forma \ Phi = a x ^ 2 + b . Isto também é verdadeiro no caso multidimensional.

Aproximando a variância de uma função

O delta método usa segunda ordem expansões Taylor para aproximar a variância de uma função de uma ou mais variáveis aleatórias. Por exemplo, a variância aproximada de uma função de uma variável é dada pela

\ Operatorname {var} \ left [f (X) \ right] \ approx \ left (f '(\ operatorname {E} \ left [X \ right]) \ right) ^ 2 \ operatorname {var} \ left [X \ right]

desde que f é diferenciável duas vezes e que a média e variância de X são finitas.

Generalizações

Se X é um vector -valued variável aleatória, com os valores em \ Mathbb {R} ^ n E pensado como um vetor coluna, então a generalização natural de variância é \ Operatorname {E} ((X - \ mu) (X - \ mu) ^ \ operatorname {T}) , Onde \ Mu = \ operatorname {E} (X) e X ^ \ operatorname {T} representa a transposta de X , E por isso é um vetor linha. Esta variação é uma matriz quadrada semi-definida positiva, comumente referido como o matriz de covariância.

Se X é um complexo -valued variável aleatória, com os valores em \ Mathbb {C} , Então sua variância é \ Operatorname {E} ((X - \ mu) (X - \ mu) ^ *) , Onde X ^ * é o conjugado complexo de X . Esta variação é também uma matriz quadrada semi-definida positiva.

História

A variação termo foi introduzido pela primeira vez por Ronald Fisher em seu artigo de 1918 A correlação entre parentes na suposição de mendeliana Herança.

Momento de inércia

A variância de uma distribuição de probabilidade é análogo ao momento de inércia mecânica clássica de uma correspondente distribuição de massa ao longo de uma linha, no que diz respeito à rotação em torno do seu centro de massa. É devido a esta analogia que coisas como a variância são chamados momentos de distribuições de probabilidade . (A matriz de covariância é análogo ao momento de tensor de inércia para distribuições multivariadas.)

Retirado de " http://en.wikipedia.org/w/index.php?title=Variance&oldid=195568864 "