Conteúdo verificado

Distribuição normal

Assuntos Relacionados: Matemática

Fundo para as escolas Wikipédia

Crianças SOS oferecem um download completo desta seleção para as escolas para uso em escolas intranets. Clique aqui para mais informações sobre Crianças SOS.

Normal
Função densidade de probabilidade
Função de densidade de probabilidade para a distribuição normal
A linha verde é a distribuição normal padrão
Função de distribuição cumulativa
Função de distribuição cumulativa para a distribuição normal
As cores combinam a imagem acima
Parâmetros \ mu Localização ( verdadeiro )
\ Sigma ^ 2> 0 quadrado escala (real)
Apoio x \ in \ mathbb {R} \!
PDF \ Frac1 {\ sigma \ sqrt {2 \ pi}} \; \ Exp \ left (- \ frac {\ left (x- \ mu \ right) ^ 2} {2 \ sigma ^ 2} \ right) \!
CDF \ Frac12 \ left (1+ \ mathrm {erf} \, \ frac {x- \ mu} {\ sigma \ SQRT2} \ right) \!
Significar \ mu
Mediano \ mu
Modo \ mu
Variação \ Sigma ^ 2
Assimetria 0
Ex. curtose 0
Entropy \ Ln \ left (\ sigma \ sqrt {2 \, \ pi \, e} \ right) \!
MGF M_x (t) = \ exp \ left (\ mu \, t + \ frac {\ sigma ^ 2 t ^ 2} {2} \ right)
CF \ Chi_X (t) = \ exp \ left (\ mu \, \ i, t- \ frac {\ sigma ^ 2 t ^ 2} {2} \ right)

A distribuição normal, também chamada de distribuição Gaussiana, é uma importante família de distribuições de probabilidade contínuas , aplicáveis em muitos campos. Cada membro da família pode ser definida por dois parâmetros, localização e escala: a média ("média", μ) e variância ( desvio padrão ao quadrado) σ 2, respectivamente. A distribuição normal padrão é a distribuição normal com uma média de zero e um desvio de um (as curvas verdes nas parcelas para a direita). Carl Friedrich Gauss tornou-se associado a este conjunto de distribuições quando ele analisou os dados astronômicos usá-los, e definido a equação da função densidade de probabilidade. É muitas vezes chamado a curva do sino, porque o gráfico de sua densidade de probabilidade se assemelha a um Sino.

A importância da distribuição normal como modelo de fenómenos quantitativas na natural e ciências do comportamento é devido ao teorema do limite central. Muitos psicológicos medições e física fenômenos (como ruído) pode ser aproximada bem pela distribuição normal. Embora os mecanismos subjacentes a estes fenómenos são frequentemente desconhecida, o uso do modelo normal pode ser justificada por teoricamente assumindo que muitos efeitos independentes são pequenas, de forma aditiva contribuem para cada observação.

A distribuição normal também surge em muitas áreas de estatísticas . Por exemplo, a distribuição de amostragem do média da amostra é aproximadamente normal, mesmo que a distribuição da população da qual a amostra é feita não é normal. Além disso, a distribuição normal maximiza entropia de informação entre todas as distribuições com média conhecida e variância, o que torna a escolha natural da distribuição subjacente para dados resumidos em termos de média da amostra ea variância. A distribuição normal é a família mais amplamente utilizado de distribuições estatísticas em muitos testes estatísticos e baseiam-se no pressuposto de normalidade. Em teoria da probabilidade , distribuições normais surgem como o limitando distribuições contínuas e de vários discretas famílias de distribuições.

História

A distribuição normal foi introduzido pela primeira vez por Abraham de Moivre em um artigo em 1733, que foi reimpresso na segunda edição de seu A Doutrina da Chances de 1738 no contexto da aproximação de certos distribuição binomial para grande n. Seu resultado foi prorrogado por Laplace em seu livro Teoria Analítica das Probabilidades (1812), e agora é chamado de teorema de Moivre-Laplace.

Laplace utilizada a distribuição normal no análise de erros de experiências. O importante método dos mínimos quadrados foi introduzido por Legendre em 1805. Gauss , que alegou ter usado o método desde 1794, justifica, rigorosamente em 1809 assumindo uma distribuição normal dos erros.

O nome "curva do sino" remonta a Jouffret quem primeiro usou termo "superfície bell" o em 1872 para um bivariada normal com componentes independentes. O nome "distribuição normal" foi inventado independentemente por Charles S. Peirce, Francis Galton e Wilhelm Lexis por volta de 1875. Apesar dessa terminologia, outras distribuições de probabilidade pode ser mais apropriado em alguns contextos; veja a discussão de ocorrência , abaixo.

Caracterização

Existem várias maneiras para caracterizar uma distribuição de probabilidade . O mais visual é a função densidade de probabilidade (PDF). Maneiras equivalentes são o função de distribuição cumulativa, o momentos, o cumulantes, o função característica, o função geradora de momento, o cumulant- função geradora, e Teorema de Maxwell. Ver distribuição de probabilidade para uma discussão.

Para indicar que um de valor real variável aleatória X é normalmente distribuído com média μ e variância σ ² ≥ 0, escrevemos

X \ sim N (\ mu, \ sigma ^ 2). \, \!

Embora seja certamente útil para certos teoremas limite (por exemplo, normalidade de estimadores assintótica) e para a teoria de Processos de Gauss para considerar a distribuição de probabilidade concentrada em μ (ver Dirac medida) na forma de uma distribuição normal com média e variância σ μ ² = 0, neste caso degenerado é muitas vezes excluídos das considerações porque nenhuma densidade no que diz respeito ao Medida de Lebesgue existe.

A distribuição normal pode também ser parametrizado com um precisão parâmetro τ, definido como o recíproco da σ ². Esta parametrização tem uma vantagem em aplicações onde numéricos σ 'é muito próximo de zero e é mais conveniente trabalhar com em análise como τ é um parâmetro natural da distribuição normal.

Função densidade de probabilidade

Função de densidade de probabilidade para a distribuição normal

A contínua função de densidade de probabilidade da distribuição normal é a Função Gaussian

\ Varphi _ {\ mu, \ sigma ^ 2} (x) = \ frac {1} {\ sigma \ sqrt {2 \ pi}} \, e ^ {- \ frac {(x- \ mu) ^ 2} { 2 \ sigma ^ 2}} = \ frac {1} {\ sigma} \ varphi \ left (\ frac {x - \ mu} {\ sigma} \ right), \ quad x \ in \ mathbb {R},

onde σ> 0 é o desvio padrão , o parâmetro é a verdadeira μ valor esperado, e

\ Varphi (x) = \ varphi_ {0,1} (x) = \ frac {1} {\ sqrt {2 \ pi \,}} \, e ^ {- \ frac {x ^ 2} {2}} , \ quad x \ in \ mathbb {R},

é a função de densidade da distribuição normal "padrão", isto é, a distribuição normal com μ = 0 e σ = 1. O integrante de \ Varphi _ {\ mu, \ sigma ^ 2} sobre o A linha real é igual a um, como mostrado na Artigo integrante Gaussian.

Como uma função gaussiana com o denominador do expoente igual a 2, a função de densidade normal padrão \ Scriptstyle \ varphi é um autofunção do Transformada de Fourier.

A função de densidade de probabilidade tem propriedades notáveis, incluindo:

  • simetria sobre seus μ médios
  • o modo e mediana ambos iguais a média μ
  • o pontos de inflexão da curva de ocorrer um desvio padrão de distância da média, ou seja, a μ - σ e μ + σ.

Função de distribuição cumulativa

Função de distribuição cumulativa para a distribuição normal

O função de distribuição cumulativa (CDF) de uma distribuição de probabilidade , avaliada em um número (letras minúsculas) x, é a probabilidade de que o evento de uma variável aleatória X (de capital) com que a distribuição é menos do que ou igual a x. A função de distribuição cumulativa da distribuição normal é expressa em termos da função de densidade da seguinte forma:

\ Begin {align} \ Phi _ {\ mu, \ sigma ^ 2} (x) & {} = \ int _ {- \ infty} ^ x \ varphi _ {\ mu, \ sigma ^ 2} (u) \, du \ \ & {} = \ frac {1} {\ sigma \ sqrt {2 \ pi}} \ int _ {- \ infty} ^ x \ exp \ Bigl (- \ frac {(u - \ mu) ^ 2} {2 \ sigma ^ 2} \ BIGR) \, \\ & du \ {} = \ Phi \ Bigl (\ frac {x- \ mu} {\ sigma} \ BIGR), \ quad x \ in \ mathbb {R}, \ end {align}

onde o cdf normal padrão, Φ, é apenas o cdf geral avaliada com μ = 0 e σ = 1:

\ Phi (x) = \ Phi_ {0,1} (x) = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ x \ exp \ Bigl (- \ frac {u ^ 2} {2} \ BIGR) \, du, \ quad x \ in \ mathbb {R}.

O CDF normal padrão pode ser expressa em termos de um função especial chamada função de erro, como

\ Phi (x) = \ frac {1} {2} \ Bigl [1 + \ operatorname {erf} \ Bigl (\ frac {x} {\ sqrt {2}} \ BIGR) \ BIGR], \ quad x \ in \ mathbb {R},

e o próprio CDF pode, portanto, ser expressa como

\ Phi _ {\ mu, \ sigma ^ 2} (x) = \ frac {1} {2} \ Bigl [1 + \ operatorname {erf} \ Bigl (\ frac {x- \ mu} {\ sigma \ sqrt { 2}} \ BIGR) \ BIGR], \ quad x \ in \ mathbb {R}.

O complemento do cdf normal padrão, 1 - \ Phi (x) , É muitas vezes indicado Q (x) , E é por vezes referida simplesmente como a função Q, especialmente em textos de engenharia. Isto representa a probabilidade da cauda da distribuição Gaussiana. Outras definições de função a-Q, os quais são simples de transformações \ Phi , Também são utilizados ocasionalmente.

A inversa da função de distribuição cumulativa normal padrão, ou função quantil, pode ser expressa em termos da função de erro inverso:

\ Phi ^ {- 1} (p) = \ SQRT2 \; \ operatorname {erf} ^ {- 1} (2p - 1), \ quad p \ in (0,1),

e a função de distribuição cumulativa inversa pode, portanto, ser expressa como

\ Phi _ {\ mu, \ sigma ^ 2} ^ {- 1} (p) = \ mu + \ sigma \ Phi ^ {- 1} (p) = \ mu + \ sigma \ SQRT2 \; \ Operatorname {erf} ^ {- 1} (2p - 1), \ quad p \ in (0,1).

Esta função quantile às vezes é chamado de função probit. Não há elementar primitiva para a função probit. Isto não é para dizer simplesmente que não se conhece nenhum, mas sim que a não existência de uma tal primitiva elementar foi provada. Existem vários métodos precisos para aproximar a função quantile para a distribuição normal - veja função quantile para uma discussão e referências.

A valores Φ (x) pode ser aproximada de forma muito precisa por uma variedade de métodos, tais como integração numérica , a série de Taylor , série assintótica e frações contínuas.

Estritos limites inferior e superior para a cdf

Para grande x da cdf normal padrão \ Scriptstyle \ Phi (x) está próximo de 1 e \ Scriptstyle \ Phi (-x) \, = {} \, 1 \, {-} \, \ Phi (x) está próximo de 0. Os limites elementares

\ Frac {x} {1 + x ^ 2} \ varphi (x) <1- \ Phi (x) <\ frac {\ varphi (x)} {x}, \ qquad x> 0,

em termos de densidade \ Scriptstyle \ varphi são úteis.

Usando o substituição v = u ² / 2, o limite superior é derivada da seguinte forma:

\ Begin {align} 1- \ Phi (x) & = \ int_x ^ \ infty \ varphi (u) \, \\ & du <\ int_x ^ \ infty \ frac ux \ varphi (u) \, du = \ int_ {x ^ 2/2} ^ \ infty \ frac {e ^ {- v}} {x \ sqrt {2 \ pi}} \, dv = -. \ biggl \ frac {e ^ {- v}} {x \ sqrt {2 \ pi}} \ biggr | _ {x ^ 2/2} ^ \ infty = \ frac {\ varphi (x)} {x}. \ End {align}

Da mesma forma, usando \ Scriptstyle \ varphi '(u) \, = {} \, - u \, \ varphi (u) e o regra do quociente,

\ Begin {align} \ Bigl (1+ \ frac1 {x ^ 2} \ BIGR) (1- \ Phi (x)) & = \ int_x ^ \ infty \ Bigl (1+ \ frac1 {x ^ 2} \ BIGR ) \ varphi (u) \, \\ & du> \ int_x ^ \ infty \ Bigl (1+ \ frac1 {u ^ 2} \ BIGR) \ varphi (u) \, du = -. \ biggl \ frac {\ varphi (u)} u \ biggr | _x ^ \ infty = \ frac {\ varphi (x)} x. \ End {align}

Resolvendo para \ Scriptstyle 1 \, {-} \, \ Phi (x) \, fornece o limite inferior.

Funções geradoras

Função geradora momento

O função gerando momento é definido como o valor esperado de exp (TX). Para obter uma distribuição normal, a função geradora de momentos é

\ Begin {align} m_x (t) & {} = \ mathrm {E} \ left [\ exp {(TX)} \ right] \\ & {} = \ int _ {- \ infty} ^ {\ infty} \ frac {1} {\ sigma \ sqrt {2 \ pi}} \ exp {\ left (- \ frac {(x - \ mu) ^ 2} {2 \ sigma ^ 2} \ right)} \ {exp (tx )} \, dx \\ & {} = \ exp {\ left (\ mu t + \ frac {\ sigma ^ 2 t ^ 2} {2} \ right)} \ end {align}

como pode ser visto pela completar o quadrado no expoente.

Função geradora cumulant

O função geradora cumulant é o logaritmo da função geradora de momentos: g (t) = μ t + σ² t ² / 2. Uma vez que este é um polinômio quadrático em t, apenas os dois primeiros cumulantes são diferentes de zero.

Função característica

O função característica é definido como a valor esperado \ Exp (i t X) , Onde eu representa a unidade imaginária . Assim, a função característica é obtida através da substituição t com ele no momento em que a função geradora.

Para obter uma distribuição normal, a função característica é

\ Begin {align} \ chi_X (t; \ mu, \ sigma) & {} = m_x (it) = \ mathrm {E} \ left [\ exp (it X) \ right] \\ & {} = \ int_ {- \ infty} ^ {\ infty} \ frac {1} {\ sigma \ sqrt {2 \ pi}} \ exp \ left (- \ frac {(x - \ mu) ^ 2} {2 \ sigma ^ 2 } \ right) \ exp (ITX) \, dx \\ & {} = \ exp \ left (i \ mu t - \ frac {\ sigma ^ 2 t ^ 2} {2} \ right). \ End {align}

Propriedades

Algumas propriedades da distribuição normal:

  1. Se X \ sim N (\ mu, \ sigma ^ 2) e um e b são números reais , em seguida, um X + b \ N sim (a \ mu + b, (a \ sigma) ^ 2) (Veja valor esperado e variância ).
  2. Se X \ sim N (\ mu_X, \ sigma ^ 2_X) e Y \ sim N (\ mu_Y, \ sigma ^ 2_Y) são normais independentes variáveis aleatórias , então:
    • Sua soma é normalmente distribuído com U = X + Y \ sim N (\ mu_X + \ mu_Y, \ sigma ^ 2_X + \ sigma ^ 2_Y) ( prova). Curiosamente, o inverso se aplica: se duas variáveis aleatórias independentes têm uma soma normalmente distribuída, então eles devem ser normal em si - isto é conhecido como Teorema de Cramer.
    • A diferença é normalmente distribuído com V = X - Y \ sim N (\ mu_X - \ mu_Y, \ sigma ^ 2_X + \ sigma ^ 2_Y) .
    • Se as variações de X e Y são iguais, então U e V são independentes uns dos outros.
    • O Kullback-Leibler divergência, D _ {\ rm KL} (X \ | Y) = {1 \ over 2} \ left (\ log \ left ({\ sigma ^ 2_Y \ over \ sigma ^ 2_X} \ right) + \ frac {\ sigma ^ 2_X } {\ sigma ^ 2_Y} + \ frac {\ left (\ mu_Y - \ mu_X \ right) ^ 2} {\ sigma ^ 2_Y} - 1 \ right).
  3. Se X \ sim N (0, \ sigma ^ 2_X) e Y \ sim N (0, \ sigma ^ 2_Y) são variáveis aleatórias normais independentes, então:
    • Seu produto X Y segue uma distribuição com uma densidade p dado por
      p (z) = \ frac {1} {\ pi \, \ sigma_X \, \ sigma_Y} \; K_0 \ left (\ frac {| z |} {\ sigma_X \, \ sigma_Y} \ right), onde K_0 é uma função de Bessel modificada de segundo tipo .
    • A sua relação segue uma Distribuição Cauchy com X / Y \ sim \ mathrm {} Cauchy (0, \ sigma_X / \ sigma_Y) . Assim, a distribuição de Cauchy é um tipo especial de distribuição da taxa.
  4. Se X_1, \ pontos, X_n são variáveis normais independentes padrão, em seguida, X_1 ^ 2 + \ cdots + X_n ^ 2 tem uma distribuição qui-quadrado com n graus de liberdade.

Padronizar as variáveis aleatórias normais

Como consequência da propriedade 1, é possível relacionar todas as variáveis aleatórias normais para o padrão normal.

Se X ~ N (\ mu, \ sigma ^ 2) , Então

Z = \ frac {X - \ mu} {\ sigma} \!

é uma variável aleatória normal: Z ~ N (0,1) . Uma consequência importante é que a CDF de uma distribuição normal em geral é, por conseguinte,

\ Pr (X \ le x) = \ Phi \ left (\ frac {x- \ mu} {\ sigma} \ right) = \ frac {1} {2} \ left (1 + \ operatorname {erf} \ left (\ frac {x- \ mu} {\ sigma \ sqrt {2}} \ right) \ right).

Por outro lado, se Z é uma distribuição normal padrão, Z ~ N (0,1) , Então

X = \ sigma Z + \ mu

é uma variável aleatória normal de média \ mu e variância \ Sigma ^ 2 .

A distribuição normal padrão foi tabelado (geralmente sob a forma do valor da função de distribuição cumulativa Φ), e as outras distribuições normais são as transformações simples, como descrito acima, por um padrão. Portanto, pode-se utilizar valores tabelados do CDF da distribuição normal padrão para encontrar os valores de a CDF de uma distribuição normal geral.

Momentos

Os primeiros momentos da distribuição normal são:

Número Momento Raw Momento Central Cumulant
0 1 1
1 \ mu 0 \ mu
2 \ Mu ^ 2 + \ sigma ^ 2\ Sigma ^ 2\ Sigma ^ 2
3 \ Mu ^ 3 + 3 \ mu \ sigma ^ 2 0 0
4 \ Mu ^ 4 + 6 \ mu ^ 2 \ sigma ^ 2 + 3 \ sigma ^ 43 \ sigma ^ 4 0
5 \ Mu ^ 5 + 10 \ mu ^ 3 \ sigma ^ 2 + 15 \ mu \ sigma ^ 4 0 0
6 \ Mu ^ 6 + 15 \ mu ^ 4 \ sigma ^ 2 + 45 \ mu ^ 2 \ sigma ^ 4 + 15 \ sigma ^ 615 \ sigma ^ 6 0
7 \ Mu ^ 7 + 21 \ mu ^ 5 \ sigma ^ 2 + 105 \ mu ^ 3 \ sigma ^ 4 + 105 \ mu \ sigma ^ 6 0 0
8 \ Mu ^ 8 + 28 \ mu ^ 6 \ sigma ^ 2 + 210 \ mu ^ 4 \ sigma ^ 4 + 420 \ mu ^ 2 \ sigma ^ 6 + 105 \ sigma ^ 8105 \ sigma ^ 8 0

Tudo cumulantes de distribuição normal para além do segundo são zero.

Momentos centrais mais elevadas (da ordem 2k com \ Mu = 0 ) Pode ser obtida utilizando a fórmula

E \ left [x ^ {2k} \ right] = \ frac {(2k)!} {2 ^ kk!} \ Sigma ^ {} 2k.

Geração de valores para as variáveis aleatórias normais

Para simulações de computador, muitas vezes é útil para gerar valores que têm uma distribuição normal. Existem vários métodos e a mais básica é a de inverter a CDF normal padrão. Métodos mais eficientes são também conhecidas, sendo um tal método o Caixa-Muller transformar. Um algoritmo ainda mais rápido é o algoritmo zigurate.

O algoritmo de Box-Muller diz que, se você tiver dois números a e b uniformemente distribuídas na (0, 1], (por exemplo, a saída de um Gerador de número aleatório), em seguida, duas variáveis aleatórias são normalmente distribuídas padrão c e d, em que:

c = \ sqrt {- 2 \ ln a} \ cdot \ cos (2 \ pi b)
d = \ sqrt {- 2 \ ln a} \ cdot \ sin (2 \ pi b)

Isso ocorre porque a distribuição qui-quadrado com dois graus de liberdade (ver propriedade 4 acima) é uma variável aleatória exponencial facilmente gerado.

O teorema do limite central

Lote de pdf de uma distribuição normal com μ = 12 e σ = 3, aproximando-o de pdf de uma distribuição binomial com n = 48 e p = 1/4

Sob certas condições (como sendo independente e identicamente distribuída com variância finita), a soma de um grande número de variáveis aleatórias é aproximadamente normalmente distribuído - este é o teorema do limite central.

A importância prática do teorema do limite central que é a função de distribuição cumulativa normal pode ser usado como uma aproximação para algumas outras funções de distribuição cumulativas, por exemplo:

  • A distribuição binomial com parâmetros n e p é aproximadamente normal para grande n e p não muito perto de 1 ou 0 (alguns livros recomendo usar esta aproximação somente se np e n (1 - p) são ambos pelo menos 5; neste caso, um correção de continuidade devem ser aplicadas).
    A distribuição normal de aproximação tem parâmetros μ = np, σ 2 = np (1 - p).
  • A distribuição de Poisson com parâmetro λ é aproximadamente normal para grande λ.
    A distribuição normal de aproximação tem parâmetros μ = σ 2 = λ.

Se estas aproximações são suficientemente precisos depende da finalidade para a qual eles são necessários, e a taxa de convergência para a distribuição normal. É tipicamente o caso que essas aproximações são menos precisas nas caudas da distribuição. Um superior geral ligado do erro de aproximação da função de distribuição cumulativa é dada pela Berry-Esséen teorema.

Divisibilidade infinita

As distribuições são normais distribuições de probabilidade infinitamente divisíveis: dado um significativo μ, uma variância σ2 0, e um número natural n, a soma x + 1. . . + X n de n variáveis aleatórias independentes

X_1, X_2, \ pontos, X_n \ sim N (\ mu / n, \ sigma ^ 2 \! / N) \,

tem essa distribuição normal especificada (para verificar isto, o uso funções características ou convolução e indução matemática).

Estabilidade

As distribuições normais são estritamente distribuições de probabilidade estáveis.

Intervalos de confiança e desvio padrão

Azul escuro é menos de um desvio padrão da média. Para a distribuição normal, isto é responsável por cerca de 68% do conjunto (azul escuro), enquanto dois desvios-padrão da média (médio e azul escuro) conta para (leve, média, e azul escuro) conta cerca de 95% e três desvios-padrão para cerca de 99,7%.

Cerca de 68% dos valores tirados de uma distribuição normal são dentro de um desvio padrão σ> 0 distância a partir da média μ; cerca de 95% dos valores estão dentro de dois desvios padrão e cerca de 99,7% se encontram dentro de três desvios padrão. Isto é conhecido como o " 68-95-99.7 regra "ou" regra empírica. "

Para ser mais preciso, a área sob a curva de sino entre μ - n σ e μ + n σ em termos da função de distribuição cumulativa normal é dada pela

\ Begin {align} & \ Phi _ {\ mu, \ sigma ^ 2} (\ mu + n \ sigma) - \ Phi _ {\ mu, \ sigma ^ 2} (\ mu-n \ sigma) \\ & = \ Phi (n) - \ Phi (-n) = 2 \ Phi (n) -1 = \ mathrm {erf} \ bigl (n / \ sqrt {2} \, \ BIGR), \ end {align}

onde é a FER função de erro. Para 12 casas decimais, os valores para o 1-, 2-, até pontos 6-sigma são:

n \,\ Mathrm {erf} \ bigl (n / \ sqrt {2} \, \ BIGR) \,
1 0,682689492137
2 0,954499736104
3 0,997300203937
4 0,999936657516
5 0,999999426697
6 0,999999998027

A tabela seguinte dá a relação inversa de múltiplos sigma correspondentes a alguns valores utilizados frequentemente para a área sob a curva de sino. Estes valores são úteis para determinar (assintótica) intervalos de confiança dos níveis especificados para distribuição normal (ou assintoticamente normal) estimadores:

\ Mathrm {erf} \ bigl (n / \ sqrt {2} \, \ BIGR)n \,
0.80 1,28155
0,90 1,64485
0.95 1,95996
0.98 2,32635
0.99 2,57583
0,995 2,80703
0,998 3,09023
0.999 3,29052

em que o valor do lado esquerdo da tabela é a proporção de valores que vai cair dentro de um determinado intervalo e n é um múltiplo do desvio padrão que especifica a largura do intervalo.

Forma exponencial família

A distribuição normal é um dois-parâmetro forma de família exponencial com parâmetros μ natural e 1 / σ 2 e estatísticas X naturais e X 2. A forma canônica tem parâmetros {\ Mu \ over \ sigma ^ 2} e {1 \ over \ sigma ^ 2} e estatísticas suficientes \ Sum x e - {1 \ over 2} \ sum x ^ 2 .

Gaussian processo complexo

Considere variável aleatória Gaussiana complexa,

Z = X + iy \,

em que X e Y são variáveis gaussianas reais e independentes com variâncias iguais \ Scriptstyle \ sigma_r ^ 2 \, . O pdf das variáveis comuns é, então,

\ Frac {1} {2 \, \ pi \, \ sigma_r ^ 2} e ^ {- (x ^ 2 + y ^ 2) / (2 \ sigma_r ^ 2)}

Porque \ Scriptstyle \ sigma_z \, = \, \ sqrt {2} \ sigma_r , O pdf resultante para a variável Z Gaussian complexo é

\ Frac {1} {\ pi \, \ sigma_z ^ 2} e ^ {- | z | ^ 2 / \ sigma_z ^ 2}.

Distribuições relacionados

  • R \ sim \ mathrm {} Rayleigh (\ sigma ^ 2) é um Distribuição Rayleigh se R = \ sqrt {x ^ 2 + Y ^ 2} onde X \ sim N (0, \ sigma ^ 2) e Y \ sim N (0, \ sigma ^ 2) são duas distribuições normais independentes.
  • Y \ sim \ chi _ {\ nu} ^ 2 é uma distribuição do Qui-quadrado com \ Nu graus de liberdade se Y = \ sum_ {k = 1} ^ {\ nu} x_k ^ 2 onde X_k \ sim N (0,1) para k = 1, \ pontos, \ nu e são independentes.
  • Y \ sim \ mathrm {} Cauchy (\ mu = 0, \ theta = 1) é um Distribuição Cauchy se Y = X_1 / X_2 para X_1 \ sim N (0,1) e X_2 \ sim N (0,1) são dois distribuições normais independentes.
  • Y \ sim \ mbox {Log-N} (\ mu, \ sigma ^ 2) é um distribuição log-normal se Y = e ^ X e X \ sim N (\ mu, \ sigma ^ 2) .
  • Relação com Lévy distribuição alfa-estável de inclinação: Se X \ sim \ textrm {Levy-S} \ alpha \ textrm {s} (2, \ beta, \ sigma / \ sqrt {2}, \ mu) em seguida X \ sim N (\ mu, \ sigma ^ 2) .
  • Distribuição normal truncada. Se X \ sim N (\ mu, \ sigma ^ 2), \! em seguida, truncando X abaixo em A e na acima B vai conduzir a uma variável aleatória com média E (X) = \ mu + \ frac {\ sigma (\ varphi_1- \ varphi_2)} {T}, \! onde T = \ Phi \ left (\ frac {B- \ mu} {\ sigma} \ right) - \ Phi \ left (\ frac {A- \ mu} {\ sigma} \ right), \; \ Varphi_1 = \ varphi \ left (\ frac {A- \ mu} {\ sigma} \ right), \; \ Varphi_2 = \ varphi \ left (\ frac {B- \ mu} {\ sigma} \ right) e \ Varphi é o função densidade de probabilidade de uma variável aleatória normal.
  • Se X é uma variável aleatória, com uma distribuição normal, e Y = | X | , Então Y tem um dobrado distribuição normal.

Estatística descritiva e inferencial

Pontuações

Muitos pontuações são derivados a partir de uma distribuição normal, incluindo percentil fileiras ("percentis"), equivalentes curva normal, stanines, z-score e T-scores. Além disso, um certo número de comportamentais estatísticos procedimentos são baseados no pressuposto de que as pontuações são distribuídas normalmente; por exemplo, t-testes e ANOVAs (ver abaixo). Sino curva granulométrica atribui graus relativos baseados em uma distribuição normal de pontuações.

Testes de normalidade

Testes de normalidade verificar um determinado conjunto de dados para semelhança com a distribuição normal. O hipótese nula é que o conjunto de dados é semelhante à distribuição normal, por conseguinte, um suficientemente pequeno P indica o valor de dados não-normal.

  • Teste de Kolmogorov-Smirnov
  • Teste de Lilliefors
  • Teste de Anderson-Darling
  • Teste de Ryan-Joiner
  • Teste de Shapiro-Wilk
  • Gráfico de probabilidade normal ( rankit enredo)
  • Teste de Jarque-Bera

Estimativa de parâmetros

Estimativa da probabilidade máxima de parâmetros

Supor

X_1, \ pontos, X_n

são independente e cada um é normalmente distribuída com expectativa μ e variância σ ²> 0. Na linguagem de estatísticos, os valores observados dessas variáveis aleatórias n tornar-se uma "amostra de tamanho n de uma população distribuída normalmente." Deseja-se estimar "significa população" o μ e o "desvio padrão da população" σ, com base nos valores observados para esta amostra. A função densidade de probabilidade conjunta contínua dessas variáveis aleatórias independentes é n

\ Begin {align} f (x_1, \ dots, x_n; \ mu, \ sigma) & = \ Prod_ {i = 1} ^ n \ varphi _ {\ mu, \ sigma ^ 2} (x_i) \\ & = \ frac1 {(\ sigma \ sqrt {2 \ pi}) ^ n} \ Prod_ {i = 1} ^ n \ exp \ biggl (- {1 \ over 2} \ Bigl ({x_i- \ mu \ over \ sigma} \ BIGR) ^ 2 \ biggr), \ quad (x_1, \ ldots, x_n) \ in \ mathbb {R} ^ n. \ End {align}

Como uma função de μ e σ, o função de probabilidade com base nas observações de X 1, ..., X n é

L (\ mu \, sigma) = \ frac C {\ sigma ^ n} \ exp \ left (- {\ sum_ {i = 1} ^ n (X_i- \ mu) ^ 2 \ over 2 \ sigma ^ 2} \ right), \ quad \ mu \ in \ mathbb {R}, \ \ sigma> 0,

com uma constante C> 0 (que, em geral, seria ainda permitiu a depender X 1, ..., Xn, mas de qualquer maneira desaparecerá quando derivadas parciais da função de probabilidade logarítmica no que diz respeito aos parâmetros são calculados, ver abaixo ).

No método de máxima verossimilhança, os valores de μ e σ que maximizam a função de verossimilhança são tomadas como as estimativas da população parâmetros μ e σ.

Normalmente em maximizar uma função de duas variáveis, pode-se considerar derivadas parciais. Mas aqui vamos explorar o fato de que o valor de μ que maximiza a função de verossimilhança com σ fixo não depende de σ. Portanto, podemos encontrar esse valor de μ, em seguida, substituí-lo por μ na função de probabilidade, e, finalmente, encontrar o valor de σ que maximiza a expressão resultante.

É evidente que a função de probabilidade é uma função decrescente da soma

\ Sum_ {i = 1} ^ n (X_i- \ mu) ^ 2. \, \!

Então, nós queremos o valor de μ que minimiza essa soma. Deixar

\ overline {X} _n = (X_1 + \ cdots + x_n) / n

ser a "média da amostra", baseado nas n observações. Observa-se que

\ Begin {align} \ sum_ {i = 1} ^ n (X_i- \ mu) ^ 2 & = \ sum_ {i = 1} ^ n \ bigl ((X_i- \ overline {X} _n) + (\ overline {X} _n- \ mu) \ BIGR) ^ 2 \\ & = \ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2 + 2 (\ overline {X} _n- \ mu ) \ underbrace {\ sum_ {i = 1} ^ n (X_i- \ overline {X} _n)} _ {= \, 0} + \ sum_ {i = 1} ^ n (\ overline {X} _n- \ mu) ^ 2 \\ & = \ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2 + n (\ overline {X} _n- \ mu) ^ 2. \ End {align}

Apenas o último prazo depende de μ e ele é minimizado por

\ Widehat {\ mu} _n = \ overline {X} _n.

Essa é a estimativa de máxima probabilidade de μ com base nas observações n x 1, ..., x n. Quando substituímos essa estimativa para μ na função de verossimilhança, obtemos

L (\ overline {X} _n, \ sigma) = \ frac C {\ sigma ^ n} \ exp \ biggl (- {\ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2 \ over 2 \ sigma ^ 2} \ biggr), \ quad \ sigma> 0.

É convencional para denotar a "função de log-probabilidade", isto é, o logaritmo da função de probabilidade, por um caso inferior \ Ell , E temos

\ Ell (\ overline {X} _n, \ sigma) = \ log Cn \ log \ sigma - {\ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2 \ over 2 \ sigma ^ 2}, \ quad \ sigma> 0,

e depois

\ Begin {align} {\ \ parcial sobre \ partial \ sigma} \ ell (\ overline {X} _n, \ sigma) & = - {n \ over \ sigma} + {\ sum_ {i = 1} ^ n ( X_i- \ overline {X} _n) ^ 2 \ over \ sigma ^ 3} \\ & = - {n \ over \ sigma ^ 3} \ biggl (\ sigma ^ 2 {1 \ over n} \ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2 \ biggr), \ quad \ sigma> 0. \ End {align}

Este derivado é positivo, nulo ou negativo de acordo como σ 'é entre 0 e

\ Hat \ sigma_n ^ 2: = {1 \ over n} \ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2,

ou igual a esta quantidade, ou maior do que a quantidade. (Se houver apenas uma observação, o que significa que n = 1, ou se X = 1 ... n = X, que só acontece com probabilidade zero, então \ Hat \ sigma {} _ n ^ 2 = 0 por esta fórmula, reflectindo o facto de que, nestes casos, a função de probabilidade é ilimitada quando σ diminui para zero).

Consequentemente, esta média dos quadrados de resíduos é a estimativa de probabilidade máxima de σ ², e sua raiz quadrada é a estimativa de probabilidade máxima de σ com base nos n observações. Este estimador \ Hat \ sigma {} _ n ^ 2 é inclinado, mas tem um menor erro quadrático do que o habitual estimador imparcial, que é n / (n - 1) vezes este estimador.

Generalização surpreendente

A derivação do estimador de máxima verossimilhança do matriz de covariância de um distribuição normal multivariada é sutil. Trata-se o teorema espectral ea razão pode ser melhor para ver um escalar como o um traço de 1 x 1 matriz do que como um mero escalar. Ver estimativa da matriz de covariância.

Imparcial estimativa de parâmetros

O estimador de máxima verossimilhança da média da população \ mu a partir de uma amostra é uma estimador imparcial da média, como é a variância quando a média da população é conhecida a priori. No entanto, se estamos diante de uma amostra e não têm conhecimento da média ou a variância da população da qual ele é desenhado, o estimador não tendencioso da variância \ Sigma ^ 2 é:

S ^ 2 = \ frac {1} {n-1} \ sum_ {i = 1} ^ n (x_i - \ overline {X}) ^ 2.

Este "variação da amostra" segue um Distribuição Gama se tudo X i são independentes e identicamente distribuídos:

S ^ 2 \ sim \ operatorname {Gamma} \ left (\ frac {n-1} {2}, \ frac {2 \ sigma ^ 2} {n-1} \ right).

Ocorrência

Aproximadamente distribuições normais ocorrem em muitas situações, como um resultado do teorema do limite central. Quando houver razões para suspeitar da presença de um grande número de pequenos efeitos que agem de forma aditiva e independente, é razoável supor que as observações será normal. Existem métodos estatísticos para testar empiricamente essa suposição, por exemplo, o Teste de Kolmogorov-Smirnov.

Efeitos também pode agir como modificações multiplicativos (em vez de aditivos). Nesse caso, o pressuposto de normalidade não se justifica, e é o logaritmo da variável de interesse que é normalmente distribuída. A distribuição da variável directamente observada é então chamada log-normal.

Finalmente, se houver um único influência externa que tem um grande efeito sobre a variável sob consideração, o pressuposto de normalidade não se justifica ou. Isto é verdade mesmo que, quando a variável externa é mantida constante, as distribuições marginais resultantes são, de facto normal. A distribuição total será uma superposição de variáveis normais, que não é em geral normal. Isto está relacionado com a teoria dos erros (ver abaixo).

Para resumir, aqui está uma lista de situações em que a normalidade aproximada é às vezes assumidas. Para uma discussão mais completa, veja abaixo.

  • Na contagem problemas (de modo que o teorema do limite central inclui uma aproximação discreta-to-contínuo), onde variáveis aleatórias reprodutivos estão envolvidos, tais como
  • Em medições fisiológicas de espécimes biológicos:
    • O logaritmo de medidas de tamanho de tecido vivo (comprimento, altura, área da pele, peso);
    • O comprimento dos apêndices inertes (cabelo, unhas, garras, dentes) de amostras biológicas, na direcção do crescimento; presumivelmente a espessura da casca de árvore também se enquadram nessa categoria;
    • Outras medidas fisiológicas podem ser distribuídos normalmente, mas não há nenhuma razão para esperar que a priori;
  • Os erros de medição são frequentemente assumido a ser distribuído normalmente, e qualquer desvio da normalidade é considerado algo que deve ser explicada;
  • Variáveis financeiras
    • As mudanças no logaritmo das taxas de câmbio, índices de preços e índices do mercado de ações; essas variáveis se comportam como juros compostos, não como juros simples, e por isso são multiplicativo;
    • Outras variáveis financeiras podem ser distribuídos normalmente, mas não há nenhuma razão para esperar que a priori;
  • A intensidade da luz
    • A intensidade da luz laser é normalmente distribuído;
    • Luz térmica tem um Distribuição de Bose-Einstein em escalas de tempo muito curtos, e uma distribuição normal em escalas de tempo mais longos, devido ao teorema do limite central.

De relevância para a biologia e a economia é o facto de os sistemas complexos tendem a exibir leis de potência, em vez de normalidade.

Contagem de fótons

A intensidade da luz de uma fonte única varia com o tempo, as flutuações térmicas pode ser observada, se a luz é analisado em tempo resolução suficientemente elevada. A intensidade é geralmente assumido para ser distribuído normalmente. A mecânica quântica interpreta as medições de intensidade de luz como fótons contagem. A suposição natural neste cenário é a distribuição de Poisson . Quando a intensidade de luz integrada durante tempos mais longos do que o tempo de coerência e é grande, o limite de Poisson-para-normal é adequada.

Os erros de medição

A normalidade é a assunção central da matemática teoria dos erros. Do mesmo modo, no modelo de ajuste estatístico, um indicador de qualidade do ajuste é que o resíduos (como os erros são chamados nesse cenário) ser independente e normalmente distribuído. O pressuposto é que qualquer desvio da normalidade precisa ser explicado. Nesse sentido, tanto no modelo de encaixe e na teoria dos erros, a normalidade é a única observação que não precisam ser explicados, sendo esperado. No entanto, se os dados originais não são normalmente distribuídos (por exemplo, se eles seguem um Distribuição de Cauchy), em seguida, os resíduos também não será normalmente distribuída. Este fato é geralmente ignorado na prática.

As medidas repetidas da mesma quantidade são esperados para produzir resultados que são agrupados em torno de um determinado valor. Se todas as principais fontes de erros tenham sido tomados em conta, presume-se que o erro remanescente deve ser o resultado de um grande número de efeitos aditivos muito pequenos, e portanto o normal. Desvios da normalidade são interpretadas como indicações de erros sistemáticos que não foram tidos em conta. Se esta hipótese é válida é discutível. Uma observação famosa e freqüentemente citada atribuída a Gabriel Lippmann diz: "Todo mundo acredita na lei [normais] de erros: os matemáticos, porque acho que é um fato experimental, e os experimentadores, porque suponho que é um teorema de matemática . "

As características físicas de amostras biológicas

Os tamanhos dos animais adultas é de aproximadamente lognormal. A evidência e uma explicação com base em modelos de crescimento foi publicado primeiramente em 1932 o livro Problemas de crescimento relativo por Julian Huxley.

Diferenças no tamanho devido ao dimorfismo sexual, ou outros polimorfismos como o trabalhador / soldado / divisão rainha em insetos sociais, tornar ainda mais a distribuição de tamanhos de desviar lognormalidade.

A suposição de que linear tamanho de amostras biológicas é normal (ao invés de lognormal) leva a uma distribuição não-normal de peso (já que o peso ou o volume é aproximadamente proporcional ao 2º ou 3º poder de comprimento, e distribuições de Gauss só são preservadas por transformações lineares ), e, inversamente, assumindo que o peso é leva a comprimentos normais não-normal. Este é um problema, porque não há a priori razão pela qual um dos comprimento, ou de massa corporal, e não o outro, devem ser distribuídos normalmente. Distribuições lognormal, por outro lado, são preservados por poderes de modo que o "problema" vai embora se lognormalidade é assumido.

Por outro lado, existem algumas medidas biológicos, onde se assume normalidade, tais como a pressão sanguínea de seres humanos adultos. Isto é suposto ser normalmente distribuída, mas apenas depois de se separar machos e fêmeas em diferentes populações (cada um dos quais é normalmente distribuído).

Variáveis financeiras

Já em 1900 Louis Bachelier propôs representando variações de preços de stocks , utilizando a distribuição normal. Esta abordagem já foi ligeiramente modificada. Por causa da natureza exponencial da inflação , indicadores financeiros, tais como banco de valores e commodities preços exibem "comportamento multiplicativo". Como tal, as suas mudanças periódicas (por exemplo, mudanças anuais) não são normais, mas em vez lognormal - ou seja, retorna em oposição aos valores são normalmente distribuídos. Esta ainda é a hipótese mais comumente usado em finanças , em particular na precificação de ativos. Correcções este modelo parece ser necessário, como foi salientado por exemplo, por Benoît Mandelbrot, o divulgador de fractais , que observou que as mudanças no logaritmo em períodos curtos (como um dia) são aproximadas bem por distribuições que não têm uma variação finita, e, portanto, o teorema do limite central não se aplica. Em vez disso, a soma de muitas dessas mudanças dá distribuições log-Levy.

Distribuição em testes e inteligência

Às vezes, a dificuldade eo número de perguntas sobre um teste de QI é selecionado, a fim de produzir resultados distribuídos normais. Ou então, os resultados dos testes brutos são convertidos em valores de QI, equipando-os para a distribuição normal. Em ambos os casos, é o resultado deliberada de construção de teste ou marcar interpretação que leva a índices de QI sendo normalmente distribuído para a maioria da população. No entanto, a questão de saber se a inteligência em si é normalmente distribuída está mais envolvido, porque a inteligência é uma variável latente, por conseguinte, a sua distribuição não pode ser observado diretamente.

Equação de difusão

A função de densidade de probabilidade da distribuição normal está intimamente relacionada com o (homogéneo e isotrópico)equação de difusão e, por conseguinte, também para a equação do calor.presenteequação diferencial parcialdescreve a evolução no tempo de uma função de densidade de massa sob difusão.Em particular, a função densidade de probabilidade

\varphi_{0,t}(x) = \frac{1}{\sqrt{2\pi t\,}}\exp\left(-\frac{x^2}{2t}\right),

para a distribuição normal com valor esperado e variância 0tsatisfaz a equação de difusão:

\frac{\partial}{\partial t} \varphi_{0,t}(x) = \frac{\partial^2}{\partial x^2} \varphi_{0,t}(x).

Se a densidade de massa no tempo t = 0 é determinado por um delta de Dirac, o que significa que essencialmente toda a massa é inicialmente concentrada num único ponto, em seguida, a função densidade de massa no tempo t terá a forma da função de densidade de probabilidade normal com variância linearmente crescente com t . Esta ligação não é coincidência: difusão é devido a movimento Browniano, que é descrito matematicamente por um processo de Wiener, e um tal processo no momento t , também irá resultar numa distribuição normal com variância linearmente crescente com t .

De modo mais geral, se a densidade de massa inicial é dada por uma função φ (x), em seguida, a massa densidade no tempotvai ser dada pelaconvolução de φ e uma função de densidade de probabilidade normal.

Aproximações numéricas de distribuição normal e sua cdf

A distribuição normal é amplamente usado na computação científica e estatística. Por isso, tem sido implementada de várias maneiras.

O GNU Scientific Library calcula os valores do padrão normal de cdf usando aproximações segmentadas por funções racionais. Outro método de aproximação utiliza polinômios de terceiro grau em intervalos . O artigo sobre a linguagem de programação bc dá um exemplo de como calcular o cdf em Gnu bc.

Geração de se desvia da unidade normal é normalmente feito usando o método Box-Muller de escolher um ângulo de modo uniforme e um raio exponencial e, em seguida, transformar a (normalmente distribuída) x e y coordenadas. Se log, cos ou pecado são caros, em seguida, uma alternativa simples é a de simplesmente somar 12 uniforme (0,1) se desvia e subtrair 6 (metade de 12). Isto é bastante útil em muitas aplicações. A soma ao longo de 12 valores é escolhido como isto dá uma variação de exactamente um. O resultado é limitado à gama (-6,6) e tem uma densidade que é um 12-secção XI-fim aproximação polinomial para a distribuição normal.

Um método que é muito mais rápido do que a caixa-Muller transformar mas que ainda é exacto é o chamado algoritmo Zigurate desenvolvido por George Marsaglia. Em cerca de 97% de todos os casos ele usa apenas dois números aleatórios, um número inteiro aleatório e um uniforme aleatória, uma multiplicação e uma se-teste. Apenas 3% dos casos em que a combinação destas duas quedas fora do "núcleo do zigurate" um tipo de rejeição de amostragem usando logaritmos, exponenciais e números aleatórios mais uniforme tem que ser empregue.

Há também alguma investigação sobre a ligação entre o rápido Hadamard transformar e a distribuição normal, pois a transformação emprega apenas adição e subtração e pelos números aleatórios limite teorema centrais de quase qualquer distribuição será transformado em uma distribuição normal. A este respeito, uma série de transformações de Hadamard pode ser combinado com permutações aleatórios para virar conjuntos de dados arbitrários para um conjunto de dados com distribuição normal.

Em Microsoft Excel a função NORMSDIST () calcula o cdf da distribuição normal padrão, e NORMSINV () calcula a sua função inversa. Portanto, NORMSINV (RAND ()) é uma maneira exata, mas lento de geração de valores a partir da distribuição normal padrão, usando o princípio da transformação inversa de amostragem.

Trivialidades

  • A última série de10 notas de marco alemão contou comCarl Friedrich Gausse um gráfico e fórmula da função normal da densidade de probabilidade.
Retirado de " http://en.wikipedia.org/w/index.php?title=Normal_distribution&oldid=198343493 "