Contenido Checked

Distribución normal

Temas relacionados: Matemáticas

Antecedentes de las escuelas de Wikipedia

SOS ofrecen una descarga completa de esta selección de escuelas para su uso en escuelas intranets. Haga clic aquí para obtener más información sobre SOS Children.

Normal
La función de densidad de probabilidad
Función de densidad de probabilidad para la distribución normal
La línea verde es la distribución normal estándar
Función de distribución acumulativa
Función de distribución acumulativa para la distribución normal
Colores coincidan con la imagen de arriba
Parámetros \ mu ubicación ( verdadero )
\ Sigma ^ 2> 0 cuadrado escala (real)
Apoyo x \ in \ mathbb {R} \!
PDF \ Frac1 {\ sigma \ sqrt {2 \ pi}} \; \ Exp \ left (- \ frac {\ left (x \ mu \ right) ^ 2} {2 \ sigma ^ 2} \ right) \!
CDF \ Frac12 \ left (1+ \ mathrm {erf} \, \ frac {x \ mu} {\ sigma \ SQRT2} \ right) \!
Significar \ mu
Mediana \ mu
Modo \ mu
Desacuerdo \ Sigma ^ 2
Oblicuidad 0
Ex. curtosis 0
Entropía \ Ln \ left (\ sigma \ sqrt {2 \, \ pi \, e} \ right) \!
MGF M_x (t) = \ exp \ left (\ mu \, t + \ frac {\ sigma ^ 2 t ^ 2} {2} \ right)
CF \ Chi_X (t) = \ exp \ left (\ mu \, i \, t \ frac {\ sigma ^ 2 t ^ 2} {2} \ right)

La distribución normal, también llamada la distribución de Gauss, es una importante familia de distribuciones de probabilidad continuas , aplicable en muchos campos. Cada miembro de la familia puede ser definido por dos parámetros, localización y escala: la media ("promedio", μ) y la varianza ( desviación estándar al cuadrado) σ 2, respectivamente. La distribución normal estándar es la distribución normal con una media de cero y una varianza de uno (las curvas de color verde en las parcelas a la derecha). Carl Friedrich Gauss llegó a ser asociado con este conjunto de distribuciones cuando analizó los datos astronómicos de usarlos, y definido la ecuación de la función de densidad de probabilidad. A menudo se llama la curva de campana, porque la gráfica de su de densidad de probabilidad se asemeja a una campana.

La importancia de la distribución normal como un modelo de fenómenos cuantitativos en el natural y ciencias del comportamiento se debe a la teorema del límite central. Muchos psicológicos mediciones y física fenómenos (como ruido) se puede aproximar bien por la distribución normal. Mientras que los mecanismos subyacentes a estos fenómenos son a menudo desconocido, el uso del modelo normal puede ser teóricamente justificada por el supuesto de que muchos efectos pequeños, independientes están contribuyendo de forma aditiva a cada observación.

La distribución normal también surge en muchas áreas de las estadísticas . Por ejemplo, el distribución muestral de la media de la muestra es aproximadamente normal, incluso si la distribución de la población de la que se toma la muestra no es normal. Además, la distribución normal maximiza entropía de información entre todas las distribuciones con media y varianza conocida, lo que hace la elección natural de la distribución subyacente de los datos resumidos en términos de media de la muestra y la varianza. La distribución normal es la familia más utilizada de las distribuciones en las estadísticas y muchas pruebas estadísticas se basan en el supuesto de normalidad. En teoría de la probabilidad , distribuciones normales surgen como la limitar las distribuciones de varios continuos y discretos familias de distribuciones.

Historia

La distribución normal se introdujo por primera vez por Abraham de Moivre en un artículo publicado en 1733, que fue reimpreso en la segunda edición de su The Doctrine of Chances de 1738 en el contexto de la aproximación de algunas distribuciones binomial para n grande. Su resultado fue ampliado por Laplace en su libro Teoría analítica de las probabilidades (1812), y ahora se llama el teorema de Moivre-Laplace.

Laplace utiliza la distribución normal en el análisis de los errores de los experimentos. El importante método de mínimos cuadrados fue introducido por Legendre en 1805. Gauss , quien afirmó haber usado el método desde 1794, justificó rigurosamente en 1809 asumiendo una distribución normal de los errores.

El nombre de "curva de campana" se remonta a Jouffret que utilizó por primera vez el término "superficie campana" en 1872 para un normal bivariada con componentes independientes. El nombre de "distribución normal" fue acuñado independiente por Charles S. Peirce, Francis Galton y Wilhelm Lexis alrededor de 1875. A pesar de esta terminología, otras distribuciones de probabilidad puede ser más apropiado en algunos contextos; véase el análisis de ocurrencia , a continuación.

Caracterización

Hay varias maneras de caracterizar una distribución de probabilidad . El más visual es el función de densidad de probabilidad (PDF). Formas equivalentes son la función de distribución acumulativa, el momentos, la cumulantes, la función característica, la función generadora de momentos, la cumulant- la generación de la función, y El teorema de Maxwell. Ver distribución de probabilidad para una discusión.

Para indicar que una de valor real variable aleatoria X tiene una distribución normal con media μ y varianza σ ² ≥ 0, escribimos

X \ sim N (\ mu, \ sigma ^ 2). \, \!

Aunque sin duda es útil para ciertos teoremas de límites (por ejemplo, asintótica normalidad de estimadores) y para la teoría de la Procesos Gaussianos a tener en cuenta la distribución de probabilidad concentrada en μ (ver Dirac medida) como una distribución normal con media μ y varianza σ ² = 0, este caso degenerado es a menudo excluido de las consideraciones porque ningún densidad con respecto a la Existe medida de Lebesgue.

La distribución normal también se puede parametrizar mediante un parámetro τ de precisión, que se define como el recíproco de σ ². Esta parametrización tiene una ventaja en aplicaciones numéricas donde σ ² es muy cercana a cero y es más conveniente trabajar con en el análisis como τ es una parámetro natural de la distribución normal.

La función de densidad de probabilidad

Función de densidad de probabilidad para la distribución normal

La continua la función de densidad de probabilidad de la distribución normal es la Función gaussiana

\ Varphi _ {\ mu, \ sigma ^ 2} (x) = \ frac {1} {\ sigma \ sqrt {2 \ pi}} \, e ^ {- \ frac {(x \ mu) ^ 2} { 2 \ sigma ^ 2}} = \ frac {1} {\ sigma} \ phi \ left (\ frac {x - \ mu} {\ sigma} \ right), \ quad x \ in \ mathbb {R},

donde σ> 0 es la desviación estándar , el parámetro real de μ es la valor esperado, y

\ Phi (x) = \ varphi_ {0,1} (x) = \ frac {1} {\ sqrt {2 \ pi \,}} \, e ^ {- \ frac {x ^ 2} {2}} , \ quad x \ in \ mathbb {R},

es la función de densidad de la "estándar" distribución normal, es decir, la distribución normal con μ = 0 y σ = 1. La integral de \ Varphi _ {\ mu, \ sigma ^ 2} sobre el línea real es igual a uno, como se muestra en el Artículo integral de Gauss.

Como una función gaussiana con el denominador del exponente igual a 2, la función de densidad normal estándar \ Scriptstyle \ varphi es una función propia del Transformada de Fourier.

La función de densidad de probabilidad tiene propiedades notables, entre ellas:

  • simetría sobre sus μ medios
  • el modo y mediana ambos iguales a la media μ
  • la puntos de inflexión de la curva se producen una desviación estándar de distancia de la media, es decir, en μ - σ y μ + σ.

Función de distribución acumulativa

Función de distribución acumulativa para la distribución normal

La función de distribución acumulativa (CDF) de una distribución de probabilidad , evaluada en un número (en minúsculas) x, es la probabilidad de que el evento de que una variable aleatoria X (capital) con que la distribución es menor o igual a x. La función de distribución acumulativa de la distribución normal se expresa en términos de la función de densidad de la siguiente manera:

\ Begin {align} \ Phi _ {\ mu, \ sigma ^ 2} (x) & {} = \ int _ {- \ infty} ^ x \ phi _ {\ mu, \ sigma ^ 2} (u) \, du \ \ & {} = \ frac {1} {\ sigma \ sqrt {2 \ pi}} \ int _ {- \ infty} ^ x \ exp \ Bigl (- \ frac {(u - \ mu) ^ 2} {2 \ sigma ^ 2} \ BIGR) \, du \\ & \ {} = \ Phi \ Bigl (\ frac {x \ mu} {\ sigma} \ BIGR), \ quad x \ in \ mathbb {R}, \ end {align}

donde la función de distribución normal estándar, Φ, es sólo la función de distribución general, evaluado con μ = 0 y σ = 1:

\ Phi (x) = \ phi_ {0,1} (x) = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ x \ exp \ Bigl (- \ frac {u ^ 2} {2} \ BIGR) \, du, \ quad x \ in \ mathbb {R}.

La cdf normal estándar se puede expresar en términos de una función especial llamada función de error, como se

\ Phi (x) = \ frac {1} {2} \ Bigl [1 + \ operatorname {erf} \ Bigl (\ frac {x} {\ sqrt {2}} \ BIGR) \ BIGR], \ quad x \ en \ mathbb {R},

y el propio cdf por lo tanto, se puede expresar como

\ Phi _ {\ mu, \ sigma ^ 2} (x) = \ frac {1} {2} \ Bigl [1 + \ operatorname {erf} \ Bigl (\ frac {x \ mu} {\ sigma \ sqrt { 2}} \ BIGR) \ BIGR], \ quad x \ in \ mathbb {R}.

El complemento de la función de distribución normal estándar, 1 - \ Phi (x) , Es a menudo denotado Q (x) , Y se refiere a veces simplemente como la función Q, especialmente en los textos de ingeniería. Esto representa la probabilidad de cola de la distribución gaussiana. Otras definiciones de la función Q, todos los cuales son simples transformaciones de \ Phi , También se utilizan ocasionalmente.

La inversa función de distribución acumulada normal estándar, o función cuantil, se puede expresar en términos de la función de error inverso:

\ Phi ^ {- 1} (p) = \ SQRT2 \; \ operatorname {erf} ^ {- 1} (2p - 1), \ quad p \ en (0,1),

y la función de distribución acumulativa inversa por lo tanto, se puede expresar como

\ Phi _ {\ mu, \ sigma ^ 2} ^ {- 1} (p) = \ mu + \ sigma \ Phi ^ {- 1} (p) = \ mu + \ sigma \ SQRT2 \; \ Operatorname {erf} ^ {- 1} (2p - 1), \ quad p \ en (0,1).

Esta función cuantil se llama a veces la función probit. No hay primaria primitiva para la función probit. Esto no quiere decir simplemente que no se conoce ninguno, sino más bien que la no existencia de una primitiva elemental se ha demostrado tal. Existen varios métodos precisos para aproximar la función cuantil de la distribución normal - ver función cuantil para una discusión y referencias.

Los valores de Φ (x) se puede aproximar de forma muy precisa por una variedad de métodos, tales como la integración numérica , la serie de Taylor , serie asintótica y fracciones continuas.

Los estrictos límites inferior y superior para la función de distribución

Para grandes x la cdf normal estándar \ Scriptstyle \ Phi (x) es cercano a 1 y \ Scriptstyle \ Phi (-x) \, {=} \, 1 \, {-} \, \ Phi (x) está cerca de 0. Los límites elementales

\ Frac {x} {1 + x ^ 2} \ phi (x) <1- \ Phi (x) <\ frac {\ phi (x)} {x}, \ qquad x> 0,

en términos de la densidad \ Scriptstyle \ varphi son útiles.

Usando el sustitución v = u ² / 2, el límite superior se deriva de la siguiente manera:

\ Begin {align} 1- \ Phi (x) & = \ int_x ^ \ infty \ phi (u) \, du \\ y <\ int_x ^ \ infty \ frac ux \ phi (u) \, du = \ int_ {x ^ 2/2} ^ \ infty \ frac {e ^ {- v}} {x \ sqrt {2 \ pi}} \, dv = -. \ biggl \ frac {e ^ {- v}} {x \ sqrt {2 \ pi}} \ biggr | _ {x ^ 2/2} ^ \ infty = \ frac {\ phi (x)} {x}. \ End {align}

Del mismo modo, el uso de \ Scriptstyle \ varphi '(u) \, {=} \, - u \, \ phi (u) y la regla del cociente,

\ Begin {align} \ Bigl (1+ \ frac1 {x ^ 2} \ BIGR) (1- \ Phi (x)) & = \ int_x ^ \ infty \ Bigl (1+ \ frac1 {x ^ 2} \ BIGR ) \ phi (u) \, du \\ y> \ int_x ^ \ infty \ Bigl (1+ \ frac1 {u ^ 2} \ BIGR) \ phi (u) \, du = -. \ biggl \ frac {\ varphi (u)} u \ biggr | _x ^ \ infty = \ frac {\ phi (x)} x. \ End {align}

Despejando \ Scriptstyle 1 \, {-} \, \ Phi (x) \, proporciona el límite inferior.

Funciones generadoras

Función generadora Moment

La función generadora de momento se define como la valor esperado de exp (TX). Para una distribución normal, la función de generación de momento es

\ Begin {align} m_x (t) & {} = \ mathrm {E} \ left [\ exp {(TX)} \ right] \\ & {} = \ int _ {- \ infty} ^ {\ infty} \ frac {1} {\ sigma \ sqrt {2 \ pi}} \ exp {\ left (- \ frac {(x - \ mu) ^ 2} {2 \ sigma ^ 2} \ right)} \ {exp (tx )} \, dx \\ & {} = \ exp {\ left (\ mu t + \ frac {\ sigma ^ 2 t ^ 2} {2} \ right)} \ end {align}

como puede verse por completar el cuadrado en el exponente.

Función generadora Cumulant

La función generadora cumulante es el logaritmo de la función generatriz de momentos: g (t) = μ t + t ² σ² / 2. Dado que este es un polinomio de segundo grado en t, sólo los dos primeros cumulantes no son cero.

Función característica

La función característica se define como la valor esperado de \ Exp (i t X) , Donde yo es la unidad imaginaria . Así la función característica se obtiene mediante la sustitución t con ella en la función generadora de momentos.

Para una distribución normal, la función característica es

\ Begin {align} \ chi_X (t; \ mu, \ sigma) y {} = m_x (it) = \ mathrm {E} \ left [\ exp (que X) \ right] \\ & {} = \ int_ {- \ infty} ^ {\ infty} \ frac {1} {\ sigma \ sqrt {2 \ pi}} \ exp \ left (- \ frac {(x - \ mu) ^ 2} {2 \ sigma ^ 2 } \ right) \ exp (ITX) \, dx \\ & {} = \ exp \ left (i \ mu t - \ frac {\ sigma ^ 2 t ^ 2} {2} \ right). \ End {align}

Propiedades

Algunas propiedades de la distribución normal:

  1. Si X \ sim N (\ mu, \ sigma ^ 2) y un y b son números reales , entonces una X + b \ sim N (a \ mu + b, (a \ sigma) ^ 2) (Ver valor esperado y la varianza ).
  2. Si X \ sim N (\ mu_X, \ sigma ^ 2_X) y Y \ sim N (\ mu_Y, \ sigma ^ 2_Y) son normales independientes variables aleatorias , entonces:
    • Su suma se distribuye normalmente con U = X + Y \ sim N (\ mu_X + \ mu_Y, \ sigma ^ 2_X + \ sigma ^ 2_Y) ( prueba). Curiosamente, a la inversa tiene: si dos variables aleatorias independientes tienen una suma distribuida normalmente, entonces deben ser normal a sí mismos - esto se conoce como El teorema de Cramer.
    • Su diferencia se distribuye normalmente con V = X - Y \ sim N (\ mu_X - \ mu_Y, \ sigma ^ 2_X + \ sigma ^ 2_Y) .
    • Si las varianzas de X e Y son iguales, entonces U y V son independientes el uno del otro.
    • La Divergencia de Kullback-Leibler, D _ {\ rm KL} (X \ | Y) = {1 \ over 2} \ left (\ log \ left ({\ sigma ^ 2_Y \ sobre \ sigma ^ 2_X} \ right) + \ frac {\ sigma ^ 2_X } {\ sigma ^ 2_Y} + \ frac {\ left (\ mu_Y - \ mu_X \ right) ^ 2} {\ sigma ^ 2_Y} - 1 \ right).
  3. Si X \ sim N (0, \ sigma ^ 2_X) y Y \ sim N (0, \ sigma ^ 2_Y) son variables aleatorias normales independientes, entonces:
    • Su producto X Y sigue una distribución con una densidad de p dada por
      p (z) = \ frac {1} {\ pi \, \ sigma_X \, \ sigma_Y} \; K_0 \ dejó (\ frac {| z |} {\ sigma_X \, \ sigma_Y} \ right), donde K_0 es una función de Bessel modificada de la segunda especie .
    • Su relación sigue una Distribución de Cauchy con X / Y \ sim \ mathrm {} Cauchy (0, \ sigma_X / \ sigma_Y) . Así, la distribución de Cauchy es un tipo especial de distribución de ratio.
  4. Si X_1, \ dots, X_n son variables normales estándar independientes, entonces X_1 ^ 2 + \ cdots + X_n ^ 2 tiene una distribución chi-cuadrado con n grados de libertad.

La estandarización de las variables aleatorias normales

Como consecuencia de la Propiedad 1, es posible relacionar todas las variables aleatorias normales a la normal estándar.

Si X ~ N (\ mu, \ sigma ^ 2) , A continuación,

Z = \ frac {X - \ mu} {\ sigma} \!

es una variable aleatoria normal estándar: Z ~ N (0,1) . Una consecuencia importante es que la cdf de una distribución normal general, por lo tanto, es

\ Pr (X \ le x) = \ Phi \ dejó (\ frac {x \ mu} {\ sigma} \ right) = \ frac {1} {2} \ left (1 + \ operatorname {erf} \ left (\ frac {x \ mu} {\ sigma \ sqrt {2}} \ right) \ right).

Por el contrario, si Z es una distribución normal estándar, Z ~ N (0,1) , A continuación,

X = \ sigma Z + \ mu

es una variable aleatoria normal con media \ mu y la varianza \ Sigma ^ 2 .

La distribución normal estándar ha sido tabulados (por lo general en forma de valor de la función Φ acumulativa de distribución), y las otras distribuciones normales son las simples transformaciones, como se describe anteriormente, por una norma. Por lo tanto, se puede utilizar valores tabulados de la cdf de la distribución normal estándar para encontrar valores de la función de distribución de una distribución normal general.

Momentos

La primera pocos momentos de la distribución normal son:

Número Momento Raw Momento central Cumulant
0 1 1
1 \ mu 0 \ mu
2 \ Mu ^ 2 + \ sigma ^ 2\ Sigma ^ 2\ Sigma ^ 2
3 \ Mu ^ 3 + 3 \ mu \ sigma ^ 2 0 0
4 \ Mu ^ 4 + 6 \ mu ^ 2 \ sigma ^ 2 + 3 \ sigma ^ 43 \ sigma ^ 4 0
5 \ Mu ^ 5 + 10 \ mu ^ 3 \ sigma ^ 2 + 15 \ mu \ sigma ^ 4 0 0
6 \ Mu ^ 6 + 15 \ mu ^ 4 \ sigma ^ 2 + 45 \ mu ^ 2 \ sigma ^ 4 + 15 \ sigma ^ 615 \ sigma ^ 6 0
7 \ Mu ^ 7 + 21 \ mu ^ 5 \ sigma ^ 2 + 105 \ mu ^ 3 \ sigma ^ 4 + 105 \ mu \ sigma ^ 6 0 0
8 \ Mu ^ 8 + 28 \ mu ^ 6 \ sigma ^ 2 + 210 \ mu ^ 4 \ sigma ^ 4 + 420 \ mu ^ 2 \ sigma ^ 6 + 105 \ sigma ^ 8105 \ sigma ^ 8 0

Todos cumulantes de la distribución normal más allá de la segunda son cero.

Momentos centrales superiores (del orden 2k con \ Mu = 0 ) Se puede obtener mediante la fórmula

E \ left [x ^ {2k} \ right] = \ frac {(2k)!} {2 ^ kk!} \ Sigma ^ {2k}.

Generación de valores para las variables aleatorias normales

Para las simulaciones por ordenador, a menudo es útil para generar valores que tienen una distribución normal. Hay varios métodos y el más básico es invertir la cdf normal estándar. Métodos más eficientes son también conocidos, uno de tales métodos es la Método de Box-Muller. Un algoritmo aún más rápido es el algoritmo zigurat.

El algoritmo de Box-Muller dice que, si tiene dos números a y b uniformemente distribuida sobre (0, 1], (por ejemplo, la salida de una generador de números aleatorios), a continuación, dos variables aleatorias distribuidas normalmente estándar son c y d, donde:

c = \ sqrt {- 2 \ ln a} \ cdot \ cos (2 \ pi b)
d = \ sqrt {- 2 \ ln a} \ cdot \ pecado (2 \ pi b)

Esto se debe a la distribución chi-cuadrado con dos grados de libertad (véase establecimiento de 4 arriba) es una variable aleatoria exponencial generado fácilmente.

El teorema del límite central

Parcela de la pdf de una distribución normal con μ = 12 y σ = 3, que se aproxima al pdf de una distribución binomial con n = 48 yp = 1/4

Bajo ciertas condiciones (tales como ser independientes e idénticamente distribuidos con varianza finita), la suma de un gran número de variables aleatorias se una distribución aproximadamente normal - este es el teorema del límite central.

La importancia práctica de el teorema del límite central es que la función de distribución normal acumulativa se puede utilizar como una aproximación a algunas otras funciones de distribución acumulativa, por ejemplo:

  • Una distribución binomial con parámetros n y p es aproximadamente normal para n grande y p no demasiado cerca de 1 o 0 (algunos libros recomiendan el uso de esta aproximación sólo si np y n (1 - p) son ambos al menos 5; en este caso, un corrección de continuidad se debe aplicar).
    La distribución normal de aproximación tiene parámetros μ = np, σ 2 = np (1 - p).
  • Una distribución de Poisson con parámetro λ es aproximadamente normal para grandes λ.
    La distribución normal de aproximación tiene parámetros μ = σ 2 = λ.

Si estas aproximaciones son suficientemente precisa depende del propósito para el que se necesitan, y la tasa de convergencia a la distribución normal. Es típicamente el caso de que tales aproximaciones son menos precisas en las colas de la distribución. Un superior general unido del error de aproximación de la función de distribución acumulativa es dada por el Teorema Berry-Esséen.

Infinita divisibilidad

Las distribuciones normales son distribuciones de probabilidad infinitamente divisible: dada una media μ, una varianza σ 2 ≥ 0, y un número natural n, la suma X + 1. . . + X n de n variables aleatorias independientes

X_1, X_2, \ dots, X_n \ sim N (\ mu / n, \ sigma ^ 2 \! / N) \,

tiene esta distribución normal especificada (para verificar esto, el uso funciones características o convolución y inducción matemática).

Estabilidad

Las distribuciones normales son estrictamente distribuciones de probabilidad estables.

Intervalos de desviación estándar y de confianza

El azul oscuro es menos de una desviación estándar de la media. Para la distribución normal, esto representa aproximadamente el 68% del conjunto (azul oscuro), mientras que dos desviaciones estándar de la media (medio y azul oscuro) representan (ligero, medio, oscuro y azul) representan alrededor del 95% y tres desviaciones estándar aproximadamente el 99,7%.

Alrededor del 68% de los valores extraídos de una distribución normal se encuentran dentro de una desviación estándar σ> 0 lejos de la media μ; aproximadamente el 95% de los valores están dentro de dos desviaciones estándar y alrededor de 99,7% se encuentran dentro de tres desviaciones estándar. Esto se conoce como la " 68-95-99.7 regla "o la" regla empírica ".

Para ser más precisos, el área bajo la curva de campana entre μ - σ y μ n + n σ en términos de la función de distribución normal acumulativa está dada por

\ Begin {align} & \ Phi _ {\ mu, \ sigma ^ 2} (\ mu + n \ sigma) - \ Phi _ {\ mu, \ sigma ^ 2} (\ mu-n \ sigma) \\ & = \ Phi (n) - \ Phi (-n) = 2 \ phi (n) -1 = \ mathrm {erf} \ bigl (n / \ sqrt {2} \, \ BIGR), \ end {align}

donde erf es la función de error. Para 12 decimales, los valores para el 1-, 2-, hasta puntos 6-sigma son:

n \,\ Mathrm {erf} \ bigl (n / \ sqrt {2} \, \ BIGR) \,
1 0.682689492137
2 0.954499736104
3 0.997300203937
4 0.999936657516
5 0.999999426697
6 0.999999998027

La siguiente tabla da la relación inversa de múltiplos sigma correspondientes a unos valores utilizados a menudo para el área bajo la curva de campana. Estos valores son útiles para determinar (asintótica) intervalos de confianza de los niveles especificados para normalmente distribuidos (o asintóticamente normal) estimadores:

\ Mathrm {erf} \ bigl (n / \ sqrt {2} \, \ BIGR)n \,
0.80 1.28155
0.90 1.64485
0.95 1.95996
0.98 2.32635
0.99 2.57583
0,995 2.80703
0,998 3.09023
0,999 3.29052

donde el valor a la izquierda de la tabla es la proporción de valores que caerá dentro de un intervalo dado y n es un múltiplo de la desviación estándar que especifica la anchura del intervalo.

Forma Familia exponencial

La distribución normal es una de dos parámetros forma de familia exponencial con parámetros μ natural y 1 / σ 2, y estadísticas naturales X y X 2. La forma canónica tiene parámetros {\ Mu \ sobre \ sigma ^ 2} y {1 \ over \ sigma ^ 2} y estadísticas suficientes \ Suma x y - {1 \ over 2} \ suma x ^ 2 .

Proceso de Gauss Complejo

Considere la variable aleatoria gaussiana compleja,

Z = x + iy \,

donde X e Y son variables gaussianas reales e independientes con varianzas iguales \ Scriptstyle \ sigma_r ^ 2 \, . El pdf de las variables conjuntas es entonces

\ Frac {1} {2 \, \ pi \, \ sigma_r ^ 2} e ^ {- (x ^ 2 + y ^ 2) / (2 \ sigma_r ^ 2)}

Porque \ Scriptstyle \ sigma_z \, = \, \ sqrt {2} \ sigma_r , El pdf resultante para el complejo de Gauss variable Z es

\ Frac {1} {\ pi \, \ sigma_z ^ 2} e ^ {- | z | ^ 2 / \ sigma_z ^ 2}.

Distribuciones Relacionados

  • R \ sim \ mathrm {Rayleigh} (\ sigma ^ 2) es un Distribución de Rayleigh, si R = \ sqrt {x ^ 2 + y ^ 2} donde X \ sim N (0, \ sigma ^ 2) y Y \ sim N (0, \ sigma ^ 2) son dos distribuciones normales independientes.
  • Y \ sim \ chi _ {\ nu} ^ 2 es una distribución chi-cuadrado con \ Nu grados de libertad si Y = \ sum_ {k = 1} ^ {\ nu} x_k ^ 2 donde X_k \ sim N (0,1) para k = 1, \ dots, \ nu y son independientes.
  • Y \ sim \ mathrm {Cauchy} (\ mu = 0, \ theta = 1) es un Distribución de Cauchy si Y = x 1 / X_2 para X_1 \ sim N (0,1) y X_2 \ sim N (0,1) son dos distribuciones normales independientes.
  • Y \ sim \ mbox {Log-N} (\ mu, \ sigma ^ 2) es un distribución log-normal si Y = e ^ X y X \ sim N (\ mu, \ sigma ^ 2) .
  • Relación con Distribución alfa estable sesgo Lévy: si X \ sim \ textrm {Levy-S} \ alpha \ textrm {S} (2, \ beta, \ sigma / \ sqrt {2}, \ mu) entonces X \ sim N (\ mu, \ sigma ^ 2) .
  • Distribución normal truncada. Si X \ sim N (\ mu, \ sigma ^ 2), \! a continuación, truncando X por debajo de al La y por encima de por lo B dará lugar a una variable aleatoria con media E (X) = \ mu + \ frac {\ sigma (\ varphi_1- \ varphi_2)} {T}, \! donde T = \ Phi \ dejó (\ frac {B- \ mu} {\ sigma} \ right) - \ Phi \ dejó (\ frac {A- \ mu} {\ sigma} \ right), \; \ Varphi_1 = \ phi \ left (\ frac {A- \ mu} {\ sigma} \ right), \; \ Varphi_2 = \ phi \ left (\ frac {B- \ mu} {\ sigma} \ right) y \ Varphi es el función de densidad de probabilidad de una variable aleatoria normal estándar.
  • Si X es una variable aleatoria con una distribución normal, y Y = | X | , A continuación, Y tiene un plegada distribución normal.

Estadística descriptiva e inferencial

Puntuaciones

Muchos puntuaciones se derivan de la distribución normal, incluyendo percentil ocupa ("percentiles"), equivalentes normales curva, stanines, las puntuaciones z, y T-score. Además, una serie de comportamiento estadísticos procedimientos se basan en la suposición de que las puntuaciones se distribuyen normalmente; por ejemplo, t-tests y ANOVAs (ver abajo). Curva granulométrica campana asigna grados relativos basados en una distribución normal de los puntajes.

Pruebas de normalidad

Pruebas de normalidad comprobar un conjunto dado de datos de similitud con la distribución normal. La hipótesis nula es que el conjunto de datos es similar a la distribución normal, por lo tanto, una parte suficientemente pequeña P-valor indica que los datos no normales.

  • Prueba de Kolmogorov-Smirnov
  • Prueba Lilliefors
  • Prueba de Anderson-Darling
  • Prueba Ryan-Joiner
  • Prueba de Shapiro-Wilk
  • Gráfica de probabilidad normal ( Rankit parcela)
  • Prueba de Jarque-Bera

Estimación de parámetros

Estimación de máxima verosimilitud de los parámetros

Suponer

X_1, \ dots, X_n

son independiente y cada uno tiene una distribución normal con expectativa μ y varianza σ ²> 0. En el lenguaje de los estadísticos, los valores observados de estas n variables aleatorias constituyen una "muestra de tamaño n de una población normalmente distribuida." Se desea estimar la "media poblacional" μ y la "desviación estándar de la población" σ, basados en los valores observados de esta muestra. La función de densidad de probabilidad conjunta continua de estas variables aleatorias independientes es n

\ Begin {align} f (x_1, \ dots, x_n; \ mu, \ sigma) & = \ prod_ {i = 1} ^ n \ varphi _ {\ mu, \ sigma ^ 2} (x_i) \\ & = \ frac1 {(\ sigma \ sqrt {2 \ pi}) ^ n} \ prod_ {i = 1} ^ n \ exp \ biggl (- {1 \ over 2} \ Bigl ({x_i- \ mu \ sobre \ sigma} \ BIGR) ^ 2 biggr \), \ quad (x_1, \ ldots, x_n) \ in \ mathbb {R} ^ n. \ End {align}

En función de μ y σ, la función de probabilidad basado en las observaciones X 1, ..., X n es

L (\ mu, \ sigma) = \ frac {C \ sigma ^ n} \ exp \ left (- {\ sum_ {i = 1} ^ n (X_i- \ mu) ^ 2 \ over 2 \ sigma ^ 2} \ right), \ quad \ mu \ in \ mathbb {R}, \ \ sigma> 0,

con alguna constante C> 0 (que en general se permitió incluso a depender de X 1, ..., X n, pero desaparecerán de todos modos cuando se calculan las derivadas parciales de la función de log-verosimilitud con respecto a los parámetros, ver más abajo ).

En el método de máxima verosimilitud, se toman los valores de μ y σ que maximizan la función de verosimilitud como estimaciones de la población parámetros μ y σ.

Por lo general, en la maximización de una función de dos variables, se podría considerar derivadas parciales. Pero aquí vamos a explotar el hecho de que el valor de μ que maximiza la función de verosimilitud con σ fijo no depende de σ. Por lo tanto, podemos encontrar que el valor de μ, entonces sustituirlo por μ en la función de verosimilitud, y finalmente encontrar el valor de σ que maximiza la expresión resultante.

Es evidente que la función de probabilidad es una función decreciente de la suma

\ Sum_ {i = 1} ^ n (X_i- \ mu) ^ 2. \, \!

Así que queremos que el valor de μ que minimiza esta suma. Dejar

\ overline {X} _n = (x_1 + \ cdots + x_n) / n

ser la "media de la muestra", basada en las n observaciones. Observe que

\ Begin {align} \ sum_ {i = 1} ^ n (X_i- \ mu) ^ 2 & = \ sum_ {i = 1} ^ n \ bigl ((X_i- \ overline {X} _n) + (\ overline {X} _n- \ mu) \ BIGR) ^ 2 \\ & = \ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2 + 2 (\ overline {X} _n- \ mu ) \ underbrace {\ sum_ {i = 1} ^ n (X_i- \ overline {X} _n)} _ {= \, 0} + \ sum_ {i = 1} ^ n (\ overline {X} _n- \ mu) ^ 2 \\ & = \ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2 + n (\ overline {X} _n- \ mu) ^ 2. \ End {align}

Sólo el último plazo depende de μ y se minimiza

\ Widehat {\ mu} _n = \ overline {X} _n.

Esa es la estimación de máxima verosimilitud de μ basado en las n observaciones X 1, ..., X n. Cuando sustituimos esta estimación de μ en la función de verosimilitud, obtenemos

L (\ overline {X} _n, \ sigma) = \ frac {C \ sigma ^ n} \ exp \ biggl (- {\ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2 \ over 2 \ sigma ^ 2} \ biggr), \ quad \ sigma> 0.

Es convencional para referirse a la "función de log-verosimilitud", es decir, el logaritmo de la función de probabilidad, por una minúscula \ Ell , Y tenemos

\ Ell (\ overline {X} _n, \ sigma) = \ log Cn \ log \ sigma - {\ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2 \ over 2 \ sigma ^ 2}, \ quad \ sigma> 0,

y luego

\ Begin {align} {\ \ parcial sobre \ parcial \ sigma} \ ell (\ overline {X} _n, \ sigma) & = - {n \ sobre \ sigma} + {\ sum_ {i = 1} ^ n ( X_i- \ overline {X} _n) ^ 2 \ over \ sigma ^ 3} \\ & = - {n \ sobre \ sigma ^ 3} \ biggl (\ sigma ^ 2- {1 \ over n} \ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2 \ biggr), \ quad \ sigma> 0. \ End {align}

Esta derivada es positiva, cero o negativo según como σ ² es entre 0 y

\ Sombrero \ sigma_n ^ 2: = {1 \ over n} \ sum_ {i = 1} ^ n (X_i- \ overline {X} _n) ^ 2,

o igual a la cantidad, o mayor que la cantidad. (Si no es sólo una observación, lo que significa que n = 1, o si X 1 = ... = X n, lo que sólo ocurre con probabilidad cero, \ Hat \ sigma _ {} n ^ 2 = 0 por esta fórmula, lo que refleja el hecho de que en estos casos la función de verosimilitud es ilimitada como σ disminuye a cero.)

En consecuencia, este promedio de los cuadrados de residuos es la estimación de máxima verosimilitud de σ ², y su raíz cuadrada es la estimación de máxima verosimilitud de σ basado en las n observaciones. Este estimador \ Hat \ sigma _ {} n ^ 2 es sesgado, pero tiene un menor error cuadrático medio que el estimador insesgado de costumbre, que es N / (N - 1) veces este estimador.

Sorprendente generalización

La derivación del estimador de máxima probabilidad de la matriz de covarianza de un distribución normal multivariante es sutil. Se trata de la teorema espectral y la razón por la que puede ser mejor para ver una escalar como la rastro de un 1 × 1 matriz que como un mero escalar. Ver estimación de matrices de covarianza.

Estimación imparcial de los parámetros

El estimador de máxima verosimilitud de la media poblacional \ mu de una muestra es una estimador insesgado de la media, como es la varianza cuando la media de la población es conocida a priori. Sin embargo, si estamos ante una muestra y no tienen conocimiento de la media o la varianza de la población de la que se extrae, el estimador insesgado de la varianza \ Sigma ^ 2 es:

S ^ 2 = \ frac {1} {n-1} \ sum_ {i = 1} ^ n (X_i - \ overline {X}) ^ 2.

Este "varianza de la muestra" sigue un Distribución Gamma si todo X i son independientes e idénticamente distribuidas-:

S ^ 2 \ sim \ operatorname {gamma} \ left (\ frac {n-1} {2}, \ frac {2 \ sigma ^ 2} {n-1} \ right).

Aparición

Aproximadamente distribuciones normales se producen en muchas situaciones, como resultado de la teorema del límite central. Cuando haya motivos para sospechar la presencia de un gran número de pequeños efectos que actúan de forma aditiva y de forma independiente, es razonable suponer que las observaciones serán normales. Hay métodos estadísticos para probar empíricamente esta hipótesis, por ejemplo, el Prueba de Kolmogorov-Smirnov.

Los efectos también pueden actuar como modificaciones multiplicativos (en lugar de aditivos). En ese caso, la asunción de normalidad no está justificada, y es el logaritmo de la variable de interés que se distribuye normalmente. Se llama entonces la distribución de la variable observada directamente log-normal.

Por último, si hay una sola influencia externa que tiene un gran efecto en la variable bajo consideración, la suposición de normalidad no se justifica tampoco. Esto es cierto incluso si, cuando la variable externa se mantiene constante, las distribuciones marginales resultantes son de hecho normal. La distribución completa será una superposición de variables normales, que no es en general normal. Esto está relacionado con la teoría de errores (véase más adelante).

En resumen, aquí hay una lista de las situaciones en que la normalidad aproximada veces se supone. Para una discusión más completa, véase más adelante.

  • Al contar problemas (por lo que la teorema del límite central incluye una aproximación discreta a continuo) donde variables aleatorias reproductivos están involucrados, tales como
  • En las mediciones fisiológicas de especímenes biológicos:
    • El logaritmo de las medidas de tamaño del tejido vivo (longitud, altura, área de la piel, peso);
    • La longitud de los apéndices inertes (pelo, uñas, las uñas, los dientes) de especímenes biológicos, en la dirección del crecimiento; presumiblemente, el espesor de la corteza del árbol también entra en esta categoría;
    • Otras medidas fisiológicas pueden ser distribuidos normalmente, pero no hay razón para esperar que a priori;
  • Los errores de medición a menudo se supone que se distribuye normalmente, y cualquier desviación de la normalidad se considera algo que debe ser explicado;
  • Las variables financieras
    • Los cambios en el logaritmo de los tipos de cambio, índices de precios, y los índices bursátiles; estas variables se comportan como el interés compuesto, no como interés simple, y así son multiplicativos;
    • Otras variables financieras pueden ser distribuidos normalmente, pero no hay razón para esperar que a priori;
  • Intensidad de luz
    • La intensidad de la luz láser se distribuye normalmente;
    • Luz térmica tiene una Distribución de Bose-Einstein en escalas de tiempo muy cortos, y una distribución normal en escalas de tiempo más largos debido al teorema del límite central.

De relevancia para la biología y la economía es el hecho de que los sistemas complejos tienden a mostrar leyes de potencia en lugar de la normalidad.

Recuento de fotones

La intensidad de luz de una sola fuente varía con el tiempo, como las fluctuaciones térmicas pueden ser observados si la luz se analiza en suficientemente alta resolución de tiempo. La intensidad se asume generalmente que se distribuye normalmente. La mecánica cuántica interpreta las mediciones de intensidad de la luz como fotones contando. La suposición natural en este contexto es la distribución de Poisson . Cuando la intensidad de luz se integra a lo largo veces más largo que el tiempo de coherencia y es grande, el límite-Poisson a normal es apropiado.

Los errores de medición

La normalidad es la hipótesis central de la matemática la teoría de errores. Del mismo modo, en el modelo de ajuste estadístico, un indicador de la bondad de ajuste es que la residuos (como los errores son llamados en ese entorno) ser independientes y normalmente distribuidos. El supuesto es que cualquier desviación de la normalidad necesita ser explicado. En ese sentido, tanto en el ajuste del modelo y en la teoría de errores, la normalidad es la única observación que no necesita ser explicada, se espera. Sin embargo, si los datos originales no se distribuyen normalmente (por ejemplo, si siguen un Cauchy distribución), a continuación, los residuos tampoco serán distribuidos normalmente. Este hecho es generalmente ignorado en la práctica.

Se espera que las mediciones repetidas de la misma cantidad para producir resultados que se agrupan alrededor de un valor particular. Si se han tomado en cuenta todas las fuentes principales de errores, se supone que el error restante debe ser el resultado de un gran número de efectos aditivos muy pequeñas, y por lo tanto normal. Las desviaciones de la normalidad se interpretan como indicaciones de errores sistemáticos que no han sido tomadas en cuenta. Si esta hipótesis es válida es discutible. Una observación famosa y muy citada atribuida a Gabriel Lippmann dice: "Todo el mundo cree en la ley [normales] de errores: los matemáticos, porque piensan que es un hecho experimental, y los experimentadores, porque supongo que es un teorema de las matemáticas ".

Características físicas de muestras biológicas

Los tamaños de los animales completamente desarrollados es de aproximadamente lognormal. La evidencia y una explicación basada en modelos de crecimiento se publicó por primera vez en los 1932 libros Problemas de Crecimiento Relativo por Julian Huxley.

Las diferencias en el tamaño debido a dimorfismo sexual, u otros polimorfismos como el trabajador / soldado división / reina en los insectos sociales, hacen aún más la distribución de tamaños se desvían de lognormalidad.

La suposición de que el tamaño lineal de especímenes biológicos es normal (en lugar de lognormal) conduce a una distribución no normal de peso (ya que el peso o el volumen es aproximadamente proporcional a la segunda o tercera potencia de la longitud, y las distribuciones gaussianas solamente se conservan por transformaciones lineales ), y por el contrario suponiendo que el peso es conductores normales a longitudes no normales. Este es un problema, porque no hay a priori motivo por uno de longitud, o de masa corporal, y no al contrario, debe ser una distribución normal. Distribuciones lognormal, por el contrario, se conservan los poderes por lo que el "problema" desaparece si se asume lognormalidad.

Por otro lado, hay algunas medidas biológicas donde se asume normalidad, tales como la presión arterial de los seres humanos adultos. Esto se supone que se distribuye normalmente, pero sólo después de la separación de hombres y mujeres en diferentes poblaciones (cada uno de los cuales se distribuye normalmente).

Las variables financieras

Ya en 1900 Louis Bachelier propuso que representa los cambios de precios de las existencias utilizando la distribución normal. Este enfoque ya se ha modificado ligeramente. Debido a la naturaleza exponencial de la inflación , los indicadores financieros, como acciones y valores de los productos básicos precios exhiben un "comportamiento multiplicativo". Como tal, sus cambios periódicos (por ejemplo, los cambios anuales) no son normales, sino logarítmica normal - es decir, vuelve a diferencia de los valores se distribuyen normalmente. Esta sigue siendo la hipótesis más comúnmente utilizado en las finanzas , en particular, en la valoración de activos. Las correcciones a este modelo parecen ser necesario, como se ha señalado por ejemplo por Benoît Mandelbrot, el divulgador de fractales , que observaron que los cambios en el logaritmo en períodos cortos (por ejemplo, un día) se aproximan bien por distribuciones que no tienen una varianza finita, y por lo tanto el teorema del límite central no se aplica. Más bien, la suma de muchos de esos cambios da distribuciones log-Levy.

Distribución en las pruebas y la inteligencia

A veces, la dificultad y el número de preguntas en un test de inteligencia se ha seleccionado con el fin de producir resultados distribuidos normales. O de lo contrario, los resultados de las pruebas primas se convierten en valores del índice de inteligencia por su adaptación a la distribución normal. En cualquiera de los casos, es el resultado deliberado de la construcción de ensayo o anotar la interpretación que lleva a las puntuaciones de CI se distribuyen normalmente para la mayoría de la población. Sin embargo, la cuestión de si la inteligencia en sí se distribuye normalmente es más complicado, porque la inteligencia es una variable latente, por lo tanto, su distribución no se puede observar directamente.

Ecuación de difusión

La función de densidad de probabilidad de la distribución normal está estrechamente relacionado con el (homogéneo e isótropo)ecuación de difusión y por lo tanto también a la ecuación del calor.Estaecuación diferencial parcialdescribe la evolución en el tiempo de una función de densidad de masa-bajo difusión.En particular, la función de densidad de probabilidad

\varphi_{0,t}(x) = \frac{1}{\sqrt{2\pi t\,}}\exp\left(-\frac{x^2}{2t}\right),

para la distribución normal con valor esperado 0 y varianzatsatisface la ecuación de difusión:

\frac{\partial}{\partial t} \varphi_{0,t}(x) = \frac{\partial^2}{\partial x^2} \varphi_{0,t}(x).

Si la densidad de masa en el momento t = 0 está dado por un delta de Dirac, que esencialmente significa que toda la masa se ​​concentra inicialmente en un solo punto, entonces la función de masa de densidad en el momento t tendrá la forma de la función de densidad de probabilidad normal con varianza linealmente creciente con t . Esta conexión no es una coincidencia: la difusión es debido a movimiento browniano que se describe matemáticamente por un proceso de Wiener, y un proceso tales en el momento t también resultará en una distribución normal con varianza linealmente creciente con t .

Más generalmente, si la densidad de masa inicial está dada por una función φ (x), entonces la densidad de masa en el tiempotserá dada por laconvolución de φ y una función de densidad de probabilidad normal.

Aproximaciones numéricas de la distribución normal y su cdf

La distribución normal es ampliamente utilizado en la computación científica y estadística. Por lo tanto, se ha implementado de diversas maneras.

La Biblioteca Científica GNU calcula los valores de la función de distribución normal estándar usando aproximaciones a trozos por funciones racionales. Otro método de aproximación utiliza polinomios de tercer grado en intervalos . El artículo sobre el lenguaje de programación bc da un ejemplo de cómo calcular la función de distribución de GNU bc.

Generación de las desviaciones de la unidad de la normalidad se realiza normalmente mediante el método de Box-Muller de elegir un ángulo de manera uniforme y un radio exponencial y luego transformar a (una distribución normal) x Y y coordenadas. Si de registro, cos o pecado son elevados que una alternativa sencilla es simplemente sumar 12 uniforme (0,1) se desvía y restar 6 (media de 12). Esto es bastante útil en muchas aplicaciones. La suma más de 12 valores se elige como esto da una varianza de exactamente una. El resultado se limita a la gama (-6,6) y tiene una densidad que es un 12-sección fin undécimo aproximación polinómica a la distribución normal.

Un método que es mucho más rápido que el de Box-Muller transformar, pero que sigue siendo exacta es el llamado algoritmo Zigurat desarrollado por George Marsaglia. En aproximadamente el 97% de todos los casos que utiliza sólo dos números al azar, uno entero aleatorio y un uniforme al azar, una multiplicación y una prueba de si. Sólo el 3% de los casos en los que la combinación de esos dos caídas fuera del "núcleo del zigurat" una especie de rechazo de muestreo utilizando logaritmos, exponenciales y números aleatorios más uniformes tiene que ser empleado.

También hay algo de investigación sobre la conexión entre el ayuno Hadamard transformar y la distribución normal ya que la transformada emplea simplemente la suma y la resta y por el límite teorema números aleatorios centrales de casi cualquier distribución se transformará en la distribución normal. A este respecto una serie de transformaciones de Hadamard se puede combinar con permutaciones aleatorias para convertir los conjuntos de datos arbitrarios en un conjunto de datos distribuidos normalmente.

En Microsoft Excel la función DISTR.NORM.ESTAND () calcula la función de distribución de la distribución normal estándar, y DISTR.NORM.ESTAND.INV () calcula su función inversa. Por lo tanto, DISTR.NORM.ESTAND.INV (RAND ()) es una forma precisa pero lento de generar valores de la distribución normal estándar, utilizando el principio de la transformada inversa de muestreo.

Trivialidades

  • La última serie de los10 Deutsche Mark billetes contó conCarl Friedrich Gaussy un gráfico y la fórmula de la función normal de densidad de probabilidad.
Recuperado de " http://en.wikipedia.org/w/index.php?title=Normal_distribution&oldid=198343493 "