Contenido Checked

Valores propios y vectores propios

Temas relacionados: Matemáticas

Antecedentes

SOS Children hizo esta selección Wikipedia junto a otros recursos de escuelas . Ver http://www.soschildren.org/sponsor-a-child para averiguar sobre el apadrinamiento de niños.

Fig. 1. En este mapeo de cizallamiento de la Mona Lisa , la imagen se deforma de tal manera que su eje vertical central (vector rojo) no se modificó, pero el vector diagonal (azul) ha cambiado de dirección. Por lo tanto el vector rojo es un vector propio de la transformación y el vector azul no está. Como el vector rojo fue ni estira ni comprime, su valor propio es 1. Todos los vectores con la misma dirección vertical - es decir, paralelo a este vector - también son vectores propios, con el mismo valor propio. Junto con el vector cero, forman el espacio característico para este valor propio.

En las matemáticas , un vector puede ser pensado como una flecha. Tiene una longitud, llamado su magnitud, y apunta en una dirección particular. La transformación lineal puede ser considerada para operar en un vector para cambiarlo, por lo general cambiando tanto su magnitud y su dirección. Un vector propio de una transformación lineal dado es un vector que se multiplica por una constante llamada valor propio durante esa transformación. La dirección del vector propio es o bien sin cambios por que la transformación (por valores propios positivos) o invertido (para valores propios negativos).

Por ejemplo, un valor propio de 2 significa que el vector propio se duplica en longitud y puntos en la misma dirección. Un valor propio de 1 significa que el vector propio es sin cambios, mientras que un valor propio de -1 significa que el vector propio se invierte en la dirección. Un espacio característico de una transformación dada es el lapso de los vectores propios de que la transformación con el mismo valor propio, junto con el vector cero (que no tiene dirección). Un espacio característico es un ejemplo de una subespacio de un espacio vectorial .

En álgebra lineal , cada transformación lineal entre espacios vectoriales de dimensión finita puede ser dada por una matriz , que es una matriz rectangular de números dispuestos en filas y columnas. Los métodos estándar para la búsqueda de valores propios, vectores propios, y eigenspaces de una matriz dada se discuten a continuación.

Estos conceptos desempeñan un papel importante en varias ramas de tanto puras y matemáticas aplicadas - que aparece prominentemente en álgebra lineal , análisis funcional, y en menor medida en las matemáticas no lineales.

Muchos tipos de objetos matemáticos pueden ser tratados como vectores: funciones , modos armónicos, estados cuánticos, y frecuencias, por ejemplo. En estos casos, el concepto de dirección pierde su sentido corriente, y se le da una definición abstracta. Aún así, si esta dirección abstracta es sin cambios por una transformación lineal dado, se utiliza el prefijo "eigen", como en función propia, modo propio, estado propio, y frecuencia propia.

Historia

Valores propios se introducen a menudo en el contexto de álgebra lineal o teoría de la matriz . Históricamente, sin embargo, surgieron en el estudio de formas y cuadrática ecuaciones diferenciales .

Euler había estudiado también el movimiento de rotación de una cuerpo rígido y descubierto la importancia de la ejes principales. Como se dio cuenta de Lagrange, los ejes principales son los vectores propios de la matriz de inercia. A principios del siglo 19, Cauchy vio cómo su trabajo se podría utilizar para clasificar el superficies cuadráticas, y generalizarse a dimensiones arbitrarias. Cauchy también acuñó el término caractéristique Racine (raíz característica) por lo que ahora se llama valor propio; su término sobrevive en ecuación característica.

Fourier utiliza el trabajo de Laplace y Lagrange para resolver el ecuación del calor por separación de variables en su famoso libro 1822 Théorie analytique de la chaleur. Sturm desarrolló las ideas de Fourier más y los trajo a la atención de Cauchy, que los combina con sus propias ideas y llegó al hecho de que las matrices simétricas tienen valores propios reales. Esto se extendió por Hermite en 1855 a lo que ahora se llaman Matrices hermitianas. Por la misma época, Brioschi demostró que los valores propios de matrices ortogonales se encuentran en la unidad de círculo, y Clebsch encontró el resultado correspondiente hemi-simétricas matrices. Finalmente, Weierstrass aclaró un aspecto importante en el teoría de la estabilidad iniciado por Laplace por darse cuenta de que matrices defectuosos pueden causar inestabilidad.

Mientras tanto, Liouville estudió problemas de valores propios similares a los de Sturm; la disciplina que surgió de su trabajo se llama ahora Teoría de Sturm-Liouville. Schwarz estudió el primer valor propio de La ecuación de Laplace en dominios generales hacia el final del siglo 19, mientras Poincaré estudió La ecuación de Poisson unos años más tarde.

Al comienzo del siglo 20, Hilbert estudió los valores propios de operadores integrales de visualización de los operadores como matrices infinitas. Él fue el primero en utilizar el alemán eigen palabra para denotar valores y vectores propios en 1904, a pesar de que puede haber sido después de un uso relacionado, por Helmholtz. "Eigen" se puede traducir como "propia", "peculiar", "característica" o "individuo" -emphasizing lo importante que son los valores propios de la definición de la naturaleza única de una transformación específica. Desde hace algún tiempo, el término estándar en Inglés fue "valor apropiado", pero el término "valor propio" más distintivo es estándar en la actualidad.

El primer algoritmo numérico para el cálculo de valores y vectores propios apareció en 1929, cuando Von Mises publicó el método de la potencia. Uno de los métodos más populares de la actualidad, la Algoritmo QR, se propuso de forma independiente por Francis y Kublanovskaya en 1961.

Definiciones: la ecuación de valor propio

Transformaciones lineales de un espacio vectorial, tales como rotación, reflexión, estiramiento, compresión, cizalla o cualquier combinación de éstos, pueden ser visualizadas por el efecto que producen en vectores . En otras palabras, son funciones vectoriales. Más formalmente, en un espacio vectorial L una función vectorial A se define si para cada vector x de L corresponde un único vector y = A (x) de L. En aras de la brevedad, los paréntesis alrededor del vector en el que la transformación está actuando a menudo se omiten. Una función vectorial A es lineal si tiene las dos propiedades siguientes:

aditividad \ A (\ mathbf {x} + \ vec {y}) = A (\ mathbf {x}) + A (\ mathbf {y})
homogeneidad \ A (\ alpha \ mathbf {x}) = \ alpha A (\ mathbf {x})

donde x e y son dos vectores del espacio vectorial L y α es cualquier número real . Tal función se llama indistintamente una transformación lineal, operador lineal o lineal endomorphism en el espacio L.

Dada una transformación lineal A, un no-cero vector x se define como un vector propio de la transformación si satisface la ecuación del valor propio λ = A x x para algunos λ escalar. En esta situación, el λ escalar se llama un valor propio de A correspondiente al vector propio x.

La ecuación clave en esta definición es la ecuación de valor propio, A x = λ x. La mayoría de los vectores x no satisfarán tal ecuación. Un vector típico x cambia de dirección cuando es accionado por A, de modo que A x no es un múltiplo de x. Esto significa que sólo ciertos vectores especiales x son vectores propios, y sólo ciertos λ números especiales son valores propios. Por supuesto, si A es un múltiplo de la matriz de identidad, entonces ningún vector cambia de dirección, y todos los vectores no nulos son vectores propios. Pero en el caso de costumbre, vectores propios son pocos y distantes entre sí. Ellos son los "modos normales" del sistema, y actúan de forma independiente.

Se impone la necesidad de que el vector propio ser distinto de cero porque la ecuación A 0 = λ 0 es válido para cada una y cada λ. Como la ecuación siempre es trivialmente cierto, no es un caso interesante. En contraste, un valor propio puede ser cero en una forma no trivial. Un valor propio puede ser, y por lo general es, también un número complejo . En la definición anterior, los vectores propios y valores propios no ocurren de manera independiente. En cambio, cada vector propio está asociado con un valor propio específico. Por esta razón, un vector propio y x un valor propio λ correspondiente se refieren a menudo como un eigenpair. Un valor propio puede estar asociado con varios o incluso con número infinito de vectores propios. Pero a la inversa, si se da un vector propio, el valor propio asociado para este vector propio es único. De hecho, desde la igualdad A x = λ x = λ 'x y de x0 se deduce que λ = λ'.

Fig. 2. La ecuación de valor propio como un (transformación de similaridad) homotecia en el vector x.

Geométricamente (Fig. 2), la ecuación de valor propio significa que bajo la transformación vectores propios de una experiencia sólo los cambios en magnitud y el signo - la dirección de A x es la misma que la de x. Este tipo de transformación lineal se define como homotecia (dilatación, transformación de semejanza). El valor propio λ es simplemente la cantidad de "estirar" o "reducir" a la que un vector se somete cuando se transforma por A. Si λ = 1, el vector se mantiene sin cambios (no afectada por la transformación). Una transformación I en las que un vector x se mantiene sin cambios, I x = x, se define como transformación de la identidad. Si λ = -1, el vector voltea a la dirección opuesta (gira a 180 °); esto se define como la reflexión.

Si x es un vector propio de la transformación lineal A con valor propio λ, entonces cualquier vector y = α x es también un vector propio de A con el mismo valor propio. A partir de la homogeneidad de la transformación Una se sigue que A y = α (A x) = α (λ x) = λ (α x) = λ y. Del mismo modo, utilizando la propiedad de aditividad de la transformación lineal, se puede demostrar que cualquier combinación lineal de vectores propios con valor propio λ tiene el mismo valor propio λ. Por lo tanto, cualquier vector distinto de cero en la línea a través de X y el vector cero es un vector propio con el mismo valor propio como x. Junto con el vector cero, los vectores propios forman un subespacio del espacio vectorial llamado un espacio característico. Los vectores propios que corresponden a diferentes valores propios son linealmente independientes significado, en particular, que en un espacio dimensional n la transformación lineal A no puede tener más de n vectores propios con diferentes valores propios. Los vectores de la autoespacio generan una subespacio lineal de A que es invariante (sin cambios) en esta transformación.

Si una base se define en el espacio vectorial L n, todos los vectores se pueden expresar en términos de componentes . Vectores polares pueden ser representados como matrices de una sola columna con n filas donde n es la dimensionalidad del espacio. Transformaciones lineales se pueden representar con matrices cuadradas; para cada transformación lineal de L A N corresponde una matriz cuadrada de rango n. Por el contrario, a cada matriz cuadrada de rango n corresponde una transformación lineal de L n en una base dada. Debido a la aditividad y la homogeneidad de la trasformation lineal y la ecuación de valor propio (que es también una transformación lineal - homotecia), esas funciones vectoriales se pueden expresar en forma de matriz. Así, en un espacio de dos dimensiones vector L 2 equipado con base estándar, la ecuación de vector propio para una transformación lineal A puede ser escrito en la siguiente representación matricial:

\ Begin {bmatrix} a_ {11} & a_ {12} \\ a_ {21} & a_ {22} \ end {bmatrix} \ begin {bmatrix} x \\ y \ end {bmatrix} = \ lambda \ begin { bmatrix} x \\ y \ end {bmatrix},

donde la yuxtaposición de matrices significa la multiplicación de matrices . Esto es equivalente a un conjunto de ecuaciones lineales N, donde N es el número de vectores de la base de la base fija. En estas ecuaciones son desconocidos tanto el valor propio λ y los componentes de x variables.

Los vectores propios de A como se ha definido anteriormente también se denominan vectores propios correctos, ya que son vectores columna que se interponen en el lado derecho de la matriz A en la ecuación de valor propio. Si existe una matriz transpuesta A T que satifies la ecuación de valor propio, es decir, si A T x = λ x, entonces λ x T = (λ x) T = (A x T) T = T x A, o x T A = λ x T. La última ecuación es similar a la ecuación de valor propio, pero en lugar del vector columna x que contiene su vector transpuesto, el vector fila x T, que se encuentra en el lado izquierdo de la matriz A. Los vectores propios que satisfacen la ecuación de valor propio x T A = λ x T se denominan vectores propios izquierda. Ellos son vectores fila. En muchas aplicaciones comunes, sólo los vectores propios correctos deben ser considerados. De ahí el término no calificado "vector propio" se entenderá que se refiere a un vector propio derecho. Ecuaciones de valores propios, escritos en términos de vectores propios derecha o izquierda (A x = λ x y x T A = λ x T) tienen el mismo valor propio λ.

Un vector propio se define como un director o vector propio dominante si se corresponde con el valor propio de magnitud más grande (para los números reales, el mayor valor absoluto). Repetida aplicación de una transformación lineal a una arbitrarias vector da como resultado un vector proporcional (colineal) a la principal vector propio.

La aplicabilidad de la ecuación del valor propio de la teoría general de la matriz se extiende el uso de vectores propios y valores propios de todas las matrices, y por lo tanto en gran medida amplía el alcance del uso de estas construcciones matemáticas no sólo a las transformaciones de los espacios vectoriales lineales, sino a todos los campos de la ciencia que utilizan matrices: Sistemas de ecuaciones lineales, optimización, vectores y cálculo tensorial, todos los campos de la física que utilizan cantidades de matriz, la física cuántica, la relatividad especial, y la electrodinámica, así como muchas aplicaciones de ingeniería.

Ecuación característica

La determinación de los valores y vectores propios es importante en prácticamente todas las áreas de la física y muchos problemas de ingeniería, tales como cálculos de estrés, análisis de estabilidad, las oscilaciones de los sistemas de vibración, etc. Es equivalente a diagonalización de la matriz, y es el primer paso de ortogonalización, la búsqueda de invariantes, optimización (minimización o maximización), análisis de sistemas lineales, y muchas otras aplicaciones comunes.

El método usual de encontrar todos los vectores propios y valores propios de un sistema es el primero en deshacerse de los componentes desconocidos de los vectores propios, y luego encontrar los valores propios, conecte los de vuelta uno a uno en la ecuación de valores propios en forma de matriz y resolver que como un sistema de ecuaciones lineales para encontrar los componentes de los vectores propios. A partir de la transformación de identidad I x = x, donde I es la matriz de identidad, x en la ecuación de valor propio puede ser sustituido por I x para dar:

A \ mathbf {x} = \ lambda I \ mathbf {x}

Se necesita la matriz de identidad para mantener matrices, vectores y escalares recta; la ecuación (A - λ) x = 0 es más corto, pero mezclado ya que no diferencia entre la matriz, escalar y vectorial. La expresión en el lado derecho se transfiere al lado izquierdo con un signo negativo, dejando a 0 en el lado derecho:

A \ mathbf {x} - \ lambda I \ mathbf {x} = 0

El vector propio x se retiró detrás de paréntesis:

(A - \ lambda I) \ mathbf {x} = 0

Esto puede ser visto como un sistema lineal de ecuaciones en el que la matriz de coeficientes es la expresión en el paréntesis, la matriz de las incógnitas es x, y la matriz de lado derecho es cero. De acuerdo a La regla de Cramer, este sistema de ecuaciones tiene soluciones no triviales (no todos ceros o no cualquier número) si y sólo si su determinante se anula, por lo que las soluciones de la ecuación están dados por:

\ Det (A - \ lambda i) = 0 \,

Esta ecuación se define como la ecuación característica (con menos frecuencia, ecuación secular) de A, y el lado izquierdo se define como la polinomio característico. El vector propio X o sus componentes no están presentes en la ecuación característica, por lo que en esta etapa se dispensan con, y las únicas incógnitas que quedan por calculó son los valores propios (los componentes de la matriz A se dan, i. E, conocido de antemano ). Para un espacio vectorial L 2, la transformación A es una matriz cuadrada de 2 x 2, y la ecuación característica se puede escribir de la siguiente forma:

\ Begin {vmatrix} a_ {11} - \ lambda y a_ {12} \\ a_ {21} & a_ {22} - \ lambda \ end {vmatrix} = 0

La expansión del determinante en los resultados a mano izquierda en un polinomio característico, que es un monic (su coeficiente principal es 1) polinómica del segundo grado, y la ecuación característica es la ecuación de segundo grado

\ Lambda ^ 2 - \ lambda (a_ {11} + a_ {22}) + (a_ {11} a_ {22} - a_ {12} a_ {21}) = 0, \,

que tiene las siguientes soluciones ( raíces):

\ Lambda_ {1,2} = \ frac {1} {2} \ left [(a_ {11} + a_ {22}) \ pm \ sqrt {{12} 4a_ a_ {21} + (a_ {11} - a_ {22}) ^ 2} \ right].

Para matrices reales, los coeficientes del polinomio característico son todos reales. El número y tipo de las raíces depende del valor de la discriminante, D. Para los casos D = 0, D> 0, o D <0, respectivamente, las raíces son un real, dos reales, o dos complejos. Si las raíces son complejas, son también complejos conjugados de la otra. Cuando el número de raíces es menor que el grado del polinomio característico (este último es también el rango de la matriz, y el número de dimensiones del espacio vectorial) la ecuación tiene una raíz múltiple. En el caso de una ecuación cuadrática con una raíz, esta raíz es una raíz doble, o una raíz con multiplicidad 2. A raíz con una multiplicidad de 1 es una raíz simple. Una ecuación de segundo grado con dos raíces reales o complejos tiene raíces sólo simples. En general, la algebraica multiplicidad de un valor propio se define como la multiplicidad de la raíz correspondiente del polinomio característico. El espectro de una transformación en una dimensión finita espacio vectorial se define como la conjunto de todos sus valores propios. En el caso de dimensión infinita, el concepto de espectro es más sutil y depende de la topología del espacio vectorial.

La fórmula general para el polinomio característico de una matriz n -cuadrado es

p (\ lambda) = \ sum_ {k = 0} ^ n (-1) ^ k S_k \ lambda ^ {nk},

donde S 0 = 1, S 1 = tr (A), la traza de la matriz de transformación A y S k con k> 1 son las sumas de la directora los menores de orden k. El hecho de que los valores propios son raíces de un n -orden ecuación muestra que una transformación lineal de un espacio lineal n-dimensional tiene en la mayoría de n diferentes valores propios. De acuerdo con la teorema fundamental del álgebra, en un espacio lineal complejo, el polinomio característico tiene al menos un cero. En consecuencia, cada transformación lineal de un espacio lineal complejo tiene al menos un valor propio. Para los espacios lineales reales, si la dimensión es un número impar, la transformación lineal tiene al menos un valor propio; si la dimensión es un número par, el número de valores propios depende del determinante de la matriz de transformación: si el determinante es negativo, existe al menos un positivo y un valor propio negativo, si el determinante es nada positivo se puede decir sobre la existencia de valores propios. La complejidad del problema para encontrar raíces / valores propios de la característica aumenta polinómicas rápidamente con el aumento del grado del polinomio (la dimensión del espacio vectorial), n. Por lo tanto, para n = 3, valores propios son raíces de la ecuación cúbica, para n = 4 - raíces de la ecuación de cuarto grado. Para n> 4 no existen soluciones exactas y uno tiene que recurrir a algoritmos de búsqueda de raíz, como el método de Newton ( Método de Horner) para encontrar aproximaciones numéricas de valores propios. Para grandes simétrica matrices dispersas, Algoritmo de Lanczos se utiliza para calcular los valores propios y vectores propios.

Con el fin de encontrar los vectores propios, por lo tanto los valores propios encontrados como raíces de las ecuaciones características están conectados espalda, uno a la vez, en la ecuación de valor propio escrita en forma de matriz (ilustrado para el caso más simple de un espacio de dos dimensiones vector L 2 ):

\ Left (\ begin {bmatrix} a_ {11} & a_ {12} \\ a_ {21} & a_ {22} \ end {bmatrix} - \ lambda \ begin {bmatrix} 1 & 0 \\ 0 & 1 \ end {bmatrix} \ right) \ begin {bmatrix} x \\ y \ end {bmatrix} = \ begin {bmatrix} a_ {11} - \ lambda y a_ {12} \\ a_ {21} & a_ {22} - \ lambda \ end {bmatrix} \ begin {bmatrix} x \\ y \ end {bmatrix} = \ begin {bmatrix} 0 0 \\ \ end {bmatrix},

donde λ es uno de los valores propios encontrados como una raíz de la ecuación característica. Esta ecuación matricial es equivalente a un sistema de dos ecuaciones lineales:

\ begin {casos} \ left (a_ {11} - \ lambda \ right) x + a_ {12} y = 0 \\ a_ {21} x + \ left (a_ {22} - \ lambda \ right) y = 0 \ end {casos}

Las ecuaciones se resuelven para x e y por los métodos algebraicos o matriz habituales. A menudo, es posible dividir ambos lados de las ecuaciones para uno o más de los coeficientes que hace que algunos de los coeficientes en frente de las incógnitas iguales a 1. Esto se llama normalización de los vectores, y corresponde a la elección de uno de los vectores propios (el vector propio normalizado) como representante de todos los vectores en el espacio característico correspondiente al respectivo valor propio. La x e y por lo tanto se encuentran son los componentes del vector propio en el sistema de coordenadas utilizados (con mayor frecuencia cartesiano o polar).

Usando el Cayley-Hamilton teorema que establece que cada matriz cuadrada satisface su propia ecuación característica, se puede demostrar que (lo más generalmente, en el espacio complejo) existe al menos un vector distinto de cero que satisface la ecuación de valores propios para esa matriz. Como se dijo en la sección Definiciones, a cada valor propio corresponder un número infinito de colineales vectores propios (linealmente dependientes) que forman el espacio propio para este valor propio. Por otra parte, la dimensión del espacio característico es igual al número de los vectores propios linealmente independientes que contiene. La multiplicidad geométrica de un valor propio se define como la dimensión del espacio característico asociado. Un valor propio múltiple puede dar lugar a un único vector propio de manera que su multiplicidad algebraica puede ser diferente de la multiplicidad geométrica. Sin embargo, como ya se ha dicho, los diferentes valores propios son emparejados con vectores propios linealmente independientes. De lo anterior, se deduce que la multiplicidad geométrica no puede ser mayor que la multiplicidad algebraica.

Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado dentro de la eje alrededor del cual se realiza la rotación. El valor propio correspondiente es 1 y el espacio característico correspondiente contiene todos los vectores a lo largo del eje. Como se trata de un espacio unidimensional, su multiplicidad geométrica es uno. Este es el único valor propio del espectro (de esta rotación) que es un número real .

Ejemplos

Los ejemplos que siguen son para el caso más simple de vector de dos dimensiones espacio L 2, pero que pueden ser fácilmente aplicadas de la misma manera a los espacios de dimensiones superiores.

Homotecia, identidad, punto de reflexión y transformación nula

Fig. 3. Cuando una superficie se extiende igualmente en homotecia, uno cualquiera de los vectores radial puede ser el vector propio.

Como un espacio unidimensional vector L 1, considere una cuerda elástica atada al apoyo inmóvil en uno de los extremos, tales como los de la honda de un niño. Tirando de la cuerda de distancia desde el punto de unión se extiende y se alarga por algún factor de escala λ que es un número real. Cada vector de la cuerda se estira por igual, con el mismo factor de escala λ, y aunque alargado que conserva su dirección original. Este tipo de transformación se llama homotecia (transformación de semejanza). Para un espacio vectorial de dos dimensiones L 2, considere una hoja de goma estirada por igual en todas las direcciones como una pequeña área de la superficie de un globo inflado (Fig. 3). Todos los vectores que se originan en un punto fijo en la superficie del globo se estiran igualmente con el mismo factor de escala λ. La transformación homotecia en dos dimensiones es descrito por una matriz cuadrada 2 × 2, que actúa sobre un vector arbitrario en el plano de la superficie de estiramiento / contracción. Después de hacer la multiplicación de la matriz, se obtiene:

A \ mathbf {x} = \ begin {bmatrix} \ lambda y 0 \\ 0 & \ lambda \ end {bmatrix} \ begin {bmatrix} x \\ y \ end {bmatrix} = \ begin {bmatrix} \ lambda. x + 0. y \\ 0. x + \ lambda. y \ end {bmatrix} = \ lambda \ begin {bmatrix} x \\ y \ end {bmatrix} = \ lambda \ mathbf {x},

que, expresada en palabras, significa que la transformación es equivalente a multiplicar la longitud del vector λ por preservando al mismo tiempo su dirección original. La ecuación obtenida de este modo es exactamente la ecuación de valor propio. Dado que el vector tomada fue arbitraria, en homotecia cualquier vector en el espacio vectorial se somete a la ecuación de valor propio, es decir, cualquier vector acostado en la superficie del globo puede ser un vector propio. Si la transformación es el estiramiento (elongación, la extensión, la inflación), o en contracción (compresión, la deflación) depende del factor de escala: si λ> 1, se está estirando, si λ <1, se está reduciendo.

Varias otras transformaciones pueden considerarse tipos especiales de homotecia con algún valor fijo, constante de λ: en la identidad que deja vectores sin cambios, λ = 1; en la reflexión alrededor de un punto que conserva longitud y dirección de los vectores pero cambia su orientación al opuesto, λ = -1; y en la transformación nula que transforma cada vector para el vector cero, λ = 0. La transformación nula no da lugar a un vector propio ya que el vector cero no puede ser un vector propio pero ha autoespacio desde el espacio característico también contiene el vector cero por definición.

Escalado desigual

Para un ejemplo ligeramente más complicado, considere una hoja que se estira uneqally en dos direcciones perpendiculares a lo largo de los ejes de coordenadas, o, de manera similar, estirado en una dirección, y reducido en la otra dirección. En este caso, hay dos factores de escala diferentes: k 1 para la ampliación en la dirección x, y k 2 para la ampliación en la dirección y. La matriz de transformación es \ Begin {} bmatrix k_1 y 0 \\ 0 & k_2 \ end {bmatrix} Y la ecuación característica es λ 2 - λ (k 1 + k 2) + k 1 k 2 = 0. Los valores propios, obtenido como raíces de esta ecuación son λ 1 = k 1 y λ 2 = k 2 lo que significa, como se esperaba, que los dos valores propios son los factores de escala en las dos direcciones. Enchufar k 1 vuelta en la ecuación del valor propio da uno de los vectores propios:

\ Begin {} bmatrix k_1 - k_1 y 0 \\ 0 & k_2 - k_1 \ end {bmatrix} \ begin {bmatrix} x \\ y \ end {bmatrix} = \ begin {casos} \ left (k_1 - k_1 \ right ) x + 0. y \\ 0. x + \ left (k_2 - k_1 \ right) y \ end {casos} = \ left (k_2 - k_1 \ right) y = 0.
Fig. 4. contracción vertical (k 2 <1) y tramo horizontal (k 1> 1) de un cuadrado unidad. Vectores propios son u 1 y u 2 y valores propios son λ 1 = k 1 y λ 2 = k 2. Esta transformación orienta todos los vectores hacia el director vector propio u 1.

Dividiendo la última ecuación por 2 k - k 1, se obtiene y = 0, que representa el eje x. Un vector con longitud 1 tomada a lo largo de este eje representa el vector propio normalizado correspondiente al valor propio λ 1. El vector propio correspondiente a λ 2, que es un vector unitario a lo largo del eje y se encuentra en una forma similar. En este caso, ambos valores propios son simples (con algebraica y las multiplicidades geométricas igual a 1). Dependiendo de los valores de λ 1 y λ 2, hay varios casos especiales notables. En particular, si λ 1> 1, y λ 2 = 1, la transformación es un estiramiento en la dirección del eje x. Si λ 2 = 0, y λ 1 = 1, la transformación es una proyección de la superficie L 2 en el eje x, porque todos los vectores en la dirección de y se convierten en cero vectores.

Que la lámina de caucho se estira a lo largo del eje x (k 1> 1) y se redujo de forma simultánea a lo largo del eje y (k 2 <1) como en la Fig. 4. Entonces λ 1 = k 1 será el valor propio director. Aplicando repetidamente esta transformación de estiramiento / contracción muchas veces a la lámina de goma se haga de esta última cada vez más similar a una cadena de goma. Cualquier vector en la superficie de la lámina de caucho se orientará más y más cerca a la dirección del eje x (la dirección de estiramiento), es decir, se convertirá en colineal con el vector propio director.

Shear

Fig. 5. cizalladura horizontal.

Shear en el plano es una transformación en la que todos los puntos a lo largo de una línea dada permanecen fijos mientras que otros puntos se desplazan en paralelo a esa línea por una distancia proporcional a su distancia perpendicular desde la línea. A diferencia de la escala, la esquila una figura plana no cambia su área. Shear puede ser horizontal - a lo largo del eje X, o vertical - lo largo del eje Y. En cizalladura horizontal (Fig. 5), un punto P del plano se mueve paralelamente al eje X hasta el lugar P 'de modo que su coordenada y no cambia, mientras que la coordenada x para convertirse en incrementos de x' = x + k, donde k se llama factor de cizallamiento. El factor de corte es proporcional a y y al φ ángulo de distorsión: k = x '- x = y φ cuna. La matriz de una transformación de cizalladura horizontal es \ Begin {bmatrix} 1 & k \\ 0 & 1 \ end {bmatrix} . La ecuación característica es λ 2 - 2 λ + 1 = (1 - λ) 2 = 0 que tiene una sola raíz λ = 1. Por lo tanto, el valor propio λ = 1 es múltiple con multiplicidad algebraica 2. El vector propio (s) se encuentran como soluciones de

\ Begin {bmatrix} 1 - 1 & k \\ 0 & 1 - 1 \ end {bmatrix} \ begin {bmatrix} x \\ y \ end {bmatrix} = \ begin {bmatrix} 0 & k \\ 0 & 0 \ end {bmatrix} \ begin {bmatrix} x \\ y \ end {bmatrix} = ky = 0.

La última ecuación se divide por k (normalización) para obtener y = 0 que es una línea recta a lo largo del eje x. Esta línea representa el espacio característico unidimensional. En el caso de cizallamiento la multiplicidad algebraica del valor propio (2) es menor que su multiplicidad geométrica (1, la dimensión del espacio característico). El vector propio es un vector unitario a lo largo del eje x. El caso de la cizalladura vertical con matriz de transformación \ Begin {bmatrix} 1 & 0 \\ k & 1 \ end {bmatrix} se trata en la misma forma; el vector propio en cizalladura vertical es a lo largo del eje y. Aplicando repetidamente la transformación de cizallamiento cambia la dirección de cualquier vector en el plano más y más cerca a la dirección del vector propio.

Rotación

Fig. 6. La rotación en un plano. El plano es horizontal y la rotación es en el sentido antihorario. El verdadero ejes X e Y se encuentran en el plano de rotación. El plano complejo, determinado por el verdadero eje X y el complejo iY eje es vertical y se cruza con el plano de rotación en el eje X. Los vectores propios complejos u 1 = 1 + i y u 2 = 1 - i se encuentran en el plano complejo.

La la rotación en un plano es una transformación que describe el movimiento de un cuerpo rígido (o vector) alrededor de un punto fijo. Con la ayuda de funciones trigonométricas, la rotación puede ser descrito como una transformación lineal. Los elementos de una matriz de rotación representan los componentes del vector girado. Así, una rotación antihoraria de un vector de coordenadas, o plano sobre el origen en un ángulo φ con lo que las coordenadas x y el cambio y a x 'e y' es descrito por el siguiente sistema de ecuaciones lineales:

x \ cos \ phi-y \ sin \ phi = x '\,
Y \ cos x \ sin \ varphi + \ phi = y '\,

o, en términos de matrices y vectores columna:

\ Begin {bmatrix} \ cos \ varphi y - \ sin \ varphi \\ \ sin \ varphi & \ cos \ phi \ end {bmatrix} \ begin {bmatrix} x \\ y \ end {bmatrix} = \ begin {bmatrix } x '\\ y' \ end {bmatrix}.

La ecuación característica de la matriz de transformación \ Begin {bmatrix} \ cos \ varphi y - \ sin \ varphi \\ \ sin \ varphi & \ cos \ phi \ end {bmatrix} es λ 2 - 2λ cos φ + 1 = 0. Esta ecuación cuadrática tiene un discriminante D = 4 (cos φ 2 - 1) = - 4 sen φ 2, que es un número negativo para φ ≠ 0 ° y 180 ° φ ≠ × k con k impar. Por lo tanto, excepto en los casos especiales este último, no existen raíces reales (valores propios) para la rotación. La ecuación característica tiene dos raíces complejas λ 1 y λ 2 que son complejos conjugados el uno del otro:

\ Lambda_1 = \ cos \ varphi + i \ pecado \ phi = e ^ {i \ varphi}
\ Lambda_2 = \ cos \ varphi - i \ pecado \ phi = e ^ {- i \ varphi}.

Estas dos raíces son los dos valores propios de la rotación, cada uno con una multiplicidad algebraica igual a 1. Enchufar el primer valor propio, λ 1, de vuelta en la ecuación del valor propio da el primer vector propio:

\ Begin {bmatrix} \ cos \ varphi - \ left (\ cos \ varphi + i \ pecado \ phi \ right) y - \ sin \ varphi \\ \ sin \ varphi & \ cos \ varphi - \ dejó (\ cos \ varphi + i \ sin \ phi \ right) \ end {bmatrix} \ begin {bmatrix} x \\ y \ end {bmatrix} = \ begin {bmatrix} - i \ pecado \ varphi y - \ sin \ varphi \\ \ sin \varphi & - i \sin \varphi \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \end{bmatrix}.

Otros ejemplos

Como la Tierra gira, cada flecha que apunta hacia afuera desde el centro de la Tierra también gira, excepto esas flechas que son paralelas al eje de rotación. Considere la posibilidad de la transformación de la Tierra después de una hora de rotación: Una flecha del centro de la Tierra a la geográfica del Polo Sur sería un vector propio de esta transformación, pero una flecha desde el centro de la Tierra a cualquier punto de la línea ecuatorial , no sería un vector propio. Desde la flecha que apunta en el polo no se estira por la rotación de la Tierra, su valor propio es 1.

Fig. 2. Una onda estacionaria en una cuerda fija en sus límites es un ejemplo de un vector propio, o más precisamente, una función propia de la transformación dando la aceleración. A medida que pasa el tiempo, la onda estacionaria se escala por una oscilación sinusoidal cuya frecuencia está determinada por el valor propio, pero su forma general no se modifica.

Sin embargo, el espacio geométrico tridimensional no es el único espacio vectorial. Por ejemplo, considere una cuerda subrayado fija en ambos extremos, como las cuerdas vibrantes de un instrumento de cuerda (Fig. 2). Las distancias de los átomos de la cuerda vibrante de sus posiciones cuando la cuerda está en reposo pueden ser vistos como los componentes de un vector en un espacio con tantas dimensiones como hay átomos en la cuerda.

Suponga que la cuerda es un medio continuo. Si se tiene en cuenta la ecuación de la aceleración en cada punto de la cuerda, sus vectores propios o funciones propias , son las ondas estacionarias. Las ondas estacionarias corresponden a oscilaciones particulares de la cuerda de tal manera que la aceleración de la cuerda es simplemente su forma escalado por un factor de este factor, el valor propio, resulta ser -\omega^2 donde \ Omega es el la frecuencia angular de la oscilación. Cada componente del vector asociado con la cuerda se multiplica por un factor dependiente del tiempo \sin(\omega t) . Si de amortiguación se considera, la amplitud de esta oscilación disminuye hasta que la cuerda deja de oscilar, correspondiente a un complejo ω. Uno puede entonces asociar toda la vida con la parte imaginaria de ω, y relacionar el concepto de un vector propio para el concepto de resonancia. Sin amortiguación, el hecho de que el operador de aceleración (suponiendo una densidad uniforme) es hermitianos conduce a varias propiedades importantes, tales como que los patrones de ondas de pie son funciones ortogonales.

Funciones propias

Sin embargo, a veces es poco natural o incluso imposible escribir la ecuación de valor propio en forma de matriz. Esto ocurre por ejemplo cuando el espacio vectorial de dimensión infinita es, por ejemplo, en el caso de la cuerda por encima. Dependiendo de la naturaleza de la transformación T y el espacio al que se aplica, puede ser ventajoso para representar la ecuación de valor propio como un conjunto de ecuaciones diferenciales . Si T es un operador diferencial, los vectores propios son comúnmente llamados funciones propias del operador diferencial que representan T . Por ejemplo, diferenciación en sí es una transformación lineal desde

\displaystyle\frac{d}{dt}(af+bg) = a \frac{df}{dt} + b \frac{dg}{dt}

(f(t) yg(t) sonfunciones diferenciables, yunybsonconstantes).

Considere la posibilidad de diferenciación con respecto at .sus funciones propiash(t) obedecer la ecuación de valor propio:

\displaystyle\frac{dh}{dt} = \lambda h ,

donde λ es el valor propio asociado a la función. Tal función del tiempo es constante si \lambda = 0 , crece proporcionalmente a sí mismo, si \ Lambda es positivo, y decae proporcionalmente a sí mismo si \ Lambda es negativo. Por ejemplo, una población idealizada de conejos engendra más rápido cuanto más conejos hay, y por lo tanto satisface la ecuación con una lambda positivo.

La solución a la ecuación de valor propio es g(t)= \exp (\lambda t) , la función exponencial ; por tanto, que la función es una función propia del operador diferencial d / dt con el valor propio λ . Si λ es negativo , que llamamos la evolución de g un decaimiento exponencial; si es positivo , un crecimiento exponencial . El valor de λ puede ser cualquier número complejo . El espectro de d / dt es por lo tanto todo el plano complejo . En este ejemplo, el espacio vectorial en el que el operador d / dt actúa es el espacio de las funciones diferenciables de una variable. Este espacio tiene una dimensión infinita (porque no es posible expresar cada función diferenciable como una combinación lineal de un número finito de funciones de base). Sin embargo, el espacio característico asociado con cualquier valor propio dado λ es unidimensional. Es el conjunto de todas las funciones g(t)= A \exp (\lambda t) , donde A es una constante arbitraria, la población inicial en t = 0 .

Teorema Espectral

En su versión más simple, el teorema espectrales que, bajo ciertas condiciones, una transformación lineal de un vector v se puede expresar como una combinación lineal de los vectores propios, en la que el coeficiente de cada vector propio es igual a los tiempos de valores propios correspondientes el producto escalar (o producto punto) del vector propio con el vector v . Matemáticamente, se puede escribir como:

T(\mathbf{v})= \lambda_1 (\mathbf{v}_1 \cdot \mathbf{v}) \mathbf{v}_1 + \lambda_2 (\mathbf{v}_2 \cdot \mathbf{v}) \mathbf{v}_2 + \cdots

donde v 1 , v 2 , ... y λ 1 , λ 2 , ... presentarse a los vectores propios y valores propios de T . El teorema es válido para todas las transformaciones lineales autoadjuntos (transformaciones lineales dadas por verdaderas matrices simétricas y matrices hermitianas), y para la clase más general de ( complejos ) matrices normales.

Si se define la n -ésima potencia de una transformación como el resultado de aplicar que n veces en sucesión, también se puede definir polinomios de transformaciones. Una versión más general del teorema es que cualquier polinomio P de T está dada por

P(T)(\mathbf{v}) = P(\lambda_1) (\mathbf{v}_1 \cdot \mathbf{v}) \mathbf{v}_1 + P(\lambda_2) (\mathbf{v}_2 \cdot \mathbf{v}) \mathbf{v}_2 + \cdots

El teorema se puede extender a otras funciones de transformaciones, comolas funciones analíticas, el caso más general de serfunciones de Borel.

Eigendecomposition

La teorema espectral para matrices puede enunciarse como sigue. Vamos A ser un cuadrado n × n matriz. Deje q 1 ... q k sea una base vector propio, es decir, un conjunto indexado de k vectores propios linealmente independientes, donde k es la dimensión del espacio abarcado por los vectores propios de A . Si k = n , entonces A puede escribirse

\mathbf{A}=\mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^{-1}

dondeQes el cuadradon×nmatriz cuyai-ésima columna es el vector propio baseq yodeAyΛes lamatriz diagonal cuyos elementos diagonales son los valores propios correspondientes, es decir,Λ ii= λyo.

Espacios de dimensión infinita

Si el espacio vectorial es una dimensión infinita espacio de Banach, la noción de valores propios se puede generalizar el concepto de espectro. El espectro es el conjunto de escalares λ para los que ( T - λ) -1 no está definido; es decir, tal que T - λ no tiene inversa acotada.

Es evidente que si λ es un valor propio de T , λ es en el espectro de T . En general, lo contrario no es cierto. Hay operadores de Hilbert o espacios de Banach que no tienen vectores propios en absoluto. Esto se puede ver en el siguiente ejemplo. La cambio bilateral en el espacio de Hilbert 2 ( Z ) (es decir, el espacio de todas las secuencias de escalares ... un -1 , un 0 , un 1 , una 2 , ... de tal manera que

\cdots + |a_{-1}|^2 + |a_0|^2 + |a_1|^2 + |a_2|^2 + \cdots

converge) no tiene valor propio, pero tiene valores espectrales.

En los espacios infinito-dimensionales, el espectro de un operador acotado siempre es no vacío. Esto también es válido para una ilimitada operador auto adjunto. A través de sus medidas espectrales, el espectro de cualquier operador auto adjunto, delimitadas o no, se puede descomponer en el punto absolutamente continua, puro y piezas singulares. (Ver Descomposición del espectro.)

Las funciones exponenciales son funciones propias del operador de la derivada (la derivada de funciones exponenciales son proporcionales a sí mismos). El crecimiento exponencial y decaimiento por lo tanto, proporcionan ejemplos de espectros continuos, como lo hace el ejemplo cuerda vibrante ilustrado anteriormente. La átomo de hidrógeno es un ejemplo donde ambos tipos de espectros aparecerá. Las funciones propias del hamiltoniano átomo de hidrógeno se llaman estados propios y se agrupan en dos categorías. La estados ligados del átomo de hidrógeno corresponder a la parte discreta del espectro (tienen un conjunto discreto de valores propios que puede ser calculada por la fórmula de Rydberg) mientras que la ionización procesos se describen por la parte continua (la energía de la colisión / ionización no se cuantifica).

Aplicaciones

Ecuación de Schrödinger

Fig. 4. Las funciones de onda asociadas con los estados ligados de un electrón en un átomo de hidrógeno pueden ser vistos como los vectores propios de la hamiltoniano átomo de hidrógeno, así como de la operador momento angular . Están asociados con valores propios interpretados como sus energías (aumentando la baja: n = 1,2,3, ...) y el momento angular (aumentando en todo: s , p , d , ...). La ilustración muestra el cuadrado del valor absoluto de las funciones de onda. Áreas más brillantes corresponden a una mayor densidad de probabilidad para un puesto de medición. El centro de cada figura es el núcleo atómico , un protón .

Un ejemplo de una ecuación de autovalores donde la transformaciónTse representa en términos de un operador diferencial es independiente del tiempo de laecuación de Schrödinger enla mecánica cuántica:

H\psi_E = E\psi_E \,

dondeH, elhamiltoniano, es una de segundo ordenoperador diferencial y\psi_E , La función de onda, es una de sus funciones propias correspondientes al valor propioE, interpretadas como suenergía.

Sin embargo, en el caso en que uno está interesado sólo en las soluciones estatales encuadernadas de la ecuación de Schrödinger, uno busca \psi_E en el espacio de funciones integrables cuadradas. Desde este espacio es un espacio de Hilbert con una bien definida producto escalar, se puede introducir una base conjunto en el que \psi_E y H se puede representar como una matriz unidimensional y una matriz, respectivamente. Esto le permite a uno representan la ecuación de Schrödinger en forma de matriz. (Fig. 4 presenta las funciones propias bajas del hamiltoniano átomo de hidrógeno.)

La Notación de Dirac se utiliza a menudo en este contexto. Un vector, que representa un estado del sistema, en el espacio de Hilbert de funciones integrables cuadrados está representado por |\Psi_E\rangle . En esta notación, la ecuación de Schrödinger es:

H|\Psi_E\rangle = E|\Psi_E\rangle

donde |\Psi_E\rangle es un estado propio de H . Es un operador auto adjunto, el análogo tridimensional infinita de matrices hermitianas ( ver observable ). Como en el caso de la matriz, en la ecuación anterior H|\Psi_E\rangle se entiende que es el vector obtenido mediante la aplicación de la transformación H de |\Psi_E\rangle .

Orbitales moleculares

En la mecánica cuántica , y en particular en atómica y la física molecular , dentro de la teoría de Hartree-Fock, los atómico y orbitales moleculares pueden ser definidas por los vectores propios de la operador de Fock. Los valores propios correspondientes se interpretan como potenciales de ionización a través teorema de Koopmans. En este caso, el término vector propio se utiliza en un significado algo más general, ya que el operador de Fock depende explícitamente en los orbitales y sus valores propios. Si uno quiere subrayar este aspecto se habla de la ecuación de valores propios implícita . Tales ecuaciones se resuelven generalmente por un procedimiento de iteración, llamado en este caso método de campo autoconsistente. En la química cuántica , a menudo se representa la ecuación de Hartree-Fock en un no- ortogonal base fija. Esta representación en particular es un problema de valores propios generalizado llamado ecuaciones Roothaan.

Geología y Glaciología: (Tensor Orientación)

En geología , especialmente en el estudio de glacial hasta, vectores propios y valores propios se utilizan como un método por el cual una masa de información de la orientación y la inmersión constituyentes de una tela clast 'se puede resumir en un espacio 3-D por seis números. En el campo, un geólogo puede recopilar tales datos para cientos o miles de clastos en una muestra de suelo, que sólo se pueden comparar gráficamente como en un Tri-Plot (Sneed y Folk) diagrama, o como stereonet en un Wulff Net . La salida para el tensor de orientación es en los tres (perpendicular) ejes ortogonales del espacio. Salida de vectores propios de programas como Stereo32 están en el orden E1> E2> E3, con E1 ser la orientación principal de clast orientación / inmersión, E2 siendo la secundaria y E3 es el terciario, en términos de fuerza. La orientación clast se define como el vector propio, en una rosa de los vientos de 360 °. Dip se mide como el valor propio, el módulo de la tensor: esta se valora de 0 ° (sin DIP) a 90 ° (vertical). Varios valores de E1, E2 y E3 significan cosas diferentes, como se puede ver en el libro 'Una guía práctica para el Estudio de los sedimentos glaciales' por Benn & Evans, 2004.

Análisis factorial

En análisis factorial, los vectores propios de una matriz de covarianza o matriz de correlación corresponden a factores y valores propios de la varianza explicada por estos factores. El análisis factorial es una estadística técnica utilizada en las ciencias sociales y en la marketing, gestión de productos, investigación de operaciones , y otras ciencias aplicadas que se ocupan de grandes cantidades de datos. El objetivo es explicar la mayor parte de la covariabilidad entre un número de observables variables aleatorias en términos de un menor número de variables latentes no observables llamados factores. Las variables aleatorias observables se modelan como combinaciones lineales de los factores, además de los términos de la varianza únicas. Valores propios se utilizan en el análisis utilizado por el software de Q-metodología; factores con valores propios superiores a 1,00 se consideran significativos, explicando una cantidad importante de la variabilidad de los datos, mientras que los valores propios de menos de 1,00 se consideran demasiado débil, no explicar una porción significativa de la variabilidad de los datos.

Fig. 5. Eigenfaces como ejemplos de vectores propios

Eigenfaces

En procesamiento de imágenes, las imágenes procesadas de caras puede ser visto como vectores cuyos componentes son los brillos de cada pixel. La dimensión de este espacio vectorial es el número de píxeles. Los vectores propios de la matriz de covarianza asociada a un gran conjunto de imágenes normalizadas de caras se llaman Eigenfaces; este es un ejemplo de análisis de componentes principales. Son muy útiles para expresar cualquier imagen de la cara como una combinación lineal de algunos de ellos. En el rama de reconocimiento facial de la biometría, Eigenfaces proporcionan un medio para aplicar la compresión de datos de rostros para propósitos de identificación. También se ha hecho la investigación relacionada con los sistemas de visión eigen determinantes gestos con las manos. Más sobre la determinación de las letras de lengua de signos que utilizan eigen sistemas se puede encontrar aquí: http://www.geigel.com/signlanguage/index.php

Similar a este concepto, eigenvoices concepto también se desarrolló lo que representa la dirección general de la variabilidad en las pronunciaciones humanos de una expresión particular, tal como una palabra en un idioma. Basado en una combinación lineal de dichos eigenvoices, una nueva pronunciación de voz de la palabra puede ser construido. Estos conceptos se han encontrado útiles en los sistemas de reconocimiento automático del habla, para la adaptación del altavoz.

Tensor de inercia

En mecánica, los vectores propios de latensor de inercia definen losejes principales de uncuerpo rígido. La tensor de inercia es una cantidad clave requerida con el fin de determinar la rotación de un cuerpo rígido alrededor de sucentro de masa.

Tensor de tensiones

En mecánica de sólidos, el tensor de tensiones es simétrica y por lo tanto se puede descomponer en un tensor diagonal con los valores propios de la diagonal y los vectores propios como base. Debido a que es diagonal, en esta orientación, el tensor de tensiones no tiene componentes de cizallamiento; los componentes que sí tiene son los componentes principales.

Valores propios de una gráfica

En la teoría de grafos espectral, un valor propio de un gráfico se define como un valor propio de del gráfico matriz de adyacencia A , o (cada vez) de de la gráfica de la matriz laplaciana, que es o bien T - A o I - T 1/2 AT -1/2 , donde T es un holding matriz diagonal el grado de cada vértice, y en T -1/2 , 0 es sustituido por 0 -1/2 . El k TH vector propio principal de un gráfico se define como el vector propio correspondiente a la k TH valor propio más grande de A , o el vector propio correspondiente a la k TH valor propio más pequeña del Laplaciano. La primera vector propio principal de la gráfica también se conoce simplemente como el principal vector propio.

El principal vector propio se utiliza para medir la centralidad de sus vértices. Un ejemplo es Google 's algoritmo de PageRank. El director vector propio de un modificado matriz de adyacencia del grafo World Wide Web da las filas de la página como sus componentes. Este vector corresponde a la distribución estacionaria de la cadena de Markov representado por la matriz de adyacencia normalizado fila-; sin embargo, la matriz de adyacencia primero debe ser modificado para asegurar que existe una distribución estacionaria. El segundo vector propio principal puede ser utilizado para dividir el gráfico en grupos, a través de la agrupación espectral. Otros métodos también están disponibles para el agrupamiento.

Recuperado de " http://en.wikipedia.org/w/index.php?title=Eigenvalues_and_eigenvectors&oldid=199559637 "