Miguel de Cervantes y Saavedra - Don Quijote de la Mancha - Ebook:
HTML+ZIP- TXT - TXT+ZIP

Wikipedia for Schools (ES) - Static Wikipedia (ES) 2006
CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Autovector y autovalor - Wikipedia, la enciclopedia libre

Autovector y autovalor

De Wikipedia, la enciclopedia libre

Artículo destacado
Fig. 1. En esta transformación de la Mona Lisa, la imagen se ha deformado de tal forma que su eje vertical no ha cambiado. (nota: se han recortado las esquinas en la imagen de la derecha). El vector azul, representado por la flecha azul que va desde el pecho hasta el hombro, ha cambiado de dirección, mientras que el rojo, representado por la flecha roja, no ha cambiado. El vector rojo es entonces un autovector de la transformación, mientras que el azul no lo es. Dado que el vector rojo no ha cambiado de longitud, su autovalor es 1. Todos los vectores de esta misma dirección son autovectores, con el mismo autovalor. Forman el autoespacio o eigenespacio de este autovalor.
Aumentar
Fig. 1. En esta transformación de la Mona Lisa, la imagen se ha deformado de tal forma que su eje vertical no ha cambiado. (nota: se han recortado las esquinas en la imagen de la derecha). El vector azul, representado por la flecha azul que va desde el pecho hasta el hombro, ha cambiado de dirección, mientras que el rojo, representado por la flecha roja, no ha cambiado. El vector rojo es entonces un autovector de la transformación, mientras que el azul no lo es. Dado que el vector rojo no ha cambiado de longitud, su autovalor es 1. Todos los vectores de esta misma dirección son autovectores, con el mismo autovalor. Forman el autoespacio o eigenespacio de este autovalor.

En álgebra lineal, los autovectores o eigenvectores de un operador lineal son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar λ recibe el nombre autovalor o valor característico o eigenvalor. A menudo, una transformación queda completamente determinada por sus autovectores y autovalores. Un autoespacio o eigenespacio es el conjunto de autovectores con un autovalor común.

La palabra alemana eigen, que se traduce en español como el prefijo auto se usó por primera vez en este contexto por David Hilbert en 1904 (aunque Helmholtz la usó previamente con un significado parecido). Eigen puede traducirse también como propio, inherente o característico, donde se aprecia el énfasis en la importancia de los autovalores para definir la naturaleza única de una determinada transformación lineal. Las denominaciones vector y valor característicos y propios también se utilizan habitualmente.

Tabla de contenidos

[editar] Definiciones

Las transformaciones lineales del espacio—como la traslación, la rotación, la reflexión, el ensanchamiento, o cualquier combinación de las anteriores; en esta lista podrían incluirse otras transformaciones—pueden interpretarse mediante el efecto que producen en los vectores. Los vectores pueden visualizarse como flechas de una cierta longitud apuntando en una dirección y sentido determinados.

  • Los autovectores de las transformaciones lineales son vectores[1] que o no se ven afectados por la transformación o se ven multiplicados por un escalar que no varía su dirección.
  • El autovalor de un autovector es el factor de escala por el que ha sido multiplicado.
  • Un autoespacio es un espacio formado por todos los autovectores del mismo autovalor, además del vector nulo, que no es un autovector.
  • La multiplicidad geométrica de un autovalor es la dimensión del autoespacio asociado.
  • El espectro de una transformación en espacios vectoriales finitos es el conjunto de todos sus autovalores.

Por ejemplo, un autovector de una rotación en tres dimensiones es un vector situado en el eje de rotación sobre el cual se realiza la rotación. El autovalor correspondiente es 1 y el autoespacio contiene a todos los vectores paralelos al eje. Como es un espacio de una dimensión, su multiplicidad geométrica es uno. Es el único autovalor del espectro (de esta rotación) que es un número real.

Formalmente, se definen los autovectores y autovalores de la siguiente manera: Si A: VV es un operador lineal en un cierto espacio vectorial V, v es un vector diferente de cero en V y c es un escalar (posiblemente cero) tales que

\mathbf{A} \mathbf{v} = c \mathbf{v},

entonces decimos que v es un vector propio del operador A, y su valor propio asociado es c. Observe que si v es un vector propio con el valor propio c entonces cualquier múltiplo diferente de cero de v es también un vector propio con el valor propio c. De hecho, todos los vectores propios con el valor propio asociado c junto con 0, forman un subespacio de V, el espacio propio para el valor propio c.

[editar] Ejemplos

A medida que la tierra rota, los vectores en el eje de rotación permanecen invariantes. Si se considera la transformación lineal que sufre la tierra tras una hora de rotación, una flecha que partiera del centro de la tierra al Polo Sur geográfico sería un autovector de esta transformación, pero una flecha que partiera del centro a un punto del ecuador no sería un autovector. Dado que la flecha que apunta al polo no cambia de longitud por la rotación, su autovalor es 1.

Otro ejemplo sería una lámina de metal que se expandiera uniformemente a partir de un punto de tal manera que las distancias desde cualquier punto al punto fijo se duplicasen. Esta expansión es una transformación con autovalor 2. Cada vector desde el punto fijo a cualquier otro es un autovector, y el autoespacio es el conjunto de todos esos vectores.

Una onda estacionaria en una cuerda fija en sus cabos o, más concretamente, una autofunción de la transformación correspondiente al transcurso del tiempo. A medida que varía el tiempo, la onda estacionaria varía en amplitud, pero su período no se modifica. En este caso el autovalor es dependiente del tiempo.
Aumentar
Una onda estacionaria en una cuerda fija en sus cabos o, más concretamente, una autofunción de la transformación correspondiente al transcurso del tiempo. A medida que varía el tiempo, la onda estacionaria varía en amplitud, pero su período no se modifica. En este caso el autovalor es dependiente del tiempo.

Sin embargo, el espacio geométrico tridimensional no es el único espacio vectorial. Por ejemplo, considérese una cuerda sujeta por sus extremos, como la de un instrumento de cuerda (mostrada a la derecha). La distancia de los átomos de la cuerda vibrante desde sus posiciones cuando ésta está en reposo pueden interpretarse como componentes de un vector en el espacio con tantas dimensiones como átomos tenga dicha cuerda.

Si se supone que la cuerda es un medio continuo y se considera la transformación de la cuerda en el transcurso del tiempo, sus autovectores o autofunciones son sus ondas estacionarias—lo que, mediante la intervención del aire circundante, los humanos pueden interpretar como el resultado de tañer una guitarra. Las ondas estacionarias corresponden a oscilaciones particulares de la cuerda tales que la forma de la cuerda se escala por un factor (el autovalor) con el paso del tiempo. Cada componente del vector asociado con la cuerda se multiplica por este factor dependiente del tiempo. Las amplitudes (autovalores) de las ondas estacionarias decrecen con el tiempo si se considera la atenuación. En este caso se puede asociar un tiempo de vida al autovector, y relacionar el concepto de autovector con el concepto de resonancia.

[editar] Casos de interés especial

Intuitivamente, para las transformaciones lineales del espacio de dos dimensiones R ², los vectores propios son:

  • rotación: ningún vector propio de valores reales (existen en cambio pares valor propio, vector propio complejos).
  • reflexión: los vectores propios son perpendiculares y paralelos al eje de simetría, los valores propios son -1 y 1, respectivamente.
  • escalado uniforme: todos los vectores son vectores propios, y el valor propio es el factor de escala.
  • proyección sobre una recta: los vectores propios con el valor propio 1 son paralelos a la línea, vectores propios con el valor propio 0 son paralelos a la dirección de la proyección

[editar] Ecuación de autovalor

Matemáticamente, vλ es un autovector y λ el autovalor correspondiente de una transformación T si verifica la ecuación:

T(\mathbf{v}_\lambda)=\lambda\,\mathbf{v}_\lambda

donde T(vλ) es el vector obtenido al aplicar la transformación T a vλ.

Supóngase que T es una transformación lineal (lo que significa que T(a\mathbf{v}+b\mathbf{w})=aT(\mathbf{v})+bT(\mathbf{w}) para todos los escalares a, b, y los vectores v, w). Considérese una base en ese espacio vectorial. Entonces, T y vλ pueden representarse en relación a esa base mediante una matriz AT y un vector columna vλ—un vector vertical unidimensional. La ecuación de autovalor en esta representación matricial se representa de la siguiente forma:

A_T\,v_\lambda=\lambda\,v_\lambda

donde la yuxtaposición es un producto de matrices. Dado que en esta circunstancia la transformación T y su representación matricial AT son equivalentes, a menudo podemos emplear sólo T para la representación matricial y la transformación. Esto es equivalente a un conjunto de n combinaciones lineales, donde n es el número de vectores de la base. En esta ecuación, tanto el autovalor λ y las n componentes de vλ son desconocidos. Sin embargo, a veces es poco natural o incluso imposible escribir la ecuación de autovector en forma matricial. Esto ocurre, por ejemplo, cuando el espacio vectorial es de dimensión infinita, como por ejemplo en el caso de la cuerda mostrada anteriormente. Dependiendo de la naturaleza de la transformación T y el espacio al que se aplica, puede ser ventajoso representar la ecuación de autovalor como un conjunto de ecuaciones diferenciales, donde los autovectores reciben a menudo el nombre de autofunciones del operador diferencial que representa a T. Por ejemplo, la derivación misma es una transformación lineal, ya que (si f(t) y g(t) son funciones derivables y a y b son constantes)

\displaystyle\frac{d}{dt}(af+bg) = a \frac{df}{dt} + b \frac{dg}{dt}

Considérese la diferenciación con respecto a t. Sus autofunciones h(t) obedecen a la ecuación de autovalor:

\displaystyle\frac{dh}{dt} = \lambda h,

donde λ es el autovalor asociado con la función. Una función en el tiempo es constante si λ = 0, crece proporcionalmente a sí misma si λ es positiva, y decrece proporcionalmente a sí misma si λ es negativa. Por ejemplo, una población ideal de conejos engendra con más frecuencia a medida que hay más conejos, y por tanto satisface la ecuación para lambda positivo.

La solución a la ecuación de autovalor es g(t) = exp(λt), la función exponencial; pues esa función es una autofunción del operador diferencial d/dt con el autovalor λ. Si λ es negativa, la evolución de g se denomina decaimiento exponencial; si es positiva se denomina crecimiento exponencial. El valor de λ puede ser cualquier número complejo. El espectro de d/dt es entonces el plano complejo en su totalidad. En este ejemplo el espacio vectorial en el que actúa d/dt es el espacio de las funciones derivables de una variable. Este espacio tiene una dimensión infinita (pues no es posible expresar cada función diferenciable como combinación lineal de un número finito de funciones base). No obstante, el autoespacio asociado a un autovalor determinado λ es unidimensional. Es el conjunto de todas las funciones g(t) = Aexp(λt), donde A es una constante arbitraria, la población inicial en t=0.

[editar] Teorema espectral

Artículo principal: teorema espectral

El teorema espectral muestra la importancia de los autovalores y autovectores para caracterizar una transformación lineal de forma única. En su versión más simple, el teorema espectral establece que, bajo unas condiciones determinadas, una transformación lineal de un vector puede expresarse como la combinación lineal de los autovectores con coeficientes de valor igual a los autovectores por el producto escalar de los autovectores por el vector al que se aplica la transformación, lo que puede escribirse como:

\mathcal{T}(\mathbf{v})= \lambda_1 (\mathbf{v}_1 \cdot \mathbf{v}) \mathbf{v}_1 + \lambda_2 (\mathbf{v}_2 \cdot \mathbf{v}) \mathbf{v}_2 + \dots

donde \mathbf{v}_1, \mathbf{v}_2, \dots y \lambda_1, \lambda_2, \dots representan a los autovectores y autovalores de \mathcal{T}. El caso más simple en el que tiene validez el teorema es cuando la transformación lineal viene dada por una matriz simétrica real o una matriz hermítica compleja.

Si se define la enésima potencia de una transformación como el resultado de aplicarla n veces sucesivas, se puede definir también el polinomio de las transformaciones. Una versión más general del teorema es que cualquier polinomio P de \mathcal{T} es igual a:

P(\mathcal{T})(\mathbf{v})= P(\lambda_1) (\mathbf{v}_1 \cdot \mathbf{v}) \mathbf{v}_1 + P(\lambda_2) (\mathbf{v}_2 \cdot \mathbf{v}) \mathbf{v}_2 + \dots

El teorema puede extenderse a otras funciones o transformaciones tales como funciones analíticas, siendo el caso más general las funciones de Borel.

[editar] Autovectores y autovalores de matrices

[editar] Cálculo de autovalores y autovectores de matrices

Si se quieren calcular los autovalores de una matriz dada y ésta es pequeña, se pueden calcular simbólicamente usando el polinomio característico. Sin embargo, a menudo resulta imposible para matrices extensas, caso en el que se debe usar un método numérico.

[editar] Cálculo simbólico

Encontrando autovalores

Una herramienta importante para encontrar autovalores de matrices cuadradas es el polinomio característico: decir que λ es un autovalor de A es equivalente a decir que el sistema de ecuaciones lineales (AλI) v = 0 (donde I es la matriz identidad) tiene una solución no nula v (un autovector), y de esta forma es equivalente al determinante:

\det(A - \lambda I) = 0 \!\

La función p(λ) = det(AλI) es un polinomio de λ pues los determinante se definen como sumas de productos. Éste es el polinomio característico de A: los autovalores de una matriz son los ceros de su polinomio característico.

Todos los autovalores de una matriz A pueden calcularse resolviendo la ecuación pA(λ) = 0.

Si A es una matriz n×n, entonces pA tiene grado n y A tiene al menos n autovalores.

El teorema fundamental del álgebra dice que esta ecuación tiene exactamente n raíces (ceros), teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado impar tienen un número real como raíz, así que para n impar toda matriz real tiene al menos autovalor real. En el caso de las matrices reales, para n par e impar, los autovalores no reales son pares conjugados.

Encontrando autovectores

Una vez que se conocen los autovalores λ, los autovectores se pueden hallar resolviendo:

(A - \lambda I) v = 0 \!\

Un ejemplo de matriz sin autovalores reales es la rotación de 90 grados en el sentido de las manecillas del reloj:

\begin{bmatrix}0 & 1\\ -1 & 0\end{bmatrix}

cuyo polinomio característico es λ2 + 1 y sus autovalores son el par de conjugados complejos i, -i. Los autovectores asociados tampoco son reales.

Ejemplo

Considérese la matriz

A = \begin{bmatrix}   \; 0 & 1 &   -1 \\   \; 1 & 1 & \; 0 \\     -1 & 0 & \; 1  \end{bmatrix}

que representa un operador lineal R³ → R³. Si se desea computar todos los valores propios de A, se podría empezar determinando el polinomio característico:

p(x) = \det( A - xI) =  \begin{vmatrix}     -x &    1    &   -1\;\; \\  \;\;1 & 1\!-\!x &    0     \\     -1 &    0    & 1\!-\!x  \end{vmatrix}
= -x^3 + 2x^2 + x - 2\

y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su propio polinomio característico.

Efectivamente, para el caso del autovalor 2, se puede comprobar que

A \begin{bmatrix} \; 1 \\ \; 1 \\ -1 \end{bmatrix} = \begin{bmatrix} \; 2 \\ \; 2 \\ -2 \end{bmatrix} = 2 \begin{bmatrix} \; 1 \\ \; 1 \\ -1 \end{bmatrix}

[editar] Cálculo numérico

En la práctica, los autovalores de las matrices extensas no se calculan usando el polinomio característico. Calcular el polinomio resulta muy costoso, y extraer las raíces exactas de un polinomio de grado alto puede ser difícil de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de los polinomios de grado alto (5 o superior) no pueden expresarse usándose simplemente raíces enésimas. Existen algoritmos eficientes para aproximar raíces de polinomios, pero pequeños errores en la estimación de los autovalores pueden dar lugar a errores grandes en los autovectores. En consecuencia, los algoritmos generales para encontrar autovectores y autovalores son iterativos. La manera más fácil es el método de las potencias: se escoge un vector aleatorio v y se calcula una secuencia de vectores unitarios:

\frac{Av}{||Av||}, \frac{A^2v}{||A^2v||}, \frac{A^3v}{||A^3v||}, ...

Esta secuencia casi siempre convergerá a un autovector correspondiente al mayor autovalor. Este algoritmo es sencillo, pero no demasiado útil aisladamente. Sin embargo, hay métodos más populares, como la descomposición QR, que se basan en él.

[editar] Propiedades

[editar] Multiplicidad algebraica

La multiplicidad algebraica de un autovalor λ de A es el orden de λ como cero del polinomio característico de A; en otras, palabras, si λ es una de las raíces del polinomio, es el número de factores (t − λ) en el polinomio característico tras la factorización. Una matriz n×n tiene n autovalores, contados de acuerdo con su multiplicidad algebraica, ya que su polinomio característico tiene grado n.

Un autovalor de multiplicidad algebraica 1 recibe el nombre de "autovalor simple".

Por ejemplo, se pueden encontrar exposiciones como la siguiente en artículos de teoría de matrices:

"los autovalores de una matriz A son 4,4,3,3,3,2,2,1,"

lo que significa que la multiplicidad algebraica de 4 es dos, la de 3 es tres, la de 2 es dos y la de 1 es uno. Se emplea este estilo porque la multiplicidad algebraica es la clave de muchas demostraciones matemáticas en teoría de matrices.

Anteriormente se ha definido la multiplicidad geométrica de un autovector como la dimensión del autoespacio asociado, o el núcleo (autoespacio de los autovectores de autovalor nulo) de λI - A. La multiplicidad algebraica también puede entenderse como una dimensión: es la dimensión del autespacio generalizado (1er sentido) asociado, que es el núcleo de la matriz (λI - A)k para k suficientemente grande. Es decir, es el espacio de los autovectores generalizados (1er sentido), donde un autovector generalizado es cualquier vector que toma valor 0 sí λI - A se aplica suficientes veces en sucesión. Cualquier autovector es un autovector generalizado, así que cualquier autoespacio está contenido en el autoespacio generalizado asociado. Esto proporciona una demostración simple de que la multiplicidad geométrica es siempre menor o igual a la algebraica. El primer sentido no debe de confundirse con el problema de autovalores generalizados tal y como se muestra más adelante.

Por ejemplo:

A=\begin{bmatrix} 1 & 1 \\ 0 & 1 \end{bmatrix}.

Sólo tiene un autovalor λ = 1. El polinomio característico es (λ − 1)2, así que este autovalor tiene multiplicidad algebraica 2. Sin embargo, el autoespacio asociado es el eje, que normalmente recibe el nombre de eje x, generado por el vector unitario \begin{bmatrix} 1 \\ 0  \end{bmatrix}, así que la multiplicidad geométrica es 1.

Los autovectores generalizados pueden usarse para calcular la forma normal de Jordan de una matriz (comentado más adelante). El hecho de que los bloques de Jordan en general no son diagonales sino nilpotentes está directamente relacionado con la distinción entre autovectores y autovectores generalizados.

[editar] Teoremas de descomposición para matrices generales

El teorema de descomposición es una versión del teorema espectral en una clase concreta de matrices. Este teorema se explica normalmente en términos de transformación coordinada. Si U es una matriz invertible, puede verse como una transformación entre un sistema de coordenadas a otro, donde las columnas de U son las componentes de la nueva base de vectores expresados en términos de la base anterior. En este nuevo sistema las coordenadas del vector v se representan por v', que puede obtenerse mediante la relación v' = Uv y, por otra parte, se tiene v = U − 1v'. Aplicando sucesivamente v' = Uv, w' = Uw y U − 1U = I, a la relación Av = w proporciona A'v' = w' con A' = UAU − 1, la representación de A en la nueva base. En esta situación, se dice que las matrices A y A' son semejantes.

El teorema de descomposición declara que, si se eligen como columnas de U − 1 n autovectores linealmente independientes de A, la nueva matriz A' = UAU − 1 es diagonal y sus elementos en la diagonal son los autovalores de A. Si esto es posible, entonces A es una matriz diagonalizable. Un ejemplo de una matriz no diagonalizable es la matriz A ya mostrada:

A=\begin{bmatrix} 1 & 1 \\ 0 & 1 \end{bmatrix}.

Hay muchas generalizaciones de esta descomposición que pueden tratar con el caso no diagonalizable, diseñadas con diferentes propósitos:

  • la descomposición de Schur declara que toda matriz es equivalente a una matriz triangular.
  • la descomposición en valores singulares, A = UΣV * donde Σ es diagonal con U y V matrices unitarias, los elementos de la diagonal de A = UΣV * no son negativos y reciben el nombre de valores singulares de A. Esta descomposición también puede hacerse en matrices no cuadradas.
  • la forma normal de Jordan, donde A = XΛX − 1 y Λ no es diagonal sino diagonal por bloques. El número y tamaño de los bloques de Jordan están determinados por las multiplicidades geométrica y algebraica de los autovalores. La descomposición de Jordan es un resultado fundamental. A partir de ella se puede deducir inmediatamente que una matriz cuadrada está descrita completamente por sus autovalores, incluyendo la multiplicidad. Esto muestra matemáticamente el importante papel que desempeñan los autovalores en el estudio de matrices.
  • como consecuencia inmediata de la descomposición de Jordan, cualquier matriz A puede escribirse de forma única como A=S + N donde S es diagonalizable, N es nilpotente (por ejemplo, tal que Nq=0 para un cierto q), y S cumple la propiedad conmutativa del producto (SN=NS).

[editar] Otras propiedades de los autovalores

El espectro es invariante bajo transformaciones semejantes: las matrices A y P-1AP tienen los mismos autovalores para cualquier matriz A y cualquier matriz invertible P. El espectro es también invariante a la trasposición de las matrices: A y A T tienen los mismos autovalores.

Dado que una transformación lineal en espacios de dimensiones finitas es biyectiva si y sólo si es inyectiva, una matriz es invertible si y sólo si cero no es un autovalor de la matriz.

Otras consecuencias de la descomposición de Jordan son:

  • una matriz es matriz diagonalizable si y sólo si las multiplicidades geométrica y algebraica coinciden para todos sus autovalores. En particular una matriz n×n que tiene n autovalores diferentes es siempre diagonalizable;
  • Dado que la traza, o la suma de elementos de la diagonal principal de una matriz se preserva en la equivalencia unitaria, la forma normal de Jordan constata que es igual a la suma de sus autovalores.
  • De forma similar, dado que los autovalores de una matriz triangular son las entradas de la diagonal principal su determinante es igual al producto de los autovalores (contados de acuerdo con su multiplicidad algebraica).

Algunos ejemplos de la localización del espectro de ciertas subclases de matrices normales son:

  • Todos los autovalores de una matriz hermítica (A = A*) son reales. Además, todos los autovalores de una matriz definida positiva son positivos;
  • Todos los autovalores de una matriz antihermítica (A = −A*) son imaginarios puros;
  • Todos los autovalores de una matriz unitaria (A-1 = A*) tienen valor absoluto uno;

Si A es una matriz m×n con mn, y B es una matriz n×m, entonces BA tiene los mismos autovalores de AB más nm autovalores nulos.

A cada matriz se le puede asociar un operador norma, que depende de la norma de su dominio, el operador norma de una matriz cuadrada es una cota superior del módulo de sus autovalores, y por tanto de su radio espectral. Esta norma está directamente relacionada con el método de las potencias para calcular el autovalor de mayor módulo. Para matrices normales, el operador norma (la norma euclídea) es el mayor módulo entre de sus autovalores.

[editar] Autovector conjugado

Un autovector conjugado es un vector que tras la transformación pasa a ser un múltiple escalar de su conjugado, donde el escalar recibe el nombre de autovalor conjugado de la transformación lineal. Los autovectores y autovalores conjugados representan esencialmente la misma información y significado que los autovectores y autovalores, pero aparecen cuando se utiliza un sistema de coordenadas alternativo. La ecuación correspondiente es:

Av = \lambda v^*.\,

Por ejemplo, en teoría de electromagnetismo disperso, la transformación lineal A representa la acción efectuada por el objeto dispersor, y los autovectores representan los estados de polarización de la onda electromagnética. En óptica, el sistema coordenado se define a partir del punto de vista de la onda, y lleva a una ecuación de autovalor regular, mientras que en radar, el sistema coordenado se define desde el punto de vista del radar, y da lugar a una ecuación de autovalor conjugado.

[editar] Problema de autovalor generalizado

Un problema de autovalor generalizado (2º sentido) es de la forma

Av = \lambda B v \quad \quad

donde A y B son matrices. Los autovalores generalizados(2º sentido) λ pueden obtenerse resolviendo la ecuación

\det(A - \lambda B)=0.\,

El conjunto de matrices de la forma A − λB, donde λ es un número complejo, recibe el nmbre de lápiz Si B es invertible, entonces el problema original puede escribirse en la forma

B^{-1}Av = \lambda v \quad \quad

que es un problema de autovalores estándar. Sin embargo, en la mayoría de situaciones es preferible no realizar la inversión, y resolver el problema de autovalor generalizado con la configuración original.

Si A y B son matrices simétricas con entradas reales, entonces los autovalores son reales. Esto se aprecia tan fácilmente a partir de la segunda formulación equivalente, pues la matriz B − 1A no es necesariamente simétrica si A y B lo son.

La aplicación de moleculares orbitales expuesta más adelante proporciona un ejemplo de este caso.

[editar] Entradas de un anillo

En una matriz cuadrada A con entradas de un anillo, λ recibe el nombre de autovalor por la derecha si existe un vector columna x tal que Axx, o un autovalor por la izquierda si existe un vector fila no nulo y tal que yA=yλ.

Si el anillo es conmutativo, los autovalores por la izquierda son iguales a los autovalores por la derecha y se les llama simplemente autovalores.

[editar] Espacios de dimensión infinita

Fig. 3. Espectro de absorción de un átomo de cloro. Los picos corresponden, en teoría, al espectro discreto (series de Rydberg) del hamiltoniano; la amplia estructura de la derecha se asocia al espectro continuo (ionización). Los resultados experimentales asociados se han obtenido midiendo la intensidad de los rayos X absorbidos por un gas de átomos como función de la energía de incidencia de los fotones en eV.
Aumentar
Fig. 3. Espectro de absorción de un átomo de cloro. Los picos corresponden, en teoría, al espectro discreto (series de Rydberg) del hamiltoniano; la amplia estructura de la derecha se asocia al espectro continuo (ionización). Los resultados experimentales asociados se han obtenido midiendo la intensidad de los rayos X absorbidos por un gas de átomos como función de la energía de incidencia de los fotones en eV. [2]

Si el espacio vectorial es de dimensión infinita, la noción de autovalores puede generalizarse al concepto de espectro. El espectro es el conjunto de escalares λ para el que \left(T-\lambda\right)^{-1}, no está definido, que es tal que T − λ no tiene inversa acotada.

Si λ es un autovalor de T, λ está en el espectro de T. En general, el contrarrecíproco no es verdadero. Hay operadores en los espacios de Hilbert o Banach que no tienen autovectores. Por ejemplo, tómese un desplazamiento bilateral en el espacio de Hilbert \ell^2(\mathbb{Z}); ningún vector propio potencial puede ser cuadrado-sumable, así que no existe ninguno. Sin embargo, cualquier operador lineal acotado en un espacio de Banach V tiene espectro no vacío. El espectro σ(T) del operador T VV se define como

\sigma(T) = \{ \lambda\in\mathbb{C} : (\lambda 1 - T)\; no es invertible\}. \;

Entonces σ(T) es un conjunto compacto de números complejos, y es no vacío. Cuando T es un operador compacto (y en particular cuando T es un operador entre espacios finito-dimensionales como arriba), el espectro de T es igual que el conjunto de sus valores propios.

En espacios de dimensión infinita, el espectro de un operador acotado es siempre no vacío, lo que también se cumple para operadores autoadjuntos no acotados. A través de su medida espectral, el espectro de cualquier operador autoadjunto, acotado o no, puede descomponerse en sus partes absolutamente continua, discreta, y singular. El crecimiento exponencial proporciona un ejemplo de un espectro continuo, como en el caso anterior de la cuerda vibrante. El átomo de hidrógeno es un ejemplo en el que aparecen ambos tipos de espectro. El estado ligado del átomo de hidrógeno corresponde a la parte discreta del espectro, mientras que el proceso de ionización queda descrito por la parte continua.

[editar] Aplicaciones

Ecuación de Schrödinger
La función de onda asociada a los estados ligados de un electrón en un átomo de hidrógeno puede verse como los autovectores del átomo de hidrógeno hamiltoniano así como al operador momento angular. Está asociada a los autovalores interpretados como sus energías (incrementándose según n=1,2,3,...) y al momento angular (incrementándose según s,p,d,...). Aquí se muestra el cuadrado del valor absoluto de las funciones de onda. Las áreas más iluminadas corresponden a densidades de probabilidad más altas para una posición. El centro de cada figura es el núcleo atómico, un protón.
Aumentar
La función de onda asociada a los estados ligados de un electrón en un átomo de hidrógeno puede verse como los autovectores del átomo de hidrógeno hamiltoniano así como al operador momento angular. Está asociada a los autovalores interpretados como sus energías (incrementándose según n=1,2,3,...) y al momento angular (incrementándose según s,p,d,...). Aquí se muestra el cuadrado del valor absoluto de las funciones de onda. Las áreas más iluminadas corresponden a densidades de probabilidad más altas para una posición. El centro de cada figura es el núcleo atómico, un protón.

Un ejemplo de una ecuación de autovalor donde la transformación \mathcal{T} se representa en términos de un operador diferencial es la ecuación independiente del tiempo de Schrödinger de mecánica cuántica.

HΨE = EΨE

Donde h, el Hamiltoniano, es un operador diferencial de segundo orden y ΨE la función de onda, es una de las autofunciones correspondientes al autovalor E, interpretado como la energía.

Sin embargo, en caso de que sólo se busquen soluciones para el estado ligado de la solución de Schrödinger, como suele ser el caso en química cuántica, se buscará ΨE en el espacio de las funciones integrables. Dado que este espacio es un espacio de Hilbert, con un producto escalar bien definido, podemos introducir una base en la que se puede representar ΨE y H como un vector unidimensional y una matriz respectivamente. Esto permite representar la ecuación de Schrödinger en forma matricial.

La notación bra-ket, utilizada a menudo en este contexto, pone énfasis en la diferencia entre el vector o estado |\Psi_E\rangle y su representación, la función ΨE. En este contexto se escribe la ecuación de Schrödinger

H|\Psi_E\rangle = E|\Psi_E\rangle

y se llama a |\Psi_E\rangle un 'autoestado de H (que a veces se representa como \hat{H} en algunos libros de texto) que puede interpretarse como una transformación en lugar de una representación particular en términos de operadores diferenciales. En la ecuación expuesta, H|\Psi_E\rangle se interpreta como el vector obtenido por aplicación de la transformación H a |\Psi_E\rangle.

Orbitales moleculares

En mecánica cuántica, y en particular en física atómica y molecular, y en el contexto de la teoría de Hartree-Fock, los orbitales atómicos y moleculares pueden definirse por los autovectores del operador de Fock. Los autovalores correspondientes son interpretados como potenciales de ionización a través del teorema de Koopmans. En este caso, el término autovector se usa con un significado más general, pues el operador de Fock es explícitamente dependiente de los orbitales y sus autovalores. Si se quiere subrayar este aspecto se habla de ecuación de autovalores implícitos. Tales ecuaciones se resuelven normalmente mediante un proceso iterativo, llamado método de campo autoconsistente. En química cuántica a menudo se representa la ecuación de Hartree-Fock en una base no ortogonal. Esta representación particular es un problema de autovalor generalizado que tiene el nombre de ecuaciones de Roothaan.

Análisis factorial

En análisis factorial, los autovalores de la matriz de covarianza corresponden a los factores, y los autovalores a las cargas. El análisis factorial es una técnica estadística usada en ciencias sociales y mercadotecnia, gestión de producto, investigación operativa y otras ciencias aplicadas que tratan con grandes cantidades de datos. El objetivo es explicar la mayor parte de la variabilidad entre varias variables aleatorias observables en términos de un número menor de variables aleatorias no observables llamadas factores. Las variables aleatorias no observables se modelan como combinaciones lineales de los factores más términos de errores.

 Autocaras, un ejemplo del uso de autovectores
Aumentar
Autocaras, un ejemplo del uso de autovectores
Autocaras

En procesado de imagen, las imágenes procesadas de caras pueden verse como vectores cuyas componentes son la luminancia de cada píxel. La dimensión de este espacio vectorial es el número de píxeles. Los autovectores de la matriz de covarianza asociada a un conjunto amplio de imágenes normalizadas de rostros se llaman autocaras. Son muy útiles para expresar una imagen de un rostro como la combinación lineal de otras. Las autocaras proporcionan un medio de aplicar compresión de datos a los rostros, para propósitos de biometría.

Tensor de inercia

En mecánica, los autovectores del momento de inercia definen los ejes principales de un cuerpo rígido. El tensor de inercia es necesario para determinar la rotación de un cuerpo rígido alrededor de su centro de masa.

Tensor de tensión

En mecánica de sólidos deformables, el tensor de tensión es simétrico, así que puede descomponerse en un tensor diagonal cuyos autovalores en la diagonal y los autovectores forman una base.

Autovalores de un grafo

En teoría espectral de grafos, un autovalor de un grafo se define como un autovalor de la matriz de adyacencia del grafo A, o de la matriz Laplaciana del grafo IT − 1 / 2AT − 1 / 2, donde T es una matriz diagonal que contiene el grado de cada vértice, y en T − 1 / 2, 0 se substituye por 0 − 1 / 2. El autovector principal de un grafo se usa para medir la centralidad de sus vértices. Un ejemplo es el algoritmo PageRank de Google. El autovector principal de una matriz de adyacencia modificada del grafo de la web da el page rank en sus componentes.

[editar] Referencias

  • Cohen-Tannoudji, Claude. Quantum Mechanics, Wiley (1977). ISBN 0-471-16432-1. Capítulo II: “The mathematical tools of quantum mechanics”.
  • De Burgos, Juan. Álgebra lineal, Edit. MacGraW-Hill (1993).
  • Fraleigh, John B. y Beauregard, Raymond A. Linear Algebra (3ª edición), Addison-Wesley Publishing Company (1995). ISBN 0-201-83999-7 (edición internacional).
  • Horn, Roger A. y Johnson, Charles R. Matrix Analysis, Cambridge University Press (1985). ISBN 0-521-30586-1.

[editar] Notas

  1. Dado que todas las transformaciones lineales no tienen efecto en el vector nulo, éste no se considera un autovector.
  2. Gorczyca, TW: "Auger Decay of the Photoexcited Inner Shell Rydberg Series in Neon, Chlorine, and Argon". Abstracts of the 18th International Conference on X-ray and Inner-Shell Processes, Chicago, agosto 23-27 (1999).

[editar] Véase también

[editar] Enlaces externos

En inglés

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Sub-domains

CDRoms - Magnatune - Librivox - Liber Liber - Encyclopaedia Britannica - Project Gutenberg - Wikipedia 2008 - Wikipedia 2007 - Wikipedia 2006 -

Other Domains

https://www.classicistranieri.it - https://www.ebooksgratis.com - https://www.gutenbergaustralia.com - https://www.englishwikipedia.com - https://www.wikipediazim.com - https://www.wikisourcezim.com - https://www.projectgutenberg.net - https://www.projectgutenberg.es - https://www.radioascolto.com - https://www.debitoformtivo.it - https://www.wikipediaforschools.org - https://www.projectgutenbergzim.com