Unidad 6

Descargar como doc, pdf o txt
Descargar como doc, pdf o txt
Está en la página 1de 18

DEPARTAMENTO DE INGIENERIA INDUSTRIAL

MATEMATIVAS IV

UNIDAD VI

“VALORES Y VECTORES CARACTERISTICOS”

MAESTRA:

ING. MARLA DE LUNA MUÑOZ

ALUMNA:

 Arely Yelina Hernández Navarro.

AGUASCALIENTES, AGS., DICIEMBRE 07 DEL 2010


INDICE Pag.

Introducción 3

1. Valores y vectores característicos 4

1.1 Definición de valores y vectores característicos de una matriz cuadrada 4

1.2 Polinomio y ecuación característica 7

1.3 Determinación de los valores y vectores característicos de una matriz cuadrada 8

1.4 Diagonalización de matrices, potencias y raíces de matrices 10

1.5 Diagonalización de matrices simétricas, diagonalización ortogonal 14

1.6 Formas cuadráticas 15

1.7 Teorema de Cayley-Hamilton 16

1.8 Aplicaciones 18

Conclusión 18

Bibliografía 18
Introducción

En este capitulo pretendemos estudiar los métodos numéricos mas importantes para calcular los valores y
vectores propios de una matriz cualquiera. Es decir, dada una matriz A L(Rn), queremos hallar las C
para las cuales x Cn con x" =0 tales que Ax = x, donde es un valor propio y x es el vector propio
asociado a este valor propio.

Como los valores propios de una matriz son, también, las raíces de su polinomio característico p( ) = det(A -
I), se podrá reducir el problema a calcular los ceros de este polinomio por alguno de los métodos ya vistos; pero,
en general el calculo del polinomio característico de una matriz es excesivamente costoso y, además, pequeños
errores en los coeficientes pueden dar graves errores en sus raíces. Este tipos de resolución solamente se
utilizara en matrices muy sencillas como, por ejemplo, las tridiagonales y simétricas. Para matrices cuales quiera
tenemos, básicamente, dos tipos de métodos:

• Los métodos de tipo puramente iterativo, a través de los cuales, utilizando de forma reiterada un mismo
tipo de transformación a la matriz inicial, se obtiene una sucesión de la cual se calculan uno o más
valores propios. El mas conocido es el método de la potencia, que, asociado con métodos de deacion,
nos permite ir hallando los distintos valores propios de la matriz.

• Los métodos basados en la factorización de alguna manera particular de la matriz A, para obtener
iterativamente una sucesión de matrices con los mismos valores propios que converge a una matriz
triangular superior. Como veremos, estos algoritmos no se aplican directamente sobre la matriz inicial,
sino que previamente se transforma la matriz a una forma reducida: Hessenberg superior, o tridiagonal si
la matriz inicial es simétrica.

El cálculo de valores y vectores propios aparece, por ejemplo, en algunos problemas de mecánica, en las
vibraciones de estructuras, en la optimización y estudio de la estabilidad de otros métodos numéricos iterativos,
etc.
1. Valores y vectores característicos

1.1 Definición de valores y vectores característicos de una matriz cuadrada

En álgebra lineal, los vectores propios, autovectores o eigenvectores de un operador lineal son los vectores no
nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo que
no cambian su dirección. Este escalar recibe el nombre valor propio, autovalor, valor característico o
eigenvalor. A menudo, una transformación queda completamente determinada por sus vectores propios y valores
propios. Un espacio propio, autoespacio o eigenespacio es el conjunto de vectores propios con un valor propio
común.

Las transformaciones lineales del espacio—como la rotación, la reflexión, el ensanchamiento, o cualquier


combinación de las anteriores; en esta lista podrían incluirse otras transformaciones—pueden interpretarse
mediante el efecto que producen en los vectores. Los vectores pueden visualizarse como flechas de una cierta
longitud apuntando en una dirección y sentido determinados.

• Los vectores propios de las transformaciones lineales son vectores que, o no se ven afectados por la
transformación o se ven multiplicados por un escalar que no varía su dirección.

• El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado.

• Un espacio propio es un espacio formado por todos los vectores propios del mismo valor propio, además
del vector nulo, que no es un vector propio.

• La multiplicidad geométrica de un valor propio es la dimensión del espacio propio asociado.

• El espectro de una transformación en espacios vectoriales finitos es el conjunto de todos sus valores
propios.

Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado en el eje de rotación
sobre el cual se realiza la rotación. El valor propio correspondiente es 1 y el espacio propio contiene a todos los
vectores paralelos al eje. Como es un espacio de una dimensión, su multiplicidad geométrica es uno. Es el único
valor propio del espectro (de esta rotación) que es un número real.

Formalmente, se definen los vectores propios y valores propios de la siguiente manera: Si A: V ! V es un


operador lineal en un cierto espacio vectorial V, v es un vector diferente de cero en V y c es un escalar
(posiblemente cero) tales que

entonces decimos que v es un vector propio del operador A, y su valor propio asociado es c. Observe que si v es
un vector propio con el valor propio c entonces cualquier múltiplo diferente de cero de v es también un vector
propio con el valor propio c. De hecho, todos los vectores propios con el valor propio asociado c junto con 0,
forman un subespacio de V, el espacio propio para el valor propio c.

Ecuación del valor propio o autovalo

Matemáticamente, v es un vector propio y el valor propio correspondiente de una transformación T si


verifica la ecuación:

donde T(v) es el vector obtenido al aplicar la transformación T a v .


Supóngase que T es una transformación lineal (lo que significa que

para todos los escalares a, b, y los vectores v, w). Considérese una base en ese espacio vectorial. Entonces, T y
v pueden representarse en relación a esa base mediante una matriz AT y un vector columna v —un vector
vertical unidimensional. La ecuación de valor propio en esta representación matricial se representa de la
siguiente forma:

donde la yuxtaposición es un producto de matrices. Dado que en esta circunstancia la transformación T y su


representación matricial AT son equivalentes, a menudo podemos emplear sólo T para la representación
matricial y la transformación. Esto es equivalente a un conjunto de n combinaciones lineales, donde n es el
número de vectores de la base. En esta ecuación, tanto el valor propio y las n componentes de v son
desconocidos. Sin embargo, a veces es poco natural o incluso imposible escribir la ecuación de vector propio en
forma matricial. Esto ocurre, por ejemplo, cuando el espacio vectorial es de dimensión infinita, como por ejemplo
en el caso de la cuerda mostrada anteriormente. Dependiendo de la naturaleza de la transformación T y el
espacio al que se aplica, puede ser ventajoso representar la ecuación de valor propio como un conjunto de
ecuaciones diferenciales, donde los vectores propios reciben a menudo el nombre de funciones propias del
operador diferencial que representa a T. Por ejemplo, la derivación misma es una transformación lineal, ya que
(si f(t) y g(t) son funciones derivables y a y b son constantes)

Considérese la diferenciación con respecto a t. Sus funciones propias h(t) obedecen a la ecuación de valor
propio:

donde es el valor propio asociado con la función. Una función en el tiempo es constante si = 0, crece
proporcionalmente a sí misma si es positiva, y decrece proporcionalmente a sí misma si es negativa. Por
ejemplo, una población ideal de conejos engendra con más frecuencia a medida que hay más conejos, y por
tanto satisface la ecuación para lambda positivo.

La solución a la ecuación de valor propio es g(t) = exp( t), la función exponencial; pues esa función es una
función propia del operador diferencial d/dt con el valor propio . Si es negativa, la evolución de g se
denomina decaimiento exponencial; si es positiva se denomina crecimiento exponencial. El valor de puede
ser cualquier número complejo. El espectro de d/dt es entonces el plano complejo en su totalidad. En este
ejemplo el espacio vectorial en el que actúa d/dt es el espacio de las funciones derivables de una variable. Este
espacio tiene una dimensión infinita (pues no es posible expresar cada función diferenciable como combinación
lineal de un número finito de funciones base). No obstante, el espacio propio asociado a un valor propio
determinado es unidimensional. Es el conjunto de todas las funciones g(t) = Aexp( t), donde A es una
constante arbitraria, la población inicial en t=0.

Valor propio

Se dice que el número , real l o complejo, es un valor propio A si existe un vector no nulo u, real o complejo tal
que Au = u, es decir (A " I )u = 0

Propiedades de los valores propios

Definición 3 Dos matrices n×n, A y B, se dicen semejantes si existe una matriz invertible P tal que A = P"1BP.
Teorema 3 Dos matrices semejantes tienen el mismo polinomio característico y, por consiguiente, los mismos
valores propios.

Definición 4 Una matriz A se dice diagonalizable (por semejanza) si es semejante a una matriz diagonal.

Teorema 4 Una matriz A, n × n, es diagonalizable si y sólo si tiene n vectores propios linealmente


independientes.

Teorema 5 La suma de los valores propios de una matriz A es igual a la traza de la matriz, es decir, 1 + 2 + · · · +
n =aii.

Teorema 6 El producto de los valores propios de una matriz A es igual al determinante de la matriz.

Teorema 7 Los valores propios de una matriz triangular son los coeficientes de su diagonal principal.

Teorema 8 Una matriz A es singular si y solo si tiene un valor propio igual a cero.

Teorema 9 Si los valores propios de una matriz A son i, 0 " i " n, los valores propios de la matriz A " I son i"
, 0 " i " n.

Los vectores propios de A y A " I son idénticos.

Teorema 10 Los valores propios de las potencias de una matriz A son las correspondientes potencias; los
vectores propios son los mismos.

Vector propio

El vector u se denomina vector propio de A asociado al valor propio .


1.2 Polinomio y ecuación característica

En general, el polinomio que resulta de desarrollar |A " I |, cuyos ceros son precisamente los valores propios de
A, se denomina polinomio característico.

P( ) = ("1)n n + a1 n"1 + … + an

Consideremos una matriz n-cuadrada arbitraria:

La matriz (A - l·In), donde In es la matriz identidad n-cuadrada y l un escalar indeterminado, se denomina matriz
característica de A:

Su determinante, det (A - l·In) , que es un polinomio en l, recibe el nombre de polinomio característico de A.


Asimismo, llamamos a det (A - l·In) = 0

Ecuación característica de A.

Ejemplo 1:

Hallar la matriz característica y el polinomio característico de la matriz A:

La matriz característica será (A - l·In). Luego:

y el polinomio característico,

Así pues, el polinomio característico es: l 2 - l + 4.


1.3 Determinación de los valores y vectores característicos de una matriz cuadrada

Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se puede calcular
simbólicamente usando el polinomio característico. Sin embargo, a menudo resulta imposible para matrices
extensas, caso en el que se debe usar un método numérico.

Cálculo simbólico

Encontrando valores propios

Una herramienta importante para encontrar valores propios de matrices cuadradas es el polinomio característico:
decir que es un valor propio de A es equivalente a decir que el sistema de ecuaciones lineales (A - I) v = 0
(donde I es la matriz identidad) tiene una solución no nula v (un vector propio), y de esta forma es equivalente al
determinante:

La función p( ) = det(A - I) es un polinomio de pues los determinante se definen como sumas de


productos. Éste es el polinomio característico de A: los valores propios de una matriz son los ceros de su
polinomio característico.

Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuación

pA( ) = 0.

Si A es una matriz n×n, entonces pA tiene grado n y A tiene al menos n valores propios.

El teorema fundamental del álgebra dice que esta ecuación tiene exactamente n raíces (ceros), teniendo en
cuenta su multiplicidad. Todos los polinomios reales de grado impar tienen un número real como raíz, así que
para n impar toda matriz real tiene al menos valor propio real. En el caso de las matrices reales, para n par e
impar, los valores propios no reales son pares conjugados.

Encontrando vectores propios

Una vez que se conocen los valores propios , los vectores propios se pueden hallar resolviendo:

Un ejemplo de matriz sin valores propios reales es la rotación de 90 grados en el sentido de las manecillas del
reloj:

cuyo polinomio característico es 2 + 1 y sus valores propios son el par de conjugados complejos i, -i. Los
vectores propios asociados tampoco son reales.

Ejemplo

Considérese la matriz
que representa un operador lineal R³ ! R³. Si se desea computar todos los valores propios de A, se podría
empezar determinando el polinomio característico:

y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El teorema de Cayley-
Hamilton establece que cada matriz cuadrada satisface su propio polinomio característico.

Efectivamente, para el caso del valor propio 2, se puede comprobar que

Cálculo numérico [editar]

En la práctica, los valores propios de las matrices extensas no se calculan usando el polinomio característico.
Calcular el polinomio resulta muy costoso, y extraer las raíces exactas de un polinomio de grado alto puede ser
difícil de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de los polinomios de grado alto (5
o superior) no pueden expresarse usándose simplemente raíces enésimas. Existen algoritmos eficientes para
aproximar raíces de polinomios, pero pequeños errores en la estimación de los valores propios pueden dar lugar
a errores grandes en los vectores propios. En consecuencia, los algoritmos generales para encontrar vectores
propios y valores propios son iterativos. La manera más fácil es el método de las potencias: se escoge un vector
aleatorio v y se calcula una secuencia de vectores unitarios:

, , , ...

Esta secuencia casi siempre convergerá a un vector propio correspondiente al mayor valor propio. Este algoritmo
es sencillo, pero no demasiado útil aisladamente. Sin embargo, hay métodos más populares, como la
descomposición QR, que se basan en él

Valores propios de una matriz cualquiera

• Si es complejo, entonces u es complejo.

• Los valores propios de B = C"1AC son los mismos de A. Si x es el vector propio asociado a , entonces
Cx es un vector propio de B asociado a .
1.4 Diagonalización de matrices, potencias y raíces de matrices

¿Qué es diagonalizar una matriz?

Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla posible. Diagonalizar una
matriz A es precisamente eso: escribirla de manera simple encontrando una matriz invertible P y una diagonal D
(si se puede) tales que

A = P D P-1

La matriz P se llama matriz de paso.

Puede que esto, al principio, no parezca más simple de lo que ya era A directamente. Sin embargo, lo es desde
muchos puntos de vista. Dado que las matrices suelen usarse para representar aplicaciones lineales, la
expresión anterior puede verse como un cambio de base de la aplicación representada por A; entonces, esta
forma de escribirlo dice: hay una base en la que la aplicación lineal A tiene una forma muy simple (diagonal).
Esto es útil, por ejemplo, para clasificar una aplicación lineal y estudiar sus propiedades. Las matrices se usan
para representar otras cosas como cónicas, cuadricas o formas bilineales, y en estos casos también resulta útil
esta forma de expresarlas.

La relación anterior entre las matrices A y D es importante y aparece en muchos contextos, así que tiene nombre
propio:

Cuando dos matrices cuadradas A y B verifican que A = P B P-1 para cierta, matriz cuadrada P (invertible, claro)
decimos que A y B son semejantes.

Una matriz es diagonalizable cuando se puede diagonalizar; es decir, cuando podemos encontrar una matriz
diagonal y una invertible de forma que la matriz se escriba como dijimos antes. Dicho de otra forma: una matriz
es diagonalizable cuando es semejante a una matriz diagonal. En estas prácticas sólo consideraremos como
diagonalizables las matrices que sean semejantes a una matriz diagonal real. Entonces, más exactamente: una
matriz es diagonalizable cuando es semejante a una matriz diagonal real.

¿Cuándo y cómo podemos diagonalizar una matriz?

Si conseguimos escribir una matriz A como A = P D P-1, entonces podemos poner también A P = P D. Si D es
diagonal y nos fijamos en la columna i de esta última igualdad lo que tenemos es que A xi = li xi (donde xi es la
columna i de A y li es el número en el lugar i de la diagonal de D). Esto nos dice que para diagonalizar una matriz
nos hace falta conocer los vectores a los que les pase algo así. Estos vectores también tienen nombre:

Si un número l y un vector no nulo x verifican la relación A x = l x diremos que l es un valor propio o autovalor de
la matriz A y que x es un vector propio o autovector de A asociado al valor propio l.

Es fácil ver que diagonalizar una matriz A de tamaño n×n es lo mismo que encontrar n vectores propios
linealmente independientes asociados a valores propios reales, ya que entonces podemos ponerlos por
columnas y conseguir así la matriz P (puedes comprobar que entonces se cumple la relación que buscamos).
Entonces, para diagonalizar una matriz lo que tenemos que hacer es buscar n vectores propios suyos
linealmente independientes asociados a valores propios reales.

Sea

una matriz de orden

. Se dice que es una matriz diagonal si para

. Sea

una transformación lineal de un espacio de dimensión finita


. Se dice que es diagonalizable si existe una base en tal que es una matriz diagonal. Una

matriz de orden se dice que es diagonalizable si es similar a una matriz diagonal. Teniendo en
cuenta que matrices que representen la misma transformación lineal son similares, se tiene el siguiente
resultado.

Proposición 3. Sea una transformación lineal de un espacio de dimensión finita y

sea una base cualquiera de .

Entonces, es diagonalizable si y sólo si es diagonalizable.

En términos de vectores propios se tiene el siguiente criterio obvio de diagonalización.

Teorema 1. Sea una transformación lineal de un espacio de dimensión finita

es diagonalizable si y sólo si tiene una base constituida por vectores propios.

Según la Proposición 1 y el Corolario 2 se tiene el siguiente corolario.

Corolario 3. Sea una matriz cuadrada de orden . Entonces,

a) es diagonalizable si y sólo si tiene vectores propios L I

b) Si tiene valores propios diferentes, entonces


es diagonalizable.

El recíproco de la parte b) del corolario anterior no siempre se cumple: la matriz idéntica es diagonal, sin

embargo sus valores propios coinciden y son iguales a


.

Proposición 4. Sea una transformación lineal de un espacio de dimensión finita ,

Sean los valores propios diferentes para : ,y los

subespacios propios correspondientes. Entonces, la suma es directa.

En consecuencia,

Demostración

Podemos probar ahora un criterio de diagonalización en términos del polinomio característico y de los espacios
propios.
Teorema 2. Sea una transformación lineal de un espacio de dimensión finita

Sean los valores propios diferentes para : , ,y los


subespacios propios correspondientes. Entonces, las siguientes condiciones son equivalentes:

a) es diagonalizable.

b) El polinomio característico de es de la forma donde

c)

d)

Demostración

Ejercicio 1. Determinar si las siguientes matrices son diagonalizables. En caso afirmativo encontrar una matriz
que diagonalice:

Ejercicio 2. Determinar los valores y vectores propios del operador derivación sobre el espacio
. ¿Es este operador diagonalizable?

Ejercicio 3. Sean y matrices cuadradas de orden y , respectivamente. Demuestre que el


polinomio característico de la matriz

es

Ejercicio 4. Sea una matriz de orden y un polinomio cualquiera. Demuestre que si es


diagonalizable, entonces es diagonalizable.

Ejercicio 5. Sea una matriz de orden tal que para cada

Demuestre que es un valor propio de .

Solución. Sea un vector propio de la matriz correspondiente al valor propio

. Entonces , se obtiene entonces que para cada se cumple

Nótese que si todas las entradas del vector son iguales entonces todas las ecuaciones anteriores se
satisfacen. Entonces, siendo cualquier elemento no nulo de se cumple que para

se satisface , y así es un vector propio de con valor propio


.

Método de Potencia.

Considere una matriz cuadrada A. Los valores y vectores propios satisfacen la ecuación

donde es el i-ésimo valor propio y es el i-ésimo vector propio. Si es una matriz


simétrica, algunos valores propios pueden ser complejos.

Supongamos que el método de potencia se inicia con un vector propio inicial.

y las iteraciones subsecuentes son con


1.5 Diagonalización de matrices simétricas, diagonalización ortogonaL

Valores propios de matrices simétricas

• Si D es la matriz diagonal cuyos elementos diagonales son los valores propios de A, entonces existe una
matriz ortogonal Q tal que D = Q"1AQ = QtAQ.

• Asimismo, existen n vectores propios de A que forman un conjunto ortonormal, y coinciden con las
columnas de la matriz ortogonal Q.

• Todos los valores propios de A son reales.

• A es definida positiva si y sólo si todos los valores propios de A son positivos.

Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla posible. Diagonalizar una
matriz A es precisamente eso: escribirla de manera simple encontrando una matriz invertible P y una diagonal D
(si se puede) tales que A = P D P-1 La matriz P se llama matriz de paso. Matriz diagonalizable: Una matriz n x n
es diagonolazible si existe una matriz diagonal D tal que A es semejante a D. Observación: Si D es una matriz
diagonal, entonces los valores propios son sus componentes en la diagonal. Si A es semejante a D, entonces Ay
D tiene los mismos valores propios. Uniendo estos dos hechos se observa que si A es diagonaliizable, entonces
A es semejante a una matriz diagonal cuyas componentes en la diagonal son los valores propios de A. El
siguiente teorema establece cuando una matriz es diagonalizable. TEOREMA: Una matriz A de n x n es
diagonalizable si y solo si tiene n vectores propios linealmente independientes. En tal caso, la matriz diagonal D
semejante a A esta dada por

Donde son los valore propios de A. Si C es una matriz cuyas columnas son vectores propios
linealmente independientes de A, entonces D = C-1AC Una matriz diremos que es ortogonal si su transpuesta
coincide con su inversa.

P ortogonal <=> P-1 = Pt

Si P= (u1|u2|…|un) resulta que decir que P es ortogonal, es equivalente a decir que los vectores {u1, u2,…, un}
son ortonormales (respecto al producto escalar habitual) Para las matrices reales y simétricas podemos dar una
diagonalización donde la matriz de paso es ortogonal. Esto es lo que se entiende por diagonalización ortogonal.

Diagonalización ortogonal

Una matriz diremos que es ortogonal si su traspuesta coincide con su inversa.

Si resulta que decir que es ortogonal, es equivalente a decir que los vectores

son ortonormales (respecto al producto escalar habitual) Para las matrices reales y
simétricas podemos dar una diagonalización donde la matriz de paso es ortogonal. Esto es lo que se entiende
por diagonalización ortogonal.
1.6 Formas cuadráticas

Una forma cuadrática es una aplicación del espacio vectorial E en el cuerpo K, que cumple las siguientes
condiciones equivalentes: a) Existe una forma bilineal simétrica f de ExE en el cuerpo K tal que (x) = f(x,x). A f
se le llama forma polar de . b) (lx) = l2x, . Además f(x,y) = ( (x + y) " (x) " (y)) / 2 es una forma bilineal
simétrica definida en ExE y con valores en K. A se la llama forma cuadrática asociada a f. Cuando se dice que
la forma cuadrática es real. A veces a las formas cuadráticas definidas positivas se las denomina métricas.
Formas cuadráticas Una forma cuadrática en R3 es cualquier conjunto de puntos xT=(x1,x2,x3) que satisface
una ecuación del tipo: xTAx=r, (1) donde A es una matriz simétrica de 3x3 a coeficientes reales y r es un número
real. Vía una rotación del espacio dada por y=PTx donde yT=(y1,y2,y3) y P es una matriz unitaria de 3x3 a
coeficientes reales, se puede expresar una forma cuadrática arbitraria con respecto a un vector y de manera que:
yTDy=r, (2) donde D es una matriz diagonal de 3x3 a coeficientes reales. ¿Porqué siempre pueden encontrarse
P y D con las propiedades requeridas? ¿Por qué P representa una rotación del espacio? Vía un re-escalamiento
adicional dado por z=D'y donde zT=(z1,z2,z3) y D' es una matriz diagonal de 3x3 a coeficientes reales no-
negativos, se puede expresar la última ecuación obtenida con respecto el vector z de manera que quede
representada por una ecuación del tipo: zTJz=r, (3) donde J es una matriz diagonal de 3x3 que sólo puede
contener en su diagonal valores que están en {"1,0,1}.

Una forma cuadrática es una aplicación del espacio vectorial E en el cuerpo K, que cumple las siguientes
condiciones equivalentes:

a) Existe una forma bilineal simétrica f de ExE en el cuerpo K tal que (x)=f(x,x). A f se le llama forma polar de
.

b) (lx) = l2x,

Además f(x,y) = ( (x + y) " (x) " (y)) / 2 es una forma bilineal simétrica definida en ExE y con valores en K.
A se la llama forma cuadrática asociada a f.

Cuando se dice que la forma cuadrática es real. A veces a las formas cuadráticas definidas positivas
se las denomina métricas.
1.7 Teorema de Cayley-Hamilton

El teorema de Cayley"Hamilton establece que cada matriz cuadrada A satisface su ecuación característica: Si p(
) = det( " ) es el polinomio característico de A, entonces p(A) es la matriz nula.

Entre las diversas demostraciones del teorema hemos encontrado en R. Bellman (1965) una puramente
algebraica, que es la que detallamos, con algún matiz, en nuestro trabajo.

El interés de la demostración radica en la utilidad que puede tener para nuestros alumnos de primer curso, la
exposición de un desarrollo lógico basado en sus conocimientos básicos de cálculo matricial. También es
inmediato y puede ser igualmente útil calcular, a partir del teorema, la inversa de A, cuando A sea no singular.

Sea p( ) = ( " 1) n n+ cn"1 n"1+ cn"2 n"2+ ... + c2 2 + c1 + c0 el polinomio característico de una
matriz A de orden n. Entonces p(A) = ( " 1) n n + cn"1 n"1 + cn"2 An"2 + ... + c1 A + c0 I es la matriz nula. Es
decir, cada matriz cuadrada A satisface su ecuación característica p(A) = 0.

Nota: A es una matriz de orden n con elementos en un cuerpo K; por tanto, los coeficientes ci del polinomio
característico det( " ) pertenecen a dicho cuerpo K.

Demostración

Por las propiedades de las matrices se cumple que:

(A " I) Adj(A " I) t = p( )I

donde Adj(A " I) t es la matriz transpuesta de la matriz de los adjuntos de los elementos respectivos de la
matriz A " I y p( ) = det( " ) es el polinomio característico de la matriz A.

Si denotamos B( ) = Adj(A " I)t, entonces B( ) es una matriz polinómica en , de grado n"1, que se puede
escribir como:

B( )= n"1 n"1+ n"2 n"2+ ... + 2 2+ 1 + 0

donde cada i es una matriz de orden n, con elementos en el cuerpo K. Entonces el producto (A " I) B( )
vale:

(A " I) B( ) = (A " I )( n"1 n"1+ n"2 n"2+ ... + 2 2+ 1 + 0) = " Bn"1 n + ( n"1 "
n"2) n"1+( n"2 " n"3) n"2+ ... + ( 2" 1) 2 + ( 1 " 0) + 0

Por otro lado p( ) I es la matriz polinómica:

p( ) I = ( " 1) n I n+ cn"1 I n"1+ cn"2 I n"2+ ... + c2 I 2 + c1 I + c0 I

Luego, igualando las matrices polinómicas, con elementos en el dominio K ( ), (A " I) B( ) = p( ) I, se


deduce que:

" n"1 = ( " 1) n I

n"1 " n"2 = cn"1 I

n"2 " n"3 = cn"2 I


.

AB2 " 1= c2 I

1" 0= c1 I

0 = c0 I

Si vamos sustituyendo cada matriz Bi en la siguiente ecuación hasta llegar a la penúltima resulta:

" n"1 = ( " 1) n I

" n"2 = ( " 1) n A + cn"1 I

" n"3 = ( " 1) n A2 + cn"1 A + cn"2 I

" n"4 = ( " 1) n A3 + cn"1 A2 + cn"2 A + cn"3 I

ÛÜ

- B2= (-1)n An"3 + cn"1 An"4 + cn"2 An"5 + ...+ c4 A + c3 I

" 1= ( " 1) n An"2 + cn"1 An"3 + cn"2 An"4 + ...+ c3 A + c2 I

0 = ( " 1) n An"1 + cn"1 An"2 + cn"2 An"3 + ...+ c2 A + c1 I

Entonces sustituyendo 0 en la última ecuación 0 = c0 I se obtiene:

" 0 = ( " 1) n An + cn"1 An"1 + cn"2 An"2 + ...+ c2 A2 + c1 A = " c0 I

Por tanto, ( " 1) n An + cn"1 An"1 + cn"2 An"2 + ...+ c2 A2 + c1 A + c0 I = 0. Es decir, p(A) = 0 c.q.d.
1.8 Aplicaciones

Los valores y vectores característicos tienen muchas aplicaciones en la tanto en el ramo de las matemáticas
como física, mencionaremos algunos temas en donde también se pueden emplear: Orbitales moleculares,
Análisis factorial, Tensor de inercia, Tensor de tensión y Valores propios de un grafo, En ecuaciones lineales,
matrices, etc.

Algunos de estos campos de aplicación son:

- Ecuaciones diferenciales

- Estabilidad de sistemas lineales

- Sistemas eléctricos (componentes simétricas)

- Polos y ceros de funciones transferencia

- Diagonalización de matrices

Conclusión

Los valores y vectores característicos juegan un papel muy importante en el ramo de las matemáticas como en el
de la física, ya que a través de estos podemos resolver muchas dificultades que se nos presentan en la vida.

Nos dimos cuenta de las diferentes propiedades que poseen los valores y vectores característicos, así como las
diferentes formas de resolverlos.

Entendimos que no podemos dejar a tras todo lo aprendido en el curso, porque todo va ligado a cada tema. Con
esto podríamos decir que hemos aprendido a tener un amplio criterio de la utilidad de temas ya vistos en nuestra
carrera, ya que no podemos omitir las enseñanzas pasadas ya que estas nos forman las bases para comprender
y analizar y poder poner en practica los temas futuros.

Esperamos que este artículo les sirva a todos aquellos que deseen aprender más y les ayude en su formación
profesional.

Bibliografía

http://www.sectormatematica.cl/contenidos/policar.htm

http://www.monogafias.com/trabajos16/valores-vectores/valores-vectores.shtml

http://www.fim.utp.ac.pa/alfa/anfortran/cap14/141.html

http://mx.answers.yahoo.com/question/index?qid=20070503120721AAIPb18

http://www.virtual.unal.edu.co/cursos/ciencias/2001004/lecciones_html/cap5/cap5s1.html

http://www.virtual.unal.edu.co/cursos/ciencias/2001004/lecciones_html/cap5/cap5s2.html

http://www.virtual.unal.edu.co/cursos/ciencias/2001004/lecciones_html/cap5/cap5s3.html

http://elcentro.uniandes.edu.co/cr/mate/algebralineal/taller3af/taller3af/taller3af.html

También podría gustarte