Cayley
Cayley
Cayley
Joseph C. Várilly
Introducción
El álgebra lineal comprende el estudio de los espacios vectoriales y las aplicaciones lineales
entre ellos. La estructura de un espacio vectorial finitodimensional es sencilla: todos los
vectores son combinaciones de un número finito de vectores básicos. Dadas unas bases de dos
espacios vectoriales, una aplicación lineal del primero al segundo se manifiesta con la matriz
de sus coeficientes con respecto a estas dos bases. De este modo, se obtiene una estrecha
relación entre las propiedades estructurales de las aplicaciones lineales y los algoritmos para
manipular sus matrices.
Este es un segundo curso de álgebra lineal. En el curso anterior, los espacios vectoriales
y las matrices fueron introducidos en el contexto, clásico y fundamental, de la resolución de
sistemas de ecuaciones de primer grado en varias variables. También se adquirió familiaridad
con los conceptos esenciales de base y dimensión de un espacio vectorial, núcleo e imagen
de una aplicación lineal, espacio vectorial dual y el teorema de rango y nulidad.
El estudio del álgebra lineal comprende aspectos tanto estructurales como algorı́tmicos.
En este segundo curso, el énfasis recaerá sobre las estructuras, sean ellas de las aplicaciones
lineales, de los espacios vectoriales dotados de un producto escalar, o de las formas bilineales
y cuadráticos. Aun ası́, para entender bien esta teorı́a, hay que prestar la debida atención a su
presentación en algoritmos y a los métodos explı́citos de cálculo.
Inicialmente, se hará un breve repaso de los temas del curso anterior: vectores, aplica-
ciones lineales, matrices, determinantes. Luego, se abordará la búsqueda de los autovalores
y autovectores de una matriz (o bien de una aplicación lineal), con el objetivo de transformar
una matriz dada a una forma diagonal. Este meta no siempre puede realizarse; por ende,
se examinará en detalle la estructura de una aplicación lineal cualquiera, para obtener las
llamadas formas canónicas y normales de sus matrices.
Otro concepto fundamental es la de ortogonalidad. En presencia de un producto escalar
(o producto interno) sobre un espacio vectorial real o complejo, las aplicaciones lineales
se reparten en diversos clases: ortogonales o unitarios, simétricos o hermı́ticos, positivas.
Estas clasificaciones dan lugar a diversos factorizaciones de matrices, entre ellas la llamada
descomposición polar, cuyos factores admiten una descripción en términos de sus autovalores
y autoespacios mediante el teorema espectral.
Las formas bilineales sobre un espacio vectorial real o complejo se clasifican de otras
maneras. Las formas antisimétricas se caracterizan por su rango; las formas simétricas, por su
MA–460: Algebra Lineal II 2
rango y signatura. Una forma bilineal simétrica sobre un espacio vectorial sirve para construir
una estructura multiplicativa llamada álgebra de Clifford que la caracteriza, en términos de
matrices sobre escalares reales, complejos o cuaternionicos.
Estos apuntes van acompañados de diversos ejercicios, los cuales, además de ofrecer una
práctica rutinaria acerca de los tópicos discutidos, sirven para amplificar y complementar esos
temas. La evaluación del curso estará basado en estos ejercicios.
Programa de materias
1 Fundamentos del Algebra Lineal: Repaso
Espacios vectoriales, independencia lineal, bases, dimensión. Aplicaciones lineales, núcleo
e imagen, rango y nulidad, espacio dual. Ecuaciones lineales y matrices, operaciones de fila,
eliminación gaussiana. Determinantes y su evaluación, regla de Cramer.
4 Formas Bilineales
Formas bilineales simétricas, congruencia de matrices, rango y signatura. Formas cuadráticas
y sus signaturas. Formas bilineales alternantes, bases canónicas. Aplicaciones ortogonales y
simplécticas, estructuras complejas.
Ejemplo 1.2. La totalidad de polinomios con coeficientes en F se denota por F[t], en donde la
letra t es una indeterminada. Sus elementos son los p(t) = a0 + a1 t + a2 t2 + · · · + an tn con cada
ak ∈ F, an , 0. El número natural n es el grado del polinomio p(t). Con la suma de polinomios
y la multiplicación de polinomios por escalares, F[t] es un espacio vectorial sobre F.
1 Elnombre viene del alemán Körper, un término introducido por Richard Dedekind en 1871; se llama corps
en francés, cuerpo en español, corp en rumano, etc., pero en inglés se llama field. En español, no debe usarse la
traducción secundaria “campo”, reservada para campos vectoriales, campos magnéticos, etc.
2 Conviene incluir 0 como número natural, aunque este costumbre no tiene aceptación universal. Los autores
franceses lo siguen, empleando la notación N∗ = {1, 2, 3, . . . }. En cambio, los autores alemanes a veces escriben
N = {1, 2, 3, . . . } y N0 = {0, 1, 2, 3, . . . }, sin previo aviso. Caveat lector.
MA–460: Algebra Lineal II 4
T + S : x 7→ T (x) + S (x),
cT : x 7→ c T (x).
3 La composición de las funciones T y S se suele denotar por S ◦ T . Sin embargo, es usual abreviarlo a S T
cuando se trata de aplicaciones lineales.
4 Esta notación fue introducido en 1962 por Kenneth E. Iverson. Para una evaluación de los usos y las
ventajas de esta notación, véase: Donald E. Knuth, Two Notes on Notation, American Mathematical Monthly
99 (1992), 403–422.
MA–460: Algebra Lineal II 7
La conocida delta de Kronecker δi j , que es la función de dos ı́ndices i, j, que vale 1 cuando
i = j y vale 0 cuando i , j, resulta ser
δi j = [[i = j]].
Definición 1.19. Sean V, W dos espacios vectoriales sobre F y sea T ∈ L(V, W). El núcleo
de T es el subespacio ker T de V dado por
ker T := { x ∈ V : T (x) = 0 } ≤ V.
T (V) := { T (x) : x ∈ V } ≤ W.
Definición 1.21. Sea V un espacio vectorial sobre F con dim V = n. Considérese dos subes-
pacios M ≤ V y N ≤ V ∗ . El anulador de M es el subespacio M ⊥ ≤ V ∗ dado por
1.3 Matrices
Definición 1.24. Una matriz m × n con entradas en un cuerpo F es un arreglo rectangular de
elementos de F, con m filas o renglones y n columnas. Para abreviar, se escribe A = [ai j ],
donde se sobreentiende que i = 1, 2, . . . , m y j = 1, 2, . . . , n.
La totalidad de matrices m × n con entradas en F es un espacio vectorial sobre F de di-
mensión mn. En el caso m = n, se habla de matrices cuadradas. Mn (F) denota el espacio
vectorial de matrices n × n con entradas en F. (Otra notación a veces vista es Fn×n = Mn (F).
Ası́, el espacio vectorial de matrices m × n puede denotarse por Fm×n .)
La transpuesta At de una matriz A ∈ Fm×n es una matriz n × m, cuya entrada (i, j) es la
entrada ( j, i) de A; en sı́mbolos, At = [a ji ]. Una matriz cuadrada A ∈ Mn (F) se llama simétrica
si At = A.
Una matriz cuadrada A ∈ Mn (F) es triangular inferior si ai j = 0 para i < j; triangular
superior si ai j = 0 para i > j; y diagonal si ai j = 0 para i , j.
Las columnas de una matriz A ∈ Fm×n pueden considerarse como vectores en Fm . Una
columna tı́pica es
a1 j
a2 j
a j = .. .
.
am j
Además, las filas de A pueden considerarse como vectores en el espacio dual (Fn )∗ ' Fn .
Una fila tı́pica5 es h i
ai = ai1 ai2 . . . ain ,
de modo que A = [a1 , a2 , . . . , am ]t . (Para distinguir los vectores de fila de los vectores de
columna, conviene usar exponentes o “superı́ndices” para etiquetar aquellos.)
La fila ai corresponde a la forma lineal
El producto matricial obedece las leyes algebraicas A(BC) = (AB)C; (A + D)B = AB+ DB;
A(B + E) = AB + AE; (AB)t = Bt At . Sin embargo, este producto no es conmutativo, porque
AB , BA en general.
Si A, B ∈ Mn (F), su producto AB también pertenece a Mn (F). Este producto es asociativo
y distributivo sobre la suma de matrices, en vista de las primeras tres igualdades del párrafo
anterior. En otras palabras, Mn (F) es a la vez un espacio vectorial sobre F y un anillo (no
conmutativo): se dice6 que Mn (F) es un álgebra sobre F.
Esta álgebra tiene un elemento unidad, la matriz identidad In ∈ Mn (F), que cumple AIn =
In A = A para todo A ∈ Mn (F). Concretamente, In = [δi j ], donde δi j = [[i = j]] es la “delta de
Kronecker”. Esta es una matriz diagonal:
1 0 . . . 0
0 1 . . . 0
In = .. .. . . .. .
. . . .
0 0 ... 1
Definición 1.27. Sea T : V → W una aplicación lineal entre dos espacios vectoriales finitodi-
mensionales sobre F. Dadas dos bases, B = {x1 , . . . , xn } para V y C = {y1 , . . . , ym } para W, la
matriz de T con respecto a estas bases7 es la matriz A = [ai j ] ∈ Fm×n dada por
m
X
T (x j ) =: ai j yi . (1.6)
i=1
A = [ai j ] =: [T ]CB .
Si x = c1 x1 + · · · + cn xn ∈ V y si T (x) = b1 y1 + · · · + bm ym ∈ W, entonces
m
X n
X n
X n X
X m
bi yi = T (x) = T cj xj = c j T (x j ) = ai j c j yi ,
i=1 j=1 j=1 j=1 i=1
Fı́jese que T 7→ A = [T ]CB es un isomorfismo lineal, es decir, una aplicación lineal biyec-
tiva, entre los espacios vectoriales L(V, W) y Fm×n ; por ende
De ahı́ es evidente que cada vector Ax es una combinación lineal de las columnas a1 , . . . , an ,
e inversamente, que cada combinación lineal de estas columnas es de la forma Ax para algún
x ∈ Fn . En otras palabras, es T A (Fn ) = linha1 , . . . , an i ≤ Fm .
En general las columnas de A no son linealmente independientes; de hecho, son indepen-
dientes si y sólo si n = r(T A ). Esto motiva la siguiente definición.
matrices es
[T ]CB0 = [I]CC [T ]CB [I]B
0 0
B0 , o bien B = QAP,
Obsérvese que P, por ser la matriz de una aplicación identidad I respecto de ciertas bases, es
una matriz cuadrada inversible. La matriz Q es inversible por la misma razón.
MA–460: Algebra Lineal II 12
Definición 1.30. Dos matrices A, B ∈ Fm×n se dicen equivalentes si hay un par de matrices
inversibles P ∈ Mn (F) y Q ∈ Mm (F) tales que B = QAP.
Definición 1.31. Dos matrices cuadradas A, B ∈ Mn (F) se dicen semejantes si hay una
matriz inversible P ∈ Mn (F) tal que B = P−1 AP.
.
· · · · · · · · · · · · = ..
a(n) (n)
nn xn = bn
I El sistema de ecuaciones lineales (1.10) puede escribirse como una sola ecuación matricial:
Ax = b, con A ∈ Fm×n , b ∈ Fm .
x1 a1 + x2 a2 + · · · + xn an = b, (1.11)
en donde los vectores a j ∈ Fm son las columnas de la matriz A. Esta ecuación revela que un
sistema de ecuaciones lineales puede expresar un vector dado b como una combinación lineal
de otros vectores dados a j , y que los coeficientes desconocidos de esa combinación lineal
corresponden a la solución del sistema de ecuaciones. De (1.11) se ve que hay al menos una
solución x al sistema si y sólo si el vector b pertenece al subespacio linha1 , . . . , an i = T A (Fn ).
I La matriz aumentada de la ecuación Ax = b es la matriz [A | b] ∈ Fm×(n+1) , donde se
agrega b como columna suplementaria a la matriz A. Hay tres tipos de operaciones de fila
elementales sobre matrices aumentadas que corresponden a las operaciones elementales sobre
sistemas de ecuaciones:
(a) multiplicar una fila por una constante c , 0;
Proposición 1.33. Cualquier operación de fila elemental sobre una matriz B ∈ Fm×n se
efectúa por premultiplicación9 B 7→ AB de esa matriz por una matriz cuadrada A ∈ Fm×m .
... . . . 0 . . . 0
1 0
. ... .... ..
.. . . .
. . . 1 . . . 0 . . . 0
0
Rik (c) = ... .. . . ..
. .
.. k > i.
. . si (1.12b)
. . . −c . . . 1 . . . 0
0
. .. .. . . ..
.. . . . .
... 0 ... 0 ... 1
0
Si k , i, Rik (c) tiene entradas rik = −c, r j j = 1 para todo j; sus otras entradas son ceros.
Ad (c): Se intercambian las filas i y k de con B 7→ Pik B, donde
. . . 0 . . . 0 . . . 0
1
. . . .. .. ..
.. . . . .
. . . 0 . . . 1 . . . 0
0
Pik = ... .. . . ..
. .
.. .
. . (1.12c)
. . . 1 . . . 0 . . . 0
0
. .. .. . . ..
.. . . . .
... 0 ... 0 ... 1
0
Las entradas de Pik son: pik = pki = 1, p j j = 1 si j , i, j , k; sus otras entradas son ceros.
9 Como el producto de matrices no es conmutativa, hay que distinguir entre los procesos de premultiplicación
Por lo tanto, las operaciones de fila elementales pueden deshacerse por otras operaciones de
fila elementales, ejecutadas mediante premultiplicación por matrices de tipo (1.12).
Por ejemplo, la siguiente eliminación gaussiana:
1 3 −1 1 1 3 −1 1 1 3 −1 1 1 3 −1 1
3 4 −4 7 7−→ 0 −5 −1 4 7−→ 0 −5 −1 4 7−→ 0 −5 −1 4
3 6 2 −3 3 6 2 −3 0 −3 5 −6 0 0 28 42
5 −5
en donde V es una matriz triangular superior. Para revertir el proceso, fı́jese que
−1
[A | b] = R23 ( 35 ) R13 (3) R12 (3) [V | c]
= R12 (−3) R13 (−3) R23 (− 35 )[V | c] =: L [V | c].
Obsérvese también que las entradas subdiagonales de la matriz L son los múltiplos de filas
escogidos en el proceso de eliminación del sistema de ecuaciones Ax = b. Al guardar cuenta
de dichos múltiplos, se escribe la matriz triangular inferior L sin necesidad de más cálculos.
El sistema V x = c es el resultado de la fase de eliminación. En resumen, el proceso de elimi-
nación gaussiana no solo resuelve el sistema de ecuaciones, sino que además proporciona la
factorización A = LV.
10 Elverbo pivotear, aun no reconocido por la Real Academia Española, viene del francés pivoter: girar en
torno de un punto de apoyo (pivot). En la práctica de la programación lineal, un “pivote” es un elemento no cero
de una matriz que sirve de marcador para luego convertir las demás entradas de su columna en ceros mediante
operaciones de fila del segundo tipo.
MA–460: Algebra Lineal II 16
La matriz triangular L es “unipotente”, es decir, todas sus entradas diagonales son iguales
a 1. Además, las entradas diagonales a(k)
kk
de V no son ceros. Por tanto, V puede factorizarse a
su vez en un producto V = DU, donde D es la matriz diagonal con dkk = a(k) kk
, y U es la matriz
triangular superior unipotente obtenida al dividir cada fila de V por su entrada diagonal.
De este modo se obtiene la factorización A = LDU, en donde D es diagonal y L, U son
triangulares unipotentes.
I Hay matrices que no admiten este tipo de factorización. La eliminación gaussiana de un
sistema Ax = b es simple si se reduce a un sistema triangular V x = c con operaciones de
fila del segundo tipo solamente. En tal caso, se obtiene A = LV donde L es el producto de
matrices de tipo Rik (−c) con i < k, c ∈ F y las entradas diagonales de V no son ceros.
En el caso contrario, se obtiene a(k)
kk
= 0 para algún k y es necesario intercambiar algunas
filas para continuar con la eliminación. Si (y sólo si) la matriz original A es inversible,
se llegará eventualmente al deseado sistema triangular V x = c. El algoritmo produce una
factorización más general de tipo A = PLV para matrices inversibles, donde P es un producto
de matrices de tipo Pik .
Para obtener esta factorización, se subdivide el algoritmo en pasos: el paso número k
consiste de operaciones de fila con el fin de reemplazar con ceros todas las entradas de la
columna k debajo de la diagonal. Si después de (k − 1) pasos, la entrada (k, k) también es
cero, se busca una fila j con j > k cuya entrada (k, j) no sea cero;11 luego, se intercambian
las filas j y k y se guarda cuenta de la matriz Pk j que registra el cambio de filas. El nuevo
elemento no cero en la posición (k, k) es el pivote a(k)
kk
, y se procede al paso número (k + 1).
El factor P de A es el producto ordenado, de derecha a izquierda,12 de todos los Pk j que
ocurren durante el proceso. Se puede mostrar que la matriz P−1 A admite una eliminación
gaussiana simple, de donde P−1 A = LV. En otras palabras, se puede empezar de nuevo con el
sistema Ax = b, ejecutando al inicio todos los intercambios de fila que serán eventualmente
necesarias, para obtener un sistema P−1 Ax = P−1 b; a partir de allı́, se puede continuar con
operaciones de fila del segundo tipo solamente.13
El algoritmo de eliminación termina sin éxito si en algún paso número k, la entrada dia-
gonal (k, k) es cero y todas las entradas debajo de ésta en la columna k también son ceros. Si
(y sólo si) esto ocurre, el rango de la matriz A es menor que n y por ende A no es inversible.
I En el caso general, en donde A es una matriz rectangular m × n, la existencia y unicidad de
soluciones es dado por la Proposición siguiente.
Definición 1.35. Se dice que una matriz A ∈ Fm×n , está en forma escalonada si:
(a) hay algunas columnas iguales a los vectores iniciales de la base estándar de Fm ; es
decir, a j1 = e1 , a j2 = e2 , . . . , a jk = ek para algún k;
(c) si j < j1 , entonces a j = 0; si jr < j < jr+1 , entonces los últimos (m − r) elementos de a j
son ceros; y si j > jk , entonces los últimos (m − k) elementos de a j son ceros.
Proposición 1.36. Cualquier matriz A ∈ Fm×n puede transformarse en una única forma
escalonada mediante operaciones de fila.
Proposición 1.37. Si A ∈ Fm×n es una matriz en forma escalonada con k columnas básicas,
entonces T A (Fn ) = linhe1 , . . . , ek i y por ende r(A) = k.
Proposición 1.38. Dos matrices A, B ∈ Fm×n son equivalentes si y sólo si se puede transfor-
mar A en B por operaciones de fila y de columna, si y sólo si r(A) = r(B).
Proposición 1.39. Si A ∈ Fm×n es una matriz de rango k, hay matrices inversibles Q ∈ Mm (F),
P ∈ Mn (F) tales que " #
Ik O
QAP = ,
O O
en donde cada O es un bloque rectangular de ceros.
colocar las columnas básicas de B en las primeras k posiciones, manteniendo el orden relativo
de las columnas no básicas.
Una operación de columna sobre B puede hacerse como sigue: (i) transponer B 7→ Bt ;
(ii) hacer la correspondiente operación de fila sobre Bt por una premultiplicación Bt 7→ MBt
donde M es una matriz de tipo (1.12); (iii) transponer de nuevo, MBt 7→ BM t . En resumen,
una operación de columna elemental se efectúa al posmultiplicar B por cierta matriz in-
versible. Por tanto, una sucesión de operaciones de columna transforma B en BP0 , donde P0
es una matriz inversible. El resultado de mover las columnas básicas de B a la izquierda es
entonces " # " #
Ik F Ik O
QAP =0
, (QAP ) = t
0 t
,
O O F O
en donde F es un bloque k × (n − k). Si F , O, se aplica eliminación gaussiana simple a la
matriz (QAP0 )t : esto reduce el bloque F t a O. Esta eliminación se obtiene por una premulti-
plicación (QAP0 )t 7→ P00 (QAP0 )t con P00 inversible. Sea P := P0 (P00 )t ; entonces
" #
0 t t Ik O
QAP = (QAP )(P ) = P (QAP ) =
0 00 t 00
.
O O
1.5 Determinantes
# "
a b
El determinante de la matriz cuadrada A := ∈ M2 (F) se define por
c d
a b
det A := := ad − bc ∈ F.
c d
El determinante de una matriz 3 × 3 puede definirse “por expansión según la primera fila”:
a11 a12 a13
a21 a22 a23 := a11 a22 a23 − a12 a21 a23 + a13 a21 a22
a32 a33 a31 a33 a31 a32
a31 a32 a33
= a11 a22 a23 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 . (1.13a)
MA–460: Algebra Lineal II 19
Para una matriz cuadrada A =∈ Mn (F), se puede definir el determinante por inducción,
como sigue. Si n = 1, se define det [a11 ] := a11 ∈ F. Supóngase que se dispone de una
definición del determinante para matrices en Mn−1 (F). Si A ∈ Mn (F), sea Ai j —con A mayús-
cula— la submatriz de A obtenida al borrar la fila i y la columna j de A. Cada Ai j es una
matriz (n − 1) × (n − 1). Escrı́base
mi j := det Ai j .
Este escalar mi j se llama el menor de la matriz A correspondiente a la entrada ai j . Obsérvese
que la ecuación (1.13a) puede abreviarse con esta notación:
det A = a11 m11 − a12 m12 + a13 m13 . (1.13b)
Cuando n = 2, es m11 = a22 y m12 = a21 , ası́ que det A = a11 a22 − a12 a21 = a11 m11 − a12 m12 .
Definición 1.40. Si A ∈ Mn (F); se define det A ∈ F por expansión según la primera fila:
n
X
det A := a11 m11 − a12 m12 + · · · + (−1) a1n m1n =
1+n
(−1)1+ j a1 j m1 j , (1.14a)
j=1
impar en el caso contrario. Si σ es el producto de k transposiciones, entonces (−1)σ := (−1)k por definición.
MA–460: Algebra Lineal II 20
Demostración. Sea C := AB. Por (1.15), det C es una suma de productos ±c1 j1 c2 j2 · · · cn jn .
Cada ck jk es a su vez una suma de términos nik =1 akik bik jk y por ende
P
Esta suma extiende sobre las permutaciones σ = ( j1 , . . . , jn ) de (1, 2, . . . , n) y sobre toda posi-
bilidad para i1 , . . . , in . Cuando dos de los ik son iguales, la suma σ (−1)σ bi1 j1 bi2 j2 . . . bin jn se
P
anula por cancelación de términos, ası́ que aparecen en (1.16) solamente aquellos términos
en donde τ = (i1 , . . . , in ) es una permutación de (1, 2, . . . , n).
Sea ρ = (r1 , . . . , rn ) la permutación de (1, 2, . . . , n) que transforma cada ik en el jk corres-
pondiente. Entonces σ es la composición de las dos permutaciones τ y ρ, es decir, σ = ρ ◦ τ,
ası́ que (−1)σ = (−1)ρ (−1)τ . En conclusión,
X X
det (AB) = (−1)τ a1i1 a2i2 · · · anin (−1)ρ b1r1 b2r2 · · · bnrn = (det A)(det B).
τ ρ
Proposición 1.43. Las operaciones de fila elementales, aplicadas a una matriz A ∈ Mn (F),
cambian su determinante de las siguientes maneras:
donde Mi (c), Rik (c) y Pik son las matrices definidas por (1.12).
Al expandir det A en cualquier fila i de A que tenga 1 en la diagonal y 0 en las demás
entradas, la fórmula (1.14b) muestra que det A = (−1)i+i mii = mii . En consecuencia, se puede
eliminar la fila i y también la columna i de A sin cambiar el determinante.
En las tres matrices definidas en (1.12), se puede eliminar ası́ todas las filas y columnas
excepto aquellas numeradas i y k —para Mi (c), se puede tomar cualquier k con k , i. La
expansión según filas (1.14b) reduce el cálculo de estos determinantes al caso 2 × 2, en donde
1 0 1 0 0 1
det Mi (c) = = c, det Rik (c) = = 1, det Pik = = −1.
0 c −c 1 1 0
(−1)σ a j1 1 a j2 2 . . . a jn n ;
X
det At =
σ∈S n
Proposición 1.45. Si A ∈ Mn (F) es una matriz triangular, entonces det A = a11 a22 . . . ann es el
producto de los elementos diagonales de A. En particular, det In = 1.
Demostración. Supóngase que A es una matriz triangular inferior. La expansión (1.14a)
según la primera fila da det A = a11 m11 . La submatriz A11 también es triangular inferior, y su
determinante es m11 = a22 m12,12 , donde m12,12 es el menor correspondiente a la entrada a22 .
Al repetir este argumento (n − 2) veces, se obtiene
an−1,n−1 0
det A = a11 a22 . . . an−2,n−2 = a11 a22 . . . ann .
an,n−1 ann
Demostración. Si A es inversible, tenemos 1 = det In = (det A)(det A−1 ), ası́ que det A no
puede ser cero.
Considérese el efecto de aplicar a la matriz A unos k pasos del algoritmo de eliminación
gaussiana, con intercambio de filas cuando sea necesario, usando las operaciones de fila del
segundo y tercer tipos. El resultado de este proceso es una matriz de la forma
" 0
U X0
#
A =
0
, con U 0 ∈ Mk (F), Y 0 ∈ Mn−k (F),
O Y0
donde U 0 es triangular superior y sus elementos diagonales son los pivotes a11 , a(2) (k)
22 , . . . , akk ;
O es un bloque rectangular (n − k) × k de ceros; y X 0 es una matrix k × (n − k). La Proposición
1.43 muestra que det A0 = ± det A. Al expandir det A0 según la primera columna k veces, se
obtiene
det A0 = a11 a(2) (k)
22 . . . akk det Y .
0
Proposición 1.48. Sea A ∈ Fm×n . Su rango r(A) es el mayor entero k tal que A posee una
submatriz B de dimensiones k × k con det B , 0.
ese término para el conjugado hermı́tico A∗ , que se verá en adelante. Algunos autores lo llaman el “adjunto
clásico” de A; véase, por ejemplo: Kenneth Hoffman y Ray Kunze, Algebra Lineal, Prentice-Hall Internacional,
Madrid, 1972. Aquı́ se adopta el convenio de usar la palabra adjugada, una mezcla inelegante de “adjunta” y
“conjugada”, con las disculpas apropiadas.
MA–460: Algebra Lineal II 24
La fórmula (1.18) proporciona una fórmula para la matriz inversa de una matriz no sin-
gular A. Si det A , 0, entonces
1
A−1 = adj A.
det A
En el caso 2 × 2, esta relación es
" #−1 " #
a b 1 d −b
= .
c d ad − bc −c a
al usar la expansión (1.14c) en la columna j para evaluar det B j . Al dividir esta relación por
det A, se obtiene (1.20).
Ejercicio 1.4. Demostrar que {1, (t − 1), (t − 1)2 , . . . , (t − 1)n } es una base para el espacio vec-
torial Fn [t] de polinomios de grado no mayor que n.
Ejercicio 1.6. Sea V un espacio vectorial finitodimensional sobre F y sean M, N dos subes-
pacios de V. Demostrar que su intersección M ∩ N y su suma M + N son también subespacios
de V. Verificar la fórmula
[[ Indicación: Elı́jase una base para M ∩ N y completarla de dos maneras para formar bases
de M y de N. Verificar que la unión de estas dos bases es una base para M + N. ]]
Ejercicio 1.9. Encontrar los subespacios ker T y T (R3 ) y las dimensiones n(T ) y r(T ), si
T ∈ L(R3 , R3 ) y la matriz de T respecto de la base estándar {e1 , e2 , e3 } es
1 2 3
A := 2 4 6 .
3 6 9
MA–460: Algebra Lineal II 26
Ejercicio 1.10. Si T ∈ L(V, W), S ∈ L(W, Z), demostrar las siguientes relaciones entre núcleos
e imágenes:
ker(S T ) ⊇ ker T, S T (V) ⊆ S (W),
ker((S T )t ) ⊇ ker(S t ), (S T )t (Z ∗ ) ⊆ T t (W ∗ ).
Concluir que r(S T ) ≤ r(S ) y que r(S T ) ≤ r(T ).
Ejercicio 1.11. (a) Si V, W son espacios vectoriales finitodimensionales con dim V > dim W,
y si T ∈ L(V, W), demostrar que T no es inyectivo.
(b) Sea C[a, b] := { f : [a, b] → R continua }. Defı́nase T : C[a, b] → C[a, b] por
Z x
(T f )(x) := f (y) dy.
a
Demostrar que T es lineal e inyectiva, pero no sobreyectiva. Concluir que C[a, b] es infini-
todimensional sobre R.
Ejercicio 1.12. Si A ∈ Mn (F) es una matriz inversible, demostrar que (At )−1 = (A−1 )t . Con-
cluir que A−1 es simétrica cuando A es simétrica.
Ejercicio 1.13. Calcular (por inducción sobre n) las potencias An , Bn , C n de las siguientes
matrices:
" # a 1 0 " #
a 1 1 a
A := , B := 0 a 1 , C := , donde a ∈ F.
0 a 0 1
0 0 a
Ejercicio 1.14. La base estándar para M2 (F) es E := {E11 , E12 , E21 , E22 }, donde
" # " # " # " #
1 0 0 1 0 0 0 0
E11 = , E12 = , E21 = , E22 = .
0 0 0 0 1 0 0 1
" #
a b
Si M = , defı́nase L M (A) := MA, R M (A) := AM y T (A) := At . Demostrar que L M , R M
c d
y T son aplicaciones lineales de M2 (F) en sı́ mismo y calcular sus matrices 4 × 4 con respecto
a la base estándar.
Ejercicio 1.15. Sea A una matriz triangular superior con ceros en la diagonal:
0 a12 a13 . . . a1n
23 . . . a2n
0 0 a
A := 0 0 0 . . . a3n ,
.. .. .. . . .
. . . . ..
0 ... 0
0 0
ası́ que ai j = 0 para i ≥ j. Demostrar que An = O. Concluir que In + A es inversible, con
(In + A)−1 = In − A + A2 − · · · + (−1)n−1 An−1 .
1 a b
Usar esta relación para calcular el inverso de la matriz 0 1 c.
0 0 1
MA–460: Algebra Lineal II 27
x1 + x2 + x3 = 0
3x1 + 3x2 + 4x3 = 2
x1 + 2x2 + x3 = −4
por el método de eliminación gaussiana. Usar el resultado del cálculo para escribir explı́cita-
mente las matrices L, D, U de la factorización A = LDU.
Ejercicio 1.18. Convertir cada uno de estas matrices en la forma escalonada equivalente:
2 −1 3 1 1
1 2 0 2 1 −1 0 −2 1 −3
A = −1 −2 1 1 0 , B = .
1 2 −1 −4 3
1 2 −3 −7 −2
3 2 −2 −3 −1
Ejercicio 1.19. Calcular r(A), encontrar una base para el espacio de soluciones de Ax = 0 y
describir el conjunto de soluciones de Ax = b, donde
1 −1 2 0 3 −1
0 2 1 3 1 −4
[A | b] := .
−1 1 5 1 0 3
−1 0 1 −1 −2 4
Ejercicio 1.20. Demostrar que cada matriz de rango k es una suma de k matrices de rango 1.
[[ Indicación: Usar la Proposición 1.39. ]]
1 x x2 x3
1 y y2 y3
2 = (x − y)(x − z)(x − w)(y − z)(y − w)(z − w).
z3
1 z z
1 w w2 w3
Ejercicio 1.28. Calcular la matriz adjugada (adj A) y la matriz inversa A−1 para
1 −1 2
A := 0 2 3 .
−2 3 1
Ejercicio 1.29. (a) Si A ∈ Mn (F) con n ≥ 2, demostrar que det (adj A) = (det A)n−1 .
(b) Concluir que adj(adj A) = (det A)n−2 A si n ≥ 3.
[[ Indicación: Considerar el producto de matrices A (adj A) adj(adj A). ]]
" #
A b
n
Ejercicio 1.30. Si A ∈ Mn (F), b, c ∈ F y d ∈ F, sea t la matriz (n + 1) × (n + 1) formado
c d
al bordear A por la columna b, la fila ct y la entrada d. Demostrar que
" #
A b
det t = d det A − ct (adj A)b.
c d
x1 + 4x2 − x3 = 1
x1 + x2 + x3 = 0
2x1 + 3x3 = 0 .
Ejercicio 1.32. (a) Sean (x, y) las coordenadas de un punto en R2 . Demostrar que la recta que
pasa por dos puntos (x1 , y1 ) y (x2 , y2 ) tiene la ecuación
1 x y
1 x1 y1 = 0.
1 x2 y2
(b) Demostrar que el cı́rculo que pasa por tres puntos (x1 , y1 ), (x2 , y2 ) y (x3 , y3 ) tiene la
ecuación
x y x2 + y2
1
x1 y1 x12 + y21
1
= 0.
x2 y2 x22 + y22
1
x3 y3 x32 + y23
1
[[ Indicación: Comprobar que esta ecuación representa un cı́rculo y luego que pasa por los
tres puntos dados. ]]
MA–460: Algebra Lineal II 30
en 1904 en un artı́culo sobre ecuaciones integrales: Eigen = auto, wert = valor. (Huyan de las malas traduc-
ciones que hablan de “eigenvalores” y “eigenvectores”.) La usanza moderna aparece en: John von Neumann,
“Allgemeine Eigenwerttheorie Hermitescher Funktionaloperatoren”, Mathematische Annalen 102 (1929), 49–
131. Von Neumann declara: Ein Eigenwert ist eine Zahl λ, zu der es eine Funktion f , 0 mit R f = λ f gibt; f ist
dann Eigenfunktion.
MA–460: Algebra Lineal II 31
Por la discusión después de la Definición 1.27, se sabe que [T (x)]B = A [x]B , de modo que
las correspondencias T ↔ A ↔ T A establecen isomorfismos lineales entre End(V), Mn (F)
y End(Fn ). Además, estas correspondencias convierten la composición de operadores en
multiplicación de matrices y viceversa, de modo que estas tres F-álgebras son isomorfos
como álgebras sobre F.
Ası́ las cosas, cada propiedad de aplicaciones lineales induce una propiedad paralela de
matrices. Por ejemplo, las matrices pueden poseer autovalores y autovectores.
Definición 2.3. Sea A ∈ Mn (F) una matriz cuadrada. Un autovalor de A es un autovalor de
T A , es decir, un escalar λ ∈ F tal que la ecuación
Ax = λ x
tenga una solución x , 0 en Fn . Un vector no nulo x ∈ Fn tal que Ax = λ x es un autovector
de A asociado al autovalor λ.
Lema 2.4. Sea V un espacio vectorial finitodimensional sobre F. Para un operador lineal
T ∈ End(V) y λ ∈ F, son equivalentes las siguientes condiciones:
(a) λ es un autovalor de T ;
(b) el operador lineal (T − λI) no es inversible en End(V);
(c) ker(T − λI) , {0}.
Demostración. (a) ⇐⇒ (b): Un escalar λ es un autovalor de T si y sólo si hay x ∈ V con
x , 0 y T (x) = λx, si y sólo si hay x , 0 tal que (T − λI)(x) = 0, si y sólo si (T − λI) no
es inyectivo, si y sólo si (T − λI) no es biyectivo. Esta última equivalencia se debe a que
n(T − λI) + r(T − λI) = dim V; por lo tanto, un operador lineal es inyectivo si y sólo si es
sobreyectivo.4
(b) ⇐⇒ (c): Hay un vector x , 0 tal que (T − λI)(x) = 0 si y sólo si hay x ∈ ker(T − λI)
con x , 0.
Lema 2.5. Para una matriz cuadrada A ∈ Mn (F) y λ ∈ F, son equivalentes las siguientes
condiciones:
(a) λ es un autovalor de A;
(b) la matriz (A − λIn ) no es inversible en Mn (F);
(c) det (A − λIn ) = 0.
4 Estaconclusión depende de la finitud de dim V, para que las igualdades n(T − λI) = 0 y r(T − λI) = dim V
sean equivalentes. Sobre espacios vectoriales de dimensión infinita, hay operadores lineales inyectivas pero no
sobreyectivas. Véase el Ejercicio 1.11, por ejemplo.
MA–460: Algebra Lineal II 32
Demostración. La equivalencia (a) ⇐⇒ (b) sigue del lema anterior, para el caso T = T A . La
equivalencia (b) ⇐⇒ (c) sigue de la Proposición 1.47.
Corolario 2.6. Si A ∈ Mn (F) es una matriz triangular, sus autovalores son sus elementos
diagonales a11 , a22 , . . . , ann .
Demostración. Supóngase que A es triangular superior, es decir, ai j = 0 para i > j. Si λ es
un autovalor de A, entonces det (A − λIn ) = 0 o bien, lo que es lo mismo, det (λIn − A) = 0.
Explı́citamente,
donde cada uno de los “otros términos” es un producto de (±1) por n entradas de la matriz
t In − A, de las cuales a lo sumo (n − 2) entradas pueden ser diagonales: esta parte forma un
polinomio de grado no mayor que (n − 2). Entonces se ve que
[[ La Proposición 2.16, más adelante, ofrece fórmulas para todos los coeficientes de pA (t). ]]
El polinomio pA (t) es un polinomio mónico,5 es decir, su primer coeficiente no nulo es 1.
5 Algunos autores definen pA (t) := det (A − t In ). Bajo ese convenio, el primer coeficiente no nulo serı́a (−1)n .
No es mucha la diferencia; sin embargo, es más cómodo elegir el signo de manera que el polinomio caracterı́stico
sea mónico.
MA–460: Algebra Lineal II 33
Lema 2.8. Si A, B ∈ Mn (F) son dos matrices semejantes, entonces det B = det A.
Demostración. Las matrices A y B son semejantes si y sólo si hay una matriz inversible P tal
que B = P−1 AP. Ahora det P−1 = 1/(det P) porque (det P−1 )(det P) = det (P−1 P) = det In = 1.
Entonces
det B = det (P−1 AP) = (det P−1 )(det A)(det P) = det A.
Corolario 2.9. Si A, B ∈ Mn (F) son matrices semejantes, entonces pB (t) = pA (t).
Definición 2.10. Si V es un espacio vectorial de dimensión finita sobre F y si T ∈ End(V),
su determinante det T ∈ F se define por det T := det [T ]B B
, donde B es una base cualquiera
de V.
El escalar det T está bien definida, porque si A = [T ]B
B
y B = [T ]CC son las matrices de T
con respecto a dos bases distintas B, C de V, entonces la matriz de cambio de base P = [I]B C
es inversible, con inverso P−1 = [I]CB ; por tanto,
B = [T ]CC = [I]CB [T ]B B
B [I]C = P AP
−1
(2.4)
y del Lema 2.8 se concluye que det B = det A.
Definición 2.11. Sea T ∈ End(V) un operador lineal sobre un espacio vectorial finitodimen-
sional V. El polinomio caracterı́stico de T es el polinomio pT (t) ∈ F[t] definido por
pT (t) := det (t I − T ) = (−1)dim V det (T − t I). (2.5)
Proposición 2.12. Si A ∈ Mn (F) es una matriz cuadrada, los autovalores de A son las raı́ces
de su polinomio caracterı́stico pA (t). Por lo tanto, A posee a lo sumo n autovalores distintos.
Demostración. El Lema 2.5 dice que λ es un autovalor de A si y sólo si pA (λ) = 0.
Ejemplo 2.13. Considérese la siguiente matriz J ∈ M2 (F):
" #
0 1
J= . (2.6)
−1 0
t −1 2
Su polinomio caracterı́stico es = t + 1. Ahora, si F = R ó Q, el polinomio t2 + 1 es
1 t
irreducible6 y no posee raı́ces en F. Este es un ejemplo de una matriz que no posee autovalor
alguno en F.
Por otro lado, si F = C, la factorización t2 + 1 = (t − i)(t + i) muestra que {i, −i} podrı́an ser
autovalores de J. Es fácil adivinar un par de autovectores en C2 , para verificar que i y −i son
en efecto autovalores de J; por ejemplo,
" #" # " # " # " #" # " # " #
0 1 1 i 1 0 1 1 −i 1
= =i , = = −i .
−1 0 i −1 i −1 0 −i −1 −i
6 En el caso F = F p := {0, 1, . . . , p − 1}, el cuerpo finito de residuos módulo división por un entero primo p,
la existencia de raı́ces de t2 + 1 en F p es un tema interesante de la teorı́a de números. Se sabe que −1 es un
cuadrado módulo p si y sólo si p = 2 o bien p = 4m + 1 para algún m ∈ N.
MA–460: Algebra Lineal II 34
Luego pA (t) = t3 − 3t, con raı́ces λ = 0, 3, −3; estos son los tres autovalores de A.
Ahora bien: para obtener los autovectores correspondientes, hay que resolver (por elimi-
nación gaussiana) los tres sistemas de ecuaciones de ecuaciones homogéneas (λI3 − A)x = 0
para λ = 0, 3, −3 respectivamente. En cada caso, se cambia la matriz aumentada [λI3 − A | 0]
a la forma [V | 0] con V triangular superior mediante operaciones de fila y se resuelve la
ecuación V x = 0 por “sustitución regresiva”. En cada caso, la última fila de [V | 0] es nula,
que corresponde a la ecuación trivial 0x3 = 0, con lo cual la variable x3 queda libre: el auto-
vector queda determinado hasta el múltiplo x3 . En detalle:
−1 0 −2 0 −1 0 −2 0 −1 0 −2 0
Caso λ = 0 : 0 1 2 0 7−→ 0 1 2 0 7−→ 0 1 2 0 ;
−2 2 0 0 0 2 4 0 0 0 0 0
en cuyo caso (leyendo las filas de abajo para arriba),
−2x3 −2
0x3 = 0, x2 + 2x3 = 0, −x1 − 2x3 = 0 =⇒ x = −2x3 = x3 −2 .
x3 1
Además,
2 0 −2 0 2 0 −2 0 2 0 −2 0
Caso λ = 3 :
0 4 2 0 −
7 → 0 4 2 0 − 7 → 0 4 2 0 ;
−2 2 3 0 0 2 1 0 0 0 0 0
cuya solución es
x3 2
1 1
0x3 = 0, 4x2 + 2x3 = 0, 2x1 − 2x3 = 0 =⇒ x = − 2 x3 = 2 x3 −1 .
2
x3
MA–460: Algebra Lineal II 35
Seguidamente,
−4 0 −2 0 −4 0 −2 0 −4 0 −2 0
Caso λ = −3 : 0 −2 2 0 7−→ 0 −2 2 0 7−→ 0 −2 2 0 ;
−2 2 −3 0 0 2 −2 0 0 0 0 0
cuya solución es
1
− 2 x3 −1
1
0x3 = 0, −2x2 + 2x3 = 0, −4x1 − 2x3 = 0 =⇒ x = x3 = 2 x3 2 .
2
x3
Estos tres autovectores forman las columnas de una matriz
−2 2 −1
P = −2 −1 2 .
1 2 2
Se ve por cálculo directo que AP = PD, donde D es una matriz diagonal. En efecto,
1 0 2 −2 2 −1 0 6 3 −2 2 −1 0 0 0
AP = 0 −1 −2 −2 −1 2 = 0 −3 −6 = −2 −1 2 0 3 0 = PD.
2 −2 0 1 2 2 0 6 −6 1 2 2 0 0 −3
I Para obtener una fórmula para el polinomio caracterı́stico, conviene introducir un poco de
notación para submatrices.
Notación. Considérese dos juegos de ı́ndices I := {i1 , . . . , ik } ⊆ {1, . . . , m} y J := { j1 , . . . , jl } ⊆
{1, . . . , n}, numerados en orden creciente: i1 < i2 < · · · < ik y j1 < j2 < · · · < jl . Si A es una
matriz m × n, denótese por AI J la submatriz k × l de A formado por las entradas ai j con i ∈ I,
j ∈ J.
Sean I 0 := {1, . . . , m} \ I y también J 0 := {1, . . . , n} \ J. Se dice que la submatriz AI 0 J 0 es
complementaria a AI J .
MA–460: Algebra Lineal II 36
Definición 2.15. Si A ∈ Mn (F) es una matriz cuadrada y si I = {i1 , . . . , ik } ⊆ {1, . . . , n}, entonces
AII ∈ Mk (F) se llama una submatriz principal de A. Su ndeterminante mII := det AII se llama
un menor principal de A. Para cada k = 1, . . . , n, hay k menores principales de A obtenidos
de submatrices k × k.
Proposición 2.16. Si A ∈ MN (F) es una matriz cuadrada, su polinomio caracterı́stico tiene
la forma
pA (t) = tn − τ1 (A) tn−1 + τ2 (A) tn−2 − · · · + (−1)n−1 τn−1 (A) t + (−1)n τn (A), (2.8a)
el coeficiente de tn−k es la suma de todos los términos obtenidos de la siguiente forma: elı́janse
k ı́ndices I = {i1 , . . . , ik } ⊆ {1, . . . , n}; tómese el término t del binomio (t − all ) para l < I; fórmese
el producto de estos t con términos (−ai j ) de las filas I y las columnas I sin repetir filas ni
columnas; multiplı́quese por el signo de la permutación de filas contra columnas. De este
modo, el coeficiente de tn−k es
|I|=k σ
donde la suma recorre las permutaciones σ ∈ S n que dejan fijos los ı́ndices diagonales en I 0 ,
es decir, σ(ir ) = jr para r = 1, . . . , k; σ(l) = l para l < I. Entonces se puede escribir σ = τρII 0 ,
donde ρII 0 es la permutación de baraje7 que lleva (1, . . . , n) en (I, I 0 ) = (i1 , . . . , ik , i01 , . . . , i0n−k )
con i1 < · · · < ik y i01 < · · · < i0n−k ; y τ es una permutación de {1, . . . , k} que deja fijos k + 1, . . . , n.
Luego, el coeficiente de tn−k es
(−1)τ (−ai1 iτ(1) ) . . . (−aik iτ(k) ) = (−1)k (−1)τ ai1 iτ(1) . . . aik iτ(k) = (−1)k
XX XX X
det AII .
|I|=k τ |I|=k τ |I|=k
Corolario 2.17. Las sumas de menores principales son invariantes bajo semejanza: si A ∈
Mn (F) y si P ∈ Mn (F) es inversible, entonces τk (A) = τk (P−1 AP) para k = 1, . . . , n.
tr A = λ1 + λ2 + · · · + λn ,
τ2 (A) = λ1 λ2 + λ1 λ3 + · · · + λn−1 λn ,
τ3 (A) = λ1 λ2 λ3 + λ1 λ2 λ4 + · · · + λn−2 λn−1 λn ,
.. ..
. .
det A = λ1 λ2 . . . λn . (2.9)
De hecho, estas fórmulas valen para cualquier matriz A cuyos autovalores son λ1 , . . . , λn ,
como se verá más adelante.
I El argumento de la demostración anterior es aplicable al cálculo de determinantes. Hay una
generalización importante del desarrollo según una fila (o columna), que consiste en expandir
en varias filas (o columnas) a la vez. La fórmula siguiente se conoce como el desarrollo de
Laplace de un determinante.8
Proposición 2.18. Sea A ∈ Mn (F) una matriz cuadrada y sea I = {i1 , . . . , ik } un juego de ı́ndices
de las filas de A. Si J = { j1 , . . . , jk } es un juego de ı́ndices de k columnas cualesquiera, sea
s(I, J) := i1 + · · · + ik + j1 + · · · + jk . Entonces
X
det A = (−1) s(I,J) (det AI J ) (det AI 0J 0 ),
|J|=k
n
donde la sumatoria recorre las k posibilidades para J.
un anillo entero si para a, b ∈ A, la relación ab = 0 implica a = 0 o bien b = 0. Esta es una propiedad clave de
los números enteros Z. A veces A se llama “dominio entero” o, menos correctamente, “dominio de integridad”:
Kronecker empleó este término para distinguirlo de un cuerpo, que él llamó “dominio de racionalidad”.
MA–460: Algebra Lineal II 38
Corolario 2.21 (“Teorema del factor”). Un polinomio f (t) tiene (t − a) como factor de primer
grado si y sólo si f (a) = 0.
Definición 2.22. Si f (t), g(t) son dos polinomios en F[t], su máximo común divisor k(t) =
mcd( f (t), g(t)) es el (único) polinomio tal que
(i) k(t) \ f (t), k(t) \ g(t);
f (t) = q1 (t)g(t) + r1 (t), g(t) = q2 (t)r1 (t) + r2 (t), r1 (t) = q3 (t)r2 (t) + r3 (t), . . .
r j−2 (t) = q j (t)r j−1 (t) + r j (t), r j−1 (t) = q j+1 (t)r j (t) + 0, (2.11)
donde los grados de los residuos decrecen hasta que algún residuo se anule. Si es el último
residuo no nulo es r j (t) = dm tm + · · · + d0 , no es difı́cil comprobar que k(t) := dm
−1 r (t) cumple
j
las tres propiedades de la Definición anterior.
Lema 2.23. Dados dos polinomios f (t), g(t) ∈ F[t], existen otros dos polinomios a(t), b(t)
tales que
a(t) f (t) + b(t) g(t) = mcd( f (t), g(t)).
Demostración. Fı́jese que r1 (t) = f (t) − q1 (t)g(t), a partir de (2.11). Además,
Por sustitución repetida, se hallan ai (t), bi (t) ∈ F[t] tales que ri (t) = ai (t) f (t) + bi (t)g(t), para
i = 1, . . . , j. Al dividir la j-ésima de estas ecuaciones por el coeficiente inicial de r j (t), se
obtiene la relación deseada.
Corolario 2.24 (Identidad de Bézout). Dos polinomios f (t), g(t) son relativamente primos:
mcd( f (t), g(t)) = 1, si y sólo si hay polinomios a(t), b(t) ∈ F[t] tales que
La aplicación f (t) 7→ f (A) : F[t] → Mn (F) es lineal y lleva productos de polinomios en pro-
ductos de matrices, es decir, es un homomorfismo de álgebras sobre F.
De igual manera, sea T ∈ End(V), donde V es un espacio vectorial sobre F. Defı́nase
f (T ) := cn T n + · · · + c1 T + c0 I ∈ End(V). (2.12b)
Si A = [T ]B
B
es la matriz de T con respecto a una base B de V, entonces p(A) = [p(T )]B
B
.
Los homomorfismos de la Definición 2.25 no son sobreyectivos, porque las álgebras
Mn (F) y End(V) no son conmutativos. Tampoco son inyectivos, porque Mn (F) y End(V)
son finitodimensionales y F[t] es infinitodimensional. Entonces, dada una matriz A, debe de
haber polinomios no nulos f (t) tales que f (A) = 0. El siguiente teorema, debido a Hamilton11
y a Cayley,12 proporciona un polinomio especı́fico con esta propiedad, el cual de hecho es el
polinomio caracterı́stico de A.
Teorema 2.26 (Cayley–Hamilton). Sea A ∈ Mn (F) una matriz cuadrada y sea pA (t) ∈ F[t] su
polinomio caracterı́stico. Entonces pA (A) = O en Mn (F).
Philosophical Transactions of the Royal Society of London 148 (1858), 17–37. Allı́ enunció el teorema para
matrices cuadradas en general, aunque sólo mostró los casos 2 × 2 y 3 × 3.
13 La regla de Cramer es válido para matrices con entradas escalares. Para justificar (2.13), se puede reem-
plazar t por λ ya que se verifica la ecuación correspondiente para todo λ ∈ F. Mejor aun, se ve que la fórmula
B adj B = (det B) In es una abreviatura para n2 identidades polinomiales en las entradas de B ∈ Mn (F), que sigue
válido cuando el cuerpo de escalares F queda reemplazada por el álgebra F[t].
MA–460: Algebra Lineal II 41
Al igualar las potencias de t en ambos lados de esta ecuación, se obtiene las siguientes igual-
dades:
−AB0 = c0 In ,
AB0 − A2 B1 = c1 A,
.. .
. = ..
An−1 Bn−2 − An Bn−1 = cn−1 An−1 ,
An Bn−1 = An .
Corolario 2.27. Sea T ∈ End(V) un operador lineal sobre el espacio vectorial V y sea pT (t) ∈
F[t] su polinomio caracterı́stico. Entonces pT (T ) = 0 en End(V).
Proposición 2.28. Sea A ∈ Mn (F) una matriz cuadrada. Entre todos los polinomios mónicos
f (t) ∈ F[t] tales que f (A) = O, hay un único q(t) de mı́nimo grado. Este q(t) divide cualquier
f (t) tal que f (A) = O.
Demostración. Sea f (t) cualquier polinomio con f (A) = O y sea q(t) cualquier polinomio
mónico tal que q(A) = O en Mn (F). Por divisibilidad con residuo (2.10), se puede escribir
para un único par de polinomios s(t), r(t), donde gr r(t) < gr q(t) si r(t) no es nulo.
Además, r(A) = f (A) − s(A)q(A) = O. Cuando m = gr q(t) tiene su menor valor posible, se
concluye que r(t) = 0. Por lo tanto, f (t) = s(t)q(t), es decir, q(t) \ f (t).
Si q̃(t) es otro polinomio mónico de grado m con q̃(A) = O, el mismo argumento muestra
que q̃(t) = u(t)q(t) para algún polinomio u(t). Por conteo de grados, se ve que gr u(t) = 0, es
decir, u(t) es constante. Como q(t) y q̃(t) son mónicos, es u(t) = 1; luego q̃(t) = q(t).
Corolario 2.29. Sea T ∈ End(V) un operador lineal. Entre todos los polinomios mónicos
f (t) ∈ F[t] tales que f (T ) = 0, hay un único q(t) de mı́nimo grado. Este q(t) divide cualquier
f (t) tal que f (T ) = 0.
14 Ya se sabe por (2.8) que ck = (−1)n−k τn−k (A), pero esta demostración no requiere la fórmula explı́cita.
MA–460: Algebra Lineal II 42
Definición 2.30. Sea A ∈ Mn (F) una matriz cuadrada. El polinomio mónico qA (t) de mı́nimo
grado tal que qA (A) = O se llama el polinomio mı́nimo de A.
El teorema de Cayley y Hamilton muestra que pA (A) = O. Por lo tanto, gr qA (t) ≤ n.
La Proposición anterior muestra que qA (t) divide pA (t). En particular, todas las raı́ces de
qA (t) son autovalores de A. (La inversa también vale, como se verá más adelante, en el
Corolario 2.40: todo autovalor de A es una raı́z de su polinomio mı́nimo.)
De igual modo, si T ∈ End(V), el polinomio mónico qT (t) de mı́nimo grado tal que
qT (T ) = 0 se llama el polinomio mı́nimo de T . Además, qT (t) \ pT (t).
Ejemplo 2.31. Considérese la matriz
3 1 0 0
0 3 0 0
A = .
0 0 2 0
0 0 0 2
Su polinomio caracterı́stico pA (t) es entonces
t − 3 −1 0 0
0 t − 3 0 0
pA (t) = = (t − 3)2 (t − 2)2 .
0 0 t − 2 0
0 0 0 t − 2
Son candidatos a priori para el polinomio mı́nimo los factores: (t − 3), (t − 2), (t − 3)2 , (t − 2)2 ,
(t − 3)(t − 2), (t − 3)2 (t − 2), (t − 3)(t − 2)2 y (t − 3)2 (t − 2)2 . Obsérvese que
0 1 0 0 1 1 0 0 0 1 0 0
0 0 0 0 0 1 0 0 0 0 0 0
(A − 3I4 )(A − 2I4 ) = = , O,
0 0 −1 0
0 0 0 0
0 0 0 0
0 0 0 −1 0 0 0 0 0 0 0 0
pero que (A − 3I4 )2 (A − 2I4 ) = O, por cálculo directo. Se concluye que qA (t) = (t − 3)2 (t − 2).
[[ Moraleja: el polinomio mı́nimo no necesariamente tiene factores distintos. ]]
Este problema admite una solución, en primera instancia, si la matriz A posee autovalores
distintos, en vista del siguiente resultado.
Proposición 2.32. Sea A ∈ Mn (F) una matriz cuadrada. Si {λ1 , . . . , λk } son autovalores distin-
tos de A y si {x1 , . . . , xk } son unos autovectores correspondientes, entonces los autovectores
x1 , . . . , xk son linealmente independientes.
Demostración. Por inducción sobre k, se puede asumir que cualquier colección de (k − 1)
autovectores para autovalores distintos son linealmente independientes. (Si k = 1, esto es
evidente, porque {x1 } es linealmente independiente ya que x1 , 0, pues x1 es un autovector.)
Si x1 , . . . , xk no fueran linealmente independientes, habrı́a una relación de dependencia
c1 x1 + c2 x2 + · · · + ck xk = 0, (2.14)
con c1 , . . . , ck no todos cero. Renumerando la lista si fuera necesario, puede suponerse que
c1 , 0. Luego, c2 , . . . , ck no son todos cero porque c1 x1 , 0. Al aplicar la matriz A a los dos
lados de esta ecuación, resulta
c1 λ1 x1 + c2 λ2 x2 + · · · + ck λk xk = 0.
Al restar λ1 veces (2.14) de esta relación, se obtiene
c2 (λ2 − λ1 )x2 + c3 (λ3 − λ1 )x3 + · · · + ck (λk − λ1 )xk = 0. (2.15)
Los coeficientes en la ecuación (2.15) no son todos cero porque los λ j son distintos y c2 , . . . , ck
no son todos cero. Pero entonces x2 , . . . , xk serı́an linealmente dependientes, contrario a la
hipótesis inductiva. Se concluye que x1 , . . . , xk deben ser linealmente independientes.
Corolario 2.33. Si A ∈ Mn (F) posee n autovalores distintos, entonces A es diagonalizable.
Demostración. Sea { p1 , . . . , pn } un juego de n autovectores que corresponde a los n autovalo-
res distintos {λ1 , . . . , λn } de A. Por la proposición anterior, B = { p1 , . . . , pn } es una base de Fn .
Con respecto a la base estándar E = {e1 , . . . , en }, cada ps puede desarrollarse ası́:
Xn
ps = p js e j = (la columna s de una matriz P).
j=1
donde D es la matriz diagonal con entradas diagonales λ1 , . . . , λn . (Es útil recordar que la
multiplicación a la derecha P 7→ PD efectúa un juego de operaciones de columna.)
La matriz P es inversible porque su rango es n, ya que tiene n columnas linealmente
independientes. Entonces AP = PD es equivalente a P−1 AP = D, con D diagonal.
MA–460: Algebra Lineal II 44
qD (t) = (t − ν1 ) (t − ν2 ) . . . (t − νr ), (2.18)
Luego h(T ) a(T ) + k(T ) b(T ) = I en End(V). Ahora defı́nase W := im k(T ) y U := im h(T ).
Ellos son subespacios invariantes para T , ya que T k(T )(x) = k(T ) T (x) y T h(T )(y) =
h(T ) T (y) . Además, para cada x ∈ V vale
ası́ que V = W + U.
Para ver que esta suma de subespacios es directa, tómese x ∈ W ∩ U. Entonces exis-
ten y, z ∈ V tales que x = k(T )(y) = h(T )(z). Del teorema de Cayley y Hamilton se obtiene
h(T )(x) = pT (T )(y) = 0 y k(T )(x) = pT (T )(z) = 0. La identidad de Bézout entonces muestra
que
x = a(T ) h(T )(x) + b(T ) k(T )(x) = a(T )(0) + b(T )(0) = 0.
Proposición 2.38. Sea T ∈ End(V) un operador lineal cuyo polinomio caracterı́stico escinde
en F[t].15 Supóngase que pT (t) = h(t) k(t) con mcd(h(t), k(t)) = 1. Entonces las restricciones
de T a los subespacios W = ker h(T ) y U = ker k(T ) tienen polinomios caracterı́sticos h(t) y
k(t), respectivamente.
Si λ es una raı́z de pA (t), entonces hay y ∈ W no nulo tal que T (y) = T 0 (y) = λy. Luego
T (y) = λ2 y, T 3 (y) = λ3 y, etc., de modo que 0 = h(T )(y) = h(λ)y y por ende h(λ) = 0. Además,
2
Entonces, cada raı́z de pA (t) es una raı́z de h(t) pero no de k(t). De igual manera, cada
raı́z de pB (t) es una raı́z de k(t) pero no de h(t). Por lo tanto,
donde la repartición de los monomios (t − λi ) entre los primeros dos factorizaciones de pT (t)
obliga las igualdades pA (t) = h(t) y pB (t) = k(t).
En la última Proposición, la hipótesis de que pT (t) escinde en F[t] no es indispensable
(aunque fue usada en el último paso de la demostración). Es posible apelar a un teorema
de Kronecker, que dice que cada polinomio p(t) ∈ F[t] tiene una raı́z en algún cuerpo que
“extiende” F (es decir, que que incluye F como subcuerpo). Es posible, entonces, extender el
cuerpo original F a otro cuerpo K tal que pT (t) escinde en K[t]; las igualdades pA (t) = h(t)
y pB (t) = k(t) entonces se verifican en K[t] y de rebote también en F[t]. Este artificio es
particularmente útil en el caso en donde F = R, porque hay polinomios reales cuadráticas que
no escinden en R[t] pero sı́ en C[t].
Demostración. Elı́jase una base de V = W ⊕ U tal que T tenga una matriz en bloques de la
forma (2.20). Entonces la relación qT (T ) = 0 conlleva la relación
" # " #! " #
qT (A) O A O O O
= qT = ,
O qT (B) O B O O
ası́ que qT (A) = O y qT (B) = O. Sean r(t) := mcd(qT (t), h(t)) y s(t) := mcd(qT (t), k(t)); debe de
ser claro que r(t) y s(t) son relativamente primos y que r(t)s(t) = mcd((qT (t), h(t)k(t)) = qT (t),
porque qT (t) divide pT (t) = h(t)k(t).
También es h(A) = pA (A) = O y el Lema 2.23 dice que r(t) = a(t)qT (t) + b(t)h(t) para
algunos polinomios a(t), b(t). Luego r(A) = O. En otras palabras, r(T 0 ) = 0 en End(W), si T 0
es la restricción de T a W. Del mismo modo, se obtiene s(B) = O y s(T 00 ) = 0 en End(U), si
T 00 es la restricción de T a U.
Corolario 2.40. Cada raı́z del polinomio caracterı́stico de un operador lineal T es también
una raı́z de su polinomio mı́nimo.
subespacio Wi reduce T , los bloques no diagonales son rectángulos de ceros. Cada Ai es una
matriz con polinomio caracterı́stico (t − νi )ki .
Al restar νi Iki de cada bloque, se obtiene una matriz Ni := Ai − νi Iki . El teorema de Cayley
y Hamilton para la matriz Ai muestra que
N1 O . . . O
O N2 . . . O
N := .. .. . . . , con Ni := Ai − νi Iki ; i = 1, . . . , r.
. . . ..
O O . . . Nr
También es evidente que (P−1 HP)(P−1 NP) = P−1 HNP = P−1 NHP = (P−1 NP)(P−1 HP).
MA–460: Algebra Lineal II 52
Falta averiguar la estructura de una matriz nilpotente. Sea N ∈ Mn (C) una matriz tal que
Nk = O, N k−1 , O para k un entero positivo (que depende de N). Entonces hay al menos un
vector no nulo x ∈ Cn tal que N k−1 x , 0. Para cada l = 0, 1, . . . , k, considérese el subespacio
Vl := ker T N l = { x ∈ Cn : N l x = 0 }.
Entonces V0 = {0}, Vk = Cn y además Vl−1 ⊆ Vl para l = 1, . . . , k, porque N l−1 x = 0 implica que
N l x = N(N l−1 x) = N0 = 0. De este modo, los Vl forman una cadena de subespacios:
{0} = V0 ⊆ V1 ⊆ . . . ⊆ Vk−1 ⊆ Vk = Cn .
Sea ml := dim Vl , de modo que
0 = m0 ≤ m1 ≤ . . . ≤ mk−1 ≤ mk = n.
Hay que elegir una base conveniente para Cn , que será la unión creciente be bases para los Vl .
Se requiere un lema auxiliar, a continuación.
Lema 2.49. Sea V un espacio vectorial de dimensión n sobre F y sea W un subespacio de V,
con dim W = m. Se puede elegir vectores x1 , . . . , xn−m ∈ V que son linealmente independien-
tes sobre W, es decir,
c1 x1 + · · · + cn−m xn−m ∈ W sólo si c1 = · · · = cn−m = 0.
Demostración. El espacio cociente V/W tiene dimensión n − m. Sea {z1 , . . . , zn−m } una base
de V/W. Cada zi es una coclase de la forma zi = xi + W para algún xi ∈ V.
Una relación de la forma c1 x1 + · · · + cn−m xn−m ∈ W implica que
c1 z1 + · · · + cn−m zn−m = c1 (x1 + W) + · · · + cn−m (xn−m + W)
= (c1 x1 + · · · + cn−m xn−m ) + W = W.
Pero la coclase trivial W = 0 + W es el elemento nulo de V/W. Luego, la independencia lineal
de los zi en V/W conlleva c1 = · · · = cn−m = 0.
Proposición 2.50. Sea N ∈ Mn (C) una matriz nilpotente. Si k es el menor entero positivo tal
que N k = O, sea Vl := ker T N l para l = 0, 1, . . . , k. Entonces V posee una base B tal que
(a) B incluye una base de Vl , para cada l = 1, . . . , k;
(b) si x ∈ B, entonces N x ∈ B o bien N x = 0.
Demostración. Denótese r1 := mk − mk−1 . Por el Lema anterior, hay vectores x1 , . . . , xr1 ∈
Cn = Vk que son linealmente independientes sobre Vk−1 .
Los vectores N x1 , . . . , N xr1 quedan en Vk−1 , porque N k−1 (N x j ) = N k x j = 0 para cada j.
Resulta que estos vectores son linealmente independientes sobre Vk−2 . En efecto,
c1 N x1 + · · · + cr1 N xr1 ∈ Vk−2 =⇒ N(c1 x1 + · · · + cr1 xr1 ) ∈ Vk−2
=⇒ c1 x1 + · · · + cr1 xr1 ∈ Vk−1 ,
=⇒ c1 = · · · = cr1 = 0.
MA–460: Algebra Lineal II 53
Se concluye que r3 := mk−2 − mk−2 cumple r3 ≥ r2 . En el caso de que r3 > r2 , hay vectores
xr2 +1 , . . . , xr3 tales que el conjunto {N 2 x1 , . . . , N 2 xr1 , N xr1 +1 , . . . , N xr2 , xr2 +1 , . . . , xr3 } ⊂ Vk−2
sea linealmente independiente sobre Vk−3 .
Ad (a): Al repetir este proceso k veces, se obtiene la siguiente tabla de vectores en Cn :
x1 , . . . , xr1 ,
N x1 , . . . , N xr1 , xr1 +1 , . . . , xr2 ,
N x1 , . . . , N xr1 , N xr1 +1 , . . . , N xr2 ,
2 2 xr2 +1 , . . . , xr3 ,
.. .. .. .. .. ..
. . . . . .
N k−1 x1 , . . . , N k−1 xr1 , N k−2 xr1 +1 , . . . , N k−2 xr2 , N k−3 xr2 +1 , . . . , N k−3 xr3 , . . . , xrk−1 +1 , . . . , xrk .
Aquı́ se ha escrito r j := mk− j+1 − mk− j para j = 1, . . . , k. Los vectores en esta tabla son lineal-
mente independientes, y las últimas l filas pertenecen a Vl para cada l. Ahora,
ası́ que todos estos vectores forman una base B de Cn . Además, para cada l las sumas
telescópicas r1 + · · · + rl = ml = dim Vl implican que las últimas l filas forman una base del
subespacio Vl .
Ad (b): Si y es un vector de la última fila, entonces y ∈ V1 = ker T N , ası́ que N y = 0. Si z
es un vector de cualquier otra fila, entonces N z es un miembro de la fila siguiente.
En la tabla anterior de vectores, cada columna genera un subespacio invariante para T N .
De hecho, este subespacio reduce T N porque las demás columnas generan un subespacio
suplementario, también invariante. Se puede entonces reordenar la base B, colocando las
columnas de izquierda a derecha y dentro de cada columna leyendo las columnas de abajo
hacia arriba:
T N (N k− j x1 ) = N k− j+1 x1 , para j = 1, . . . , k.
0 1 . . . 0 0 0
0
. . . 0 0 0
0
0 1
0 0 . . . 0 0 0
0
Jk (0) := ... .. ..
. . .. .. ..
. . . . . . (2.24)
0 0 . . . 0 1 0
0
0 0 . . . 0 0 1
0
0 0 ... 0 0 0
0
es decir, una matriz triangular con ceros en la diagonal y unos en la subdiagonal superior:
a12 = a23 = · · · = ak−1,k = 1.
La matriz de T N es la base elegida es entonces la suma directa de r1 bloques Jk (0), (r2 −r1 )
bloques Jk−1 (0), etc., hasta (rk−1 − rk−2 ) bloques J2 (0), más un bloque cuadrado de ceros de
lado (rk − rk−1 ).
λ 1 . . . 0 0 0
0
λ . . . 0 0 0
0
1
0 0 λ
. . . 0 0 0
Jk (λ) := λIk + Jk (0) = ... .. ..
. . .. .. .. .
. . . . . . (2.25)
0 0 . . . λ 1 0
0
0 0 . . . 0 λ 1
0
0 0 ... 0 0 λ
0
Lema 2.52. El polinomio mı́nimo de un bloque de Jordan es igual que su polinomio carac-
terı́stico: si A = Jk (λ), entonces qA (t) = pA (t) = (t − λ)k .
MA–460: Algebra Lineal II 55
Obtener una matriz inversible P cuyas columnas son autovectores de A y verificar que las
transpuestas de las filas de P−1 son autovectores de At .
Ejercicio 2.4. Un “cuadrado mágico” de lado n es una matriz n × n cuyas entradas son los
enteros 1, 2, . . . , n2 dispuestos de tal manera que la suma de las entradas de cada fila y de cada
columna es la misma. Verificar que 21 n(n2 + 1) es un autovalor de esta matriz.
Ejercicio 2.5. Calcular los polinomios caracterı́sticos y determinar los autovalores de las
matrices
1 1 1
cos θ − sen θ
" # " #
cosh t senh t
A= , B= , C = 1 ω ω2 ,
sen θ cos θ senh t cosh t
1 ω2 ω
√
donde −π < θ ≤ π, t ∈ R, y ω = e2πi/3 = 21 (−1 + i 3).
Ejercicio 2.6. Calcular el polinomio caracterı́stico de la matriz
0 0 0 . . . 0 −a0
1 0 0 . . . 0 −a1
A = 0 1 0 . . . 0 −a2
.. .. .. . . .. ..
. . . . . .
0 0 0 . . . 1 −an−1
Ejercicio 2.7. (a) Si P−1 AP = D es una matriz diagonal, demostrar que Ak = PDk P−1 para
todo k ∈ N. " #
−5 3
(b) Calcular los dos autovalores de la matriz A = y obtener un par de autovectores
−6 4
correspondientes.
(c) Usar los resultados de las partes (a) y (b) para comprobar que
" #9 " #
−5 3 −1025 513
= .
−6 4 −1026 514
Ejercicio 2.8. Tómese F = R ó C. Las fórmulas Ak = PDk P−1 son casos particulares de la
receta
f (A) = P f (D)P−1 toda vez que D = P−1 AP,
la cual es válida para funciones f que pueden desarrollarse en series de potencias (con radio
de convergencia infinita, digamos), por aplicación de las fórmulas para Ak a cada potencia.
Si D = diag[λ1 , . . . , λn ] es diagonal, la matriz f (D) es también diagonal: de hecho, es f (D) =
diag[ f (λ1 ), . . . , f (λn )]. Al tomar f (t) := et = k≥0 (1/k!) tk , se define la exponencial de una
P
matriz A ∈ Mn (F) como exp A := k≥0 (1/k!) Ak . Comprobar el cálculo siguiente:
P
# " −2
2e − e e − e−2
" #
−5 3
exp = .
−6 4 2e−2 − 2e 2e − e−2
Ejercicio 2.9. Una cadena de Markov es un proceso probabilı́stico con un número finito n
de estados caracterizado por números reales no negativos ai j (que representa la probabilidad
de cambiar del estado i al estado j en un paso del proceso); se impone la condición de que
j=1 ai j = 1. Si A = [ai j ] ∈ Mn (R) es la llamada matriz de transición de la cadena de Markov,
Pn
resulta que la probabilidad de cambiar del estado i al estado j en k pasos es la entrada (i, j) de
la matriz Ak . Comprobar que
1 1
4 +
1 1 k+1 1 1 1 k+1
2 2 0 2 2 4 − 2
A = 41 =⇒ = .
1 1 k 1 1 1
A
2 4 4 2 4
1 1 1 k+1 1 k+1
0 2 2
1
4− 2
1
2
1
4 + 2
Ejercicio 2.10. Sea A, B ∈ Mn (C) dos matrices cualesquiera. Demostrar que los polinomios
caracterı́sticos pAB (t) y pBA (t) coinciden.
[[ Indicación: Si det A , 0, es BA = A−1 (AB)A. Si det A = 0, demostrar que det (A−µIn ) , 0
para casi todo µ ∈ C y concluir que para cada λ fijo, la expresión
Ejercicio 2.12. Sea S ∈ End(M2 (F)) el operador de transposición, es decir S (A) := At (véase
el Ejercicio 1.14). Calcular los polinomios caracterı́stico y mı́nimo de S . Exhibir una base
de autovectores para el operador S .
Ejercicio 2.13. (a) Sea A ∈ Mn (F) una matriz con n autovalores λ1 , . . . , λn , no necesariamente
distintos. Si f (t) ∈ F[t] es un polinomio cualquiera, demostrar que los autovalores de la matriz
f (A) son f (λ1 ), . . . , f (λn ).
(b) Comprobar que la traza de Ak obedece tr(Ak ) = λk1 + · · · + λkn , para todo k ∈ N.
Ejercicio 2.14. Sea A ∈ Mn (F) una matriz inversible. Demostrar que el coeficiente de t en el
polinomio caracterı́stico pA (t) es (−1)n−1 det A tr(A−1 ).
Ejercicio 2.16. Una matriz A ∈ Mn (F), sobre un cuerpo F cualquiera, se llama semisimple si
su polinomio mı́nimo es un producto de factores irreducibles distintos. Comprobar que una
matriz compleja (el caso F = C) es semisimple si y sólo si es diagonalizable.
Exhibir una matriz B ∈ M4 (R) que es semisimple pero no diagonalizable.
Ejercicio 2.17. Si A ∈ Mn (R) la matriz simétrica con entradas ai j = [[i= j + 1]] + [[ j=i + 1]], es
decir, tiene entradas 1 en las dos subdiagonales principales, y las demás entradas cero. Para
n = 5, por ejemplo, es
0 1 0 0 0
1 0 1 0 0
A = 0 1 0 1 0 .
0 0 1 0 1
0 0 0 1 0
i jπ
Sea B ∈ Mn (R) la matriz con entradas bi j = sen . Verificar que las columnas de B son
n+1
autovectores de A. ¿Cuáles son los autovalores correspondientes? es la matriz A diagonali-
zable?
MA–460: Algebra Lineal II 59
0 0 0 3 1
0 0 0 −1 1
Ejercicio 2.19. Calcular la forma de Jordan de la matriz triangular siguiente:
1 −2 3 4
0 1 −1 −2
A = .
0 0 1 4
0 0 0 −3
Para hallarla, se debe proceder ası́:
(a) Identificar un autovector y para el autovalor −3.
(b) Identificar los subespacios V1 , V2 , V3 anulados por (A − I4 ), (A − I4 )2 , (A − I4 )3 , respec-
tivamente.
(c) Hallar un vector x ∈ V3 \ V2 tal que {(A − I4 )2 x, (A − I4 )x, x, y} sea una base de F4 .
(d) Si P es la matriz cuyas columnas son los vectores de esta base, calcular P−1 .
(e) Verificar que la matriz P−1 AP es una suma directa de bloques de Jordan.
Ejercicio 2.20. Sea C(t) := Cr tr + Cr−1 tr−1 + · · · + C1 t + C0 ∈ Mn (F[t]) una matriz n × n con
entradas polinomiales, o lo que es lo mismo, un polinomio con coeficientes Ci en Mn (F).
Mostrar que hay otro polinomio matricial Q(t) tal que
C(t) = Q(t) (tIn − A) + C(A);
es decir, que es residuo de la “división a la derecha” de C(t) por (tIn − A) es la matriz
C(A) := Cr Ar + Cr−1 Ar−1 + · · · + C1 A + C0 .
Ejercicio 2.21. Sea A ∈ Mn (F) una matriz con polinomio caracterı́stico pA (t) y polinomio
mı́nimo qA (t). Sea dn−1 (t) el máximo común divisor de los menores (n − 1) × (n − 1) de A,
esto es, el máximo común divisor de las entradas de adj(tIn − A).
(a) Comprobar que dn−1 (t) divide pA (t). Si
pA (t)
q̃(t) := ,
dn−1 (t)
verificar que q̃(A) = O y como consecuencia, que qA (t) divide q̃(t). [[ Indicación: Usar el
ejercicio anterior. ]]
(b) Si q̃(t) = s(t) qA (t) en F[t], demostrar que s(t) ≡ 1 y concluir que qA (t) = pA (t)/dn−1 (t).19
19 Esteejercicio proporciona una fórmula para qA (t), haciendo constar que existe un proceso algorı́tmico para
obtener el polinomio mı́nimo. Véase la sección IV.6 del libro: Feliks Gantmacher, The Theory of Matrices,
Chelsea, New York, 1959.
MA–460: Algebra Lineal II 60
Algunos libros emplean el término producto interno como sinónimo de producto escalar.1
hx, yi ≡ x · y := x1 y1 + x2 y2 + · · · + xn yn .
Definición 3.3. Una aplicación T : V → W entre dos espacios vectoriales complejas (en el
caso F = C) se llama semilineal (o bien antilineal) si
T (α x + β y) = ᾱ x + β̄ y para todo x, y ∈ V, α, β ∈ C.
Si V, W, Z son tres espacios vectoriales sobre un cuerpo F cualquiera, se dice que una
aplicación T : V × W → Z es bilineal si
Las propiedades (a), (b), (c) de la Definición 3.1 muestran que el producto escalar, con-
siderado como aplicación V × V → F, es bilineal en el caso real F = R pero sesquilineal en
el caso complejo F = C. (Fı́jese que (a) y (b) implican que hy + z, xi = hy, xi + hz, xi cuando
x, y, z ∈ V.)
Además, la sesquilinealidad, según la propiedad (c) arriba, dice que hx, yi es lineal en
la segunda variable, pero semilineal en la primera variable. Este convenio, establecido por
los trabajos de Dirac en los albores de la mecánica cuántica, tiene diversas ventajas.3 Sin
embargo, hay que advertir que la mayorı́a de los textos de matemática, en contraste con los
de fı́sica, adoptan el convenio opuesto, en donde el producto escalar es lineal en la primera
variable y semilineal en la segunda. Caveat lector.
Los espacios vectoriales del ejemplo anterior son infinitodimensionales. Para evitar las
matices de análisis tales como la convergencia de integrales y series, en adelante se asumirá
que todos los espacios vectoriales son de dimensión finita. Sin embargo, buena parte de la
discusión que sigue es directamente extensible al caso infinitodimensional.
Ejemplo 3.5. Si V = Rm×n es el espacio vectorial de matrices m × n reales, defı́nase
la cual es una función cuadrática real de t, con a > 0. Como f (t) ≥ 0 para todo t por hipótesis,
el discriminante de la ecuación cuadrática at2 + bt + c = 0 no puede ser positivo. De hecho,
si t1 , t2 fueran dos raı́ces distintas de esta ecuación, serı́a f (t) < 0 para t1 < t < t2 . Resulta
entonces que b2 − 4ac ≤ 0, es decir,
o bien hx, yi2 ≤ kxk2 kyk2 . Al tomar la raı́z cuadrada positiva de ambos lados, se obtiene la
desigualdad deseada:
hx, yi ≤ kxk kyk,
con igualdad sólo si b2 − 4ac = 0, es decir, sólo si la ecuación cuadrática at2 + bt + c = 0 posee
una sola raı́z real t = t0 . Pero entonces f (t0 ) = kx + t0 yk2 = 0 y en consecuencia x + t0 y = 0
en V. Luego x = −t0 y para algún t0 ∈ R, es decir, los vectores x, y son proporcionales.
En el caso F = C, si hx, yi < R, entonces hx, yi = r eiθ con r > 0, θ ∈ R. Colóquese z := e−iθ y,
ası́ que hx, zi = r ∈ R. De (3.2), ya verificado para ese caso, se obtiene |hx, zi| ≤ kxk kzk; pero
kzk = |e−iθ | kyk = kyk, ası́ que
hx, yi = eiθ hx, zi = hx, zi ≤ kxk kzk = kxk kyk.
kx + yk2 = hx + y, x + yi2
= hx, xi2 + hx, yi + hy, xi + hy, yi2
≤ kxk2 + 2|hx, yi| + kyk2
≤ kxk2 + 2kxk kyk + kyk2 = kxk + kyk 2 .
Lema 3.10 (Ley del paralelogramo). Si V es un espacio vectorial con un producto escalar y
si x, yy ∈ V, entonces
kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 .
kx + yk2 + kx − yk2 = hx + y, x + yi + hx − y, x − yi
= 2hx, xi + 2hy, yi = 2kxk2 + 2kyk2 .
MA–460: Algebra Lineal II 64
Hay otras normas sobre Rn ó Cn , es decir, funciones x 7→ kxk que cumplen las propiedades
(a), (b), (c) de la Proposición 3.9. Dos ejemplos son
kxk1 := |x1 | + |x2 | + · · · + |xn |,
kxk∞ := max{ |x1 |, |x2 |, . . . , |xn | }. (3.3)
No es difı́cil chequear que estas normas no cumplen la ley del paralelogramo. De hecho, se
sabe que cualquier norma sobre Rn ó Cn que cumple esa ley determina un producto escalar
tal que hx, xi = kxk2 .
Lema 3.11 (Polarización). Si V es un espacio vectorial con un producto escalar, la norma
(3.1) determina el producto escalar por polarización:
Caso F = R : hx, yi = 14 kx + yk2 − 14 kx − yk2 .
Caso F = C : hx, yi = 14 kx + yk2 − 14 kx − yk2 + 4i kix + yk2 − 4i kix − yk2 .
Demostración. En ambos casos, se obtiene hx, yi al hacer una expansión directa del lado
derecho de la ecuación.
Definición 3.12. La longitud kx − yk se llama la distancia entre dos vectores x, y ∈ V.
En el caso F = R, si x , 0 y y , 0, la desigualdad de Schwarz implica que
hx, yi
−1 ≤ ≤ 1,
kxk kyk
ası́ que hay un único ángulo θ con 0 ≤ θ ≤ π tal que cos θ := hx, yi/kxk kyk. Se dice que θ es
el ángulo entre los vectores no nulos x, y. Se verifica la relación hx, yi = kxk kyk cos θ, pero es
tautológica.
Definición 3.13. Dos vectores x, y ∈ V son ortogonales si hx, yi = 0. Se escribe x ⊥ y para
significar que x, y son ortogonales.
Se dice que los vectores no nulos x1 , . . . , xm ∈ V forman un conjunto ortogonal si xi ⊥ x j
para i , j.
Lema 3.14. Un conjunto ortogonal de vectores es linealmente independiente.
Demostración. Sea {x1 , . . . , xm } un conjunto ortogonal de vectores. Sean c1 , . . . , cm ∈ F tales
que c1 x1 + · · · + cm xm = 0. Para cada ı́ndice j = 1, . . . , m, vale
0 = hx j , 0i = hx j , c1 x1 + · · · + cm xm i = hx j , c j x j i = c j kx j k2 ,
y por tanto c j = 0. Luego {x1 , . . . , xm } es linealmente independiente.
Definición 3.15. Si M es un subespacio de V, su complemento ortogonal M ⊥ es el subes-
pacio de V definido por
M ⊥ := { y ∈ V : hy, xi = 0 para todo x ∈ M }.
Obsérvese que M ⊥ es un subespacio de V porque, si y, z ∈ M ⊥ , α ∈ F y si x ∈ M, entonces
hy + z, xi = hy, xi + hz, xi = 0 + 0 = 0,
hαy, xi = ᾱhy, xi = ᾱ0 = 0.
MA–460: Algebra Lineal II 65
porque los términos de la doble suma con j , k se anulan. De este modo, se recupera la forma
explı́cita del Ejemplo 3.2 para el producto escalar al usar coordenadas respecto de una base
ortonormal.
I Una base ortonormal permite identificar el espacio vectorial dual V ∗ con el espacio vec-
torial original V. En efecto, sea E = {e1 , . . . , en } una base ortonormal de V; defı́nase un juego
de formas lineales F := { f1 , . . . , fn } ⊂ V ∗ por
Resulta, entonces, que J(y) es la forma lineal x 7→ hy, xi. El resultado de este cálculo aclara
que J tiene una descripción que no depende de la base ortonormal especı́fica E de V. De este
modo, la aplicación J proporciona una identificación “canónica” de V ∗ con V, en presencia
de un producto escalar.
MA–460: Algebra Lineal II 66
I Para comprobar la existencia de una base ortonormal para un espacio vectorial con pro-
ducto escalar, hay un algoritmo que la construye a partir de una base cualquiera. Se trata de
un proceso iterativo que toma cada vector de la base original y lo proyecta sobre una recta que
es ortogonal a cada uno de los vectores anteriores. Este proceso se conoce como el algoritmo
de Gram y Schmidt.4
Proposición 3.18. Sea V un espacio vectorial de dimensión n con un producto escalar, y sea
B = {x1 , . . . , xn } una base de V. Sea e1 := x1 /kx1 k; enseguida defı́nase, para k ≤ n,
y2 := x2 − he1 , x2 i e1 , e2 := y2 /ky2 k;
y3 := x3 − he1 , x3 i e1 − he2 , x3 i e2 , e3 := y3 /ky3 k;
.. ..
. .
yk := xk − he1 , xk i e1 − he2 , xk i e2 − · · · − hek−1 , xk i ek−1 , ek := yk /kyk k. (3.6)
Corolario 3.19. Una base ortonormal {e1 , . . . , em } para un subespacio W de V puede com-
pletarse para obtener una base ortonormal de V.
En este cálculo se ha etiquetado las productos escalares y las identificaciones J con subı́ndices
V y W, para énfasis; pero es usual omitir estos subı́ndices por comodidad.
Para el caso V = Rn , W = Rm , es más cómodo usar la notación del producto punto en vez
de los corchetes angulares para denotar los productos escalares. Los vectores en el espacio
vectorial “original” Rn son vectores de columna, considerados como matrices n × 1. El es-
pacio vectorial dual (Rn )∗ se identifica con los vectores de fila,5 es decir, los matrices 1 × n.
De ahora en adelante, se escribirá xt para denotar el vector de fila que es la transpuesta del
5 Algunos textos franceses escriben Rn , en lugar de (Rn )∗ , para denotar el espacio dual de Rn .
MA–460: Algebra Lineal II 68
I Para espacios vectoriales complejos (es decir, cuando F = C), hay que tomar en cuenta que
las identificaciones canónicas JV : V → V ∗ y JW : W → W ∗ no son C-lineales, sino semilin-
eales. Esta circunstancia obliga a un cambio de notación.
Definición 3.21. Sean V y W espacios vectoriales sobre C. Si T ∈ L(V, W), se define la
aplicación adjunta T ∗ ∈ L(W, V) por
al igual que en el caso real. La aplicación adjunta T ∗ ∈ L(W, V) queda determinada por la
fórmula
hT ∗ (y), xi := hy, T (x)i, (3.9)
en donde se suprimen los ı́ndices de los productos escalares.
En cálculos prácticos, se puede mover una aplicación lineal de un lado a otro de un pro-
ducto escalar, reemplazándola por su aplicación adjunta al otro lado.
Sean E = {e1 , . . . , en } y U = {u1 , . . . , um } unas bases ortonormales para V y W, respecti-
vamente. Sean A = [T ]U E
y B = [T ∗ ]EU las matrices correspondientes. De acuerdo con la
fórmula (1.6), se ve que
m
X
T (e j ) = ai j ui , ası́ que ai j = hui , T (e j )i,
i=1
Xn
T ∗ (u s ) = brs er , ası́ que brs = her , T ∗ (u s )i,
r=1
Es decir, además de transponer la matriz A hay que tomar el conjugado complejo de cada uno
de sus elementos.
MA–460: Algebra Lineal II 69
Definición 3.22. Sea A = [ai j ] ∈ Cm×n una matriz compleja m × n. Se denota por A := [āi j ]
su matriz conjugada, obtenida de A al tomar el conjugado complejo de cada uno de sus
elementos. Obsérvese que A = A si y sólo si todas las entradas de A son reales.
Se denota por A∗ := [ā ji ] ∈ Cn×m la matriz adjunta de A, la cual es la matriz transpuesta
de A o equivalentemente, la matriz conjugada de At :
A∗ := (A)t = At .
Demostración. Para ver que A sea diagonalizable, basta comprobar que su polinomio mı́nimo
no tiene factores repetidos. En vista de la descomposición primaria de Cn correspondiente al
operador T A , basta considerar un autovalor λ de A y un vector x , 0 tal que (A − λIn )k x = 0
para algún k ≥ 2 y mostrar que x es un autovector de A. (De lo contrario, podrı́a haber un
bloque de Jordan Jk (λ) en la forma de Jordan de A.)
m
Si 2m−1 < k < 2m , entonces (A − λIn )k x = 0 implica que (A − λIn )2 x = 0. Luego, se puede
asumir que k = 2m para algún m = 1, 2, . . . . Ahora, la matriz (A − λIn ) es hermı́tica porque
λ ∈ R, ası́ que
m m−1 m−1
m−1
2
0 = hx, 0i = x, (A − λIn )2 x = (A − λIn )2 x, (A − λIn )2 x =
(A − λIn )2 x
.
m−1
Se concluye que (A − λIn )2 x = 0 en Cn . Al repetir este argumento m veces, se obtiene
(A − λIn )x = 0, es decir, x es un autovector para el autovector λ.
Ası́ las cosas, si ν1 , . . . , νr son los autovalores distintos de A, entonces la descomposición
primaria para T A es Cn = W1 ⊕ W2 ⊕ · · · ⊕ Wr , donde cada Wi = ker(T A − νi I) consta de todos
los autovectores para el autovalor νi (más el vector nulo). Estos subespacios son mutuamente
ortogonales: hxi , x j i = 0 para xi ∈ Wi , x j ∈ W j con i , j. Ejı́jase una base ortonormal en cada
subespacio Wi (si es necesario, una base preexistente puede modificarse con el algoritmo de
gram y Schmidt). Su unión es una base ortonormal de Cn , formado por autovectores de A.
Definición 3.27. (a) Una matriz cuadrada Q ∈ Mn (R) es una matriz ortogonal si sus colum-
nas forman una base ortonormal de Rn .
(b) Una matriz cuadrada U ∈ Mn (C) es una matriz unitaria si sus columnas forman una
base ortonormal de Cn .
MA–460: Algebra Lineal II 71
I Las matrices de la forma At A (en el caso F = R) o bien A∗ A (en el caso F = C) son de gran
importancia en el álgebra lineal. En primer lugar, los rangos de A, A∗ , A∗ A y AA∗ coinciden,
como se demuestra a continuación.
Es parte del teorema de rango y nulidad (Proposición 1.23) que r(T ) = r(T t ) para una
aplicación lineal T cualquiera. Bajo la identificación (3.8) de la transpuesta abstracta T t ∈
L(W ∗ , V ∗ ) y la aplicación adjunta T ∗ ∈ L(W, V), se obtiene r(T ) = r(T ∗ ). La correspondencia
A ↔ T A entre matrices y operadores conlleva las igualdades
Lema 3.34. Una matriz hermı́tica A ∈ Mn (C) es nula, A = O, si y sólo si hx, Axi = 0 para
todo x ∈ Cn .
Demostración. Fı́jese primero que cualquier A ∈ Mn (C) es nula si y sólo si hy, Axi = 0 para
todo x, y ∈ Cn . En efecto, si se cumple esta condición, se puede tomar y = Ax para que Ax = 0
en Cn para todo x ∈ Cn , esto es, T A = 0 en End(Cn ), lo cual implica que A = O.
Ahora sea A una matriz hermı́tica y supóngase que hx, Axi = 0 para todo x ∈ Cn . Entonces,
para todo x, y ∈ Cn , vale
hy, Axi + hx, Ayi = h(x + y), A(x − y)i − hx, Axi − hy, Ayi = 0
y por tanto 2<hy, Axi = hy, Axi + hAx, yi = hy, Axi + hx, Ayi = 0 porque A = A∗ .
Si hy, Axi = reiθ ∈ C, entonces |hy, Axi| = r = e−iθ hy, Axi = heiθ y, Axi. Del párrafo anterior,
con eiθ y en lugar de y, se concluye que |hy, Axi| = 0 y por ende hy, Axi = 0 para dos vectores
x, y cualesquiera. Luego A = O.
Lema 3.35. Una matriz cuadrada A ∈ Mn (C) es hermı́tica si y sólo si hx, Axi ∈ R para todo
x ∈ Cn .
hx, (A − A∗ )xi = hx, Axi − hx, A∗ xi = hx, Axi − hAx, xi = 0 para todo x ∈ Cn .
Definición 3.36. Una matriz cuadrada A ∈ Mn (C) es una matriz positiva si es hermı́tica y si
además
hx, Axi ≥ 0 para todo x ∈ Cn . (3.10)
En particular, una matriz cuadrática real A ∈ Mn (R) es positiva si y sólo si es simétrica y
cumple (3.10), es decir, si y sólo si xt Ax ≥ 0 para todo x ∈ Rn .
Se dice que una matriz positiva A ∈ Mn (C) es definida positiva7 si la desigualdad en
(3.10) es estricta para vectores no nulos: hx, Axi > 0 para todo x , 0 en Cn .
Ejemplo 3.37. Si A = B∗ B para alguna matriz B ∈ Mn (C), entonces A es una matriz positiva.
En efecto,
hx, Axi = hx, B∗ Bxi = hBx, Bxi = kBxk2 ≥ 0
para x ∈ Cn . (Resulta que este ejemplo es universal: para cada matriz positiva A, se puede
mostrar la existencia de una matriz B tal que A = B∗ B. Esto se verificará más adelante.)
Del mismo modo, cada matriz de la forma A = CC ∗ es positiva: tómese B := C ∗ .
Proposición 3.38. Una matriz cuadrada A ∈ Mn (C) es definida positiva si y sólo si es positiva
e inversible.
Demostración. Como A es hermı́tica, Cn posee una base ortonormal {u1 , . . . , un } formado por
autovectores de A. Sean λ1 , . . . , λn los autovalores correspondientes. La matriz A es inversible
si y sólo si su forma diagonal diag[λ1 , . . . , λn ] es inversible, si y sólo si λi , 0 para i = 1, . . . , n.
Entonces, si A no es inversible, hay al menos un autovalor nulo λi = 0. En este caso, el
autovector ui cumple hui , Aui i = hui , 0i = 0, ası́ que A no es definida positiva.
Supóngase que A es positiva e inversible, ası́ que λi , 0 para i = 1, . . . , n. De hecho, los
autovalores son números positivos: λi = hui , Aui i > 0. Obsérvese que si x = c1 u1 + · · · + cn un ,
entonces
Ax = c1 λ1 u1 + · · · + cn λn un ; hx, Axi = |c1 |2 λ1 + · · · + |cn |2 λn ,
de modo que hx, Axi = 0 si y sólo si cada ci = 0, si y sólo si x = 0. Por tanto, A es definida
positiva.
I Cada matriz real simétrica es una matriz hermı́tica, de oficio. Por tanto, la Proposición
anterior proporciona un criterio para detectar si una matriz (real, simétrica) dada, A, sea
definida positiva o no. Para que ese criterio sea eficaz, hay que determinar si A es inversible
(por ejemplo, al evaluar det A); también hay que comprobar las relaciones de positividad
(3.10). La eliminación gaussiana simple (sin intercambios de filas) permite resolver todas
estas inquietudes simultáneamente.
Proposición 3.39. Una matriz A ∈ Mn (R) es definida positiva si y sólo si es simétrica y los
pivotes sucesivos a(k)
kk
en la eliminación gaussiana simple son todos positivos.
7 Una consecuencia desafortunada de esta terminologı́a es que la matriz nula O es positiva, aunque no definida
positiva. Por razones históricas, el término matriz no negativa ha sido reservado para otra noción: una matriz
real (no necesariamente simétrica) es “no negativa” si todas sus entradas son números reales no negativas. Hay
matrices reales simétricas que son “no negativas” pero no son positivas en el sentido de la Definición 3.36; hay
otras que son positivas pero no son “no negativos”.
MA–460: Algebra Lineal II 74
Demostración. La eliminación gaussiana simple, cuando es aplicable con éxito a una matriz
cuadrada inversible, produce una factorización A = LDU, en donde D es una matriz diagonal,
L es triangular inferior unipotente y U es triangular superior unipotente; ésta descomposición
es única. Obsérvese que At = U t DLt es la descomposición correspondiente de la matriz
transpuesta At . Por tanto, es U = Lt cuando A es simétrica.
Dicha eliminación gaussiana simple funciona cuando se puede garantizar que ningún piv-
ote a(k)
kk
se anulará durante el proceso. Si A es definida positiva, entonces
a(1)
11 = a11 = he1 , A e1 i > 0.
(k)
Para k > 1, akk es el elemento (k, k) de una matriz Mk A, donde la premultiplicación A 7→
Mk A ejecuta las operaciones de fila, del tipo (b), que colocan ceros debajo de la diagonal
en las primeras (k − 1) columnas de A. La postmultiplicación Mk A 7→ Mk AMkt ejecutarı́a las
operaciones de columna correspondientes; y estas operaciones de columna no cambian el
(k)
elemento (k, k) de las matrices intermedios, porque en cada paso se efectúa akk 7→ a(k)
kk
+ 0.
(k) t
Entonces akk es el elemento (k, k) de la matriz simétrica Mk AMk , ası́ que
a(k)
kk
= hek , Mk AMkt ek i = hMkt ek , AMkt ek i > 0
por ser A definida positiva. Fı́jese que Mkt ek , 0 porque hMkt ek , ek i = hek , Mk ek i = 1: al aplicar
las mismas operaciones de fila a la matriz identidad, no cambian la entrada 1 en la posición
(k, k) de la matriz In . Por tanto, una matriz definida positiva tiene la factorización A = LDLt
sin necesidad de hacer intercambios de filas. El factor diagonal es
0 . . . 0
a11 0
(2)
0 a22 0 . . . 0
D := 0 0 a(3)
33 . . . 0 .
. .. .. . . ..
.. . . . .
0 . . . a(n)
0 0 nn
Por otro lado, sea A una matriz simétrica e inversible que admite factorización A = LDLt
por eliminación gaussiana simple. Sea√ D =: [d √ i j ]. Si dkk > 0 para k = 1, . . . , n, entonces
D = D D , al definir D := diag[ d11 , . . . dnn ]. Entonces
1/2 1/2 1/2
Proposición 3.41. Sean V, W son dos espacios hilbertianos y sea T ∈ L(V, W). Entonces
ker T ∗ es el complemento ortogonal T (V)⊥ de la imagen de T , y ker T es el complemento
ortogonal T ∗ (W)⊥ de la imagen de T ∗ .
En consecuencia, T ∗ es uno-a-uno si y sólo si T es sobreyectivo y viceversa.
y ∈ ker T ∗ ⇐⇒ T ∗ (y) = 0
⇐⇒ hT ∗ (y), xi = 0 para todo x ∈ V
⇐⇒ hy, T (x)i = 0 para todo T (x) ∈ T (V)
⇐⇒ y ∈ T (V)⊥ .
x ∈ ker T ⇐⇒ T (x) = 0
⇐⇒ hy, T (x)i = 0 para todo y ∈ W
⇐⇒ hT ∗ (y), xi = 0 para todo T ∗ (y) ∈ T ∗ (W)
⇐⇒ x ∈ T ∗ (W)⊥ .
con producto escalar, en vez de “espacio hilbertiano”. Es preferible limitar el adjetivo “unitario” a los operadores
unitarios.
MA–460: Algebra Lineal II 76
Lema 3.43. Todo T ∈ End(V) puede escribirse, de forma única, como T = T 1 + iT 2 donde
T 1 y T 2 son operadores autoadjuntos.
T 1 = 21 (T ∗ + T ), T 2 = 2i (T ∗ − T ). (3.12)
ası́ que P∗M = P M . Ahora es evidente que la matriz de P M , respecto de la base ortonormal E,
es la matriz de bloques
" #
E Im O
[P M ]E = = diag[1, . . . ,}1, 0, . . . ,}0].
O O | {z | {z
m n−m
Para la unicidad, obsérvese que cualquier proyector ortogonal P con P(V) = M cumple
P(z) = z para z ∈ M y P(y) = 0 para y ∈ M ⊥ . Como V = M ⊕ M ⊥ , cualquier x ∈ V puede
escribirse de manera única como
x = z + y, con z ∈ M, y ∈ M ⊥ .
Luego P(x) = z. Por otro lado, vale P M (x) = P M (z) + P M (y) = z + 0 = z. Se ha mostrado que
P(x) = P M (x) para todo x ∈ V, ası́ que P = P M .
Demostración. Si x ∈ M y z ∈ N, entonces
la cual es unitaria porque sus columnas forman una base ortonormal de Cn . Ahora
U ∗ AU = U −1 AU = [I]U E E U
E [T A ]E [I]U = [T A ]U
T = µ1 P1 + · · · + µr Pr , (3.14)
donde los µ j ∈ R son los autovalores distintos de T , los P j son proyectores ortogonales no
nulos tales que
Pi P j = 0 si i , j; P1 + · · · + Pr = I.
Demostración. Sea U = {u1 , . . . , un } una base ortonormal de V respecto de la cual T tenga una
matriz triangular A = [T ]U U
, en vista de la Proposición 3.48: es ai j = 0 para i > j. La matriz de
∗ ∗ ∗ U
T es A = [T ]U . La condición T ∗ = T , conlleva A∗ = A, ası́ que ai j = 0 para i < j también:
la matriz A es diagonal. Sus elementos diagonales akk cumplen ākk = akk , es decir, son reales.
Estos elementos diagonales son autovalores de la matriz A y también del operador T . Sean
µ1 , . . . , µr los elementos distintos de la lista (a11 , . . . , ann ). Denótese por M j := ker(T − µ j I) el
subespacio generado por los uk tales que akk = µ j . Sea P j el proyector ortogonal tal que
P j (V) = M j , dado por la Proposición 3.46.
MA–460: Algebra Lineal II 80
Si i , j en {1, . . . , r}, los subespacios Mi y M j son ortogonales, ya que son generados por
dos partes disjuntas de la base ortonormal U. El Lema 3.47 dice que Pi P j = 0.
En consecuencia, la suma P1 + · · · + Pr es también un proyector ortogonal: de hecho, esta
suma es autoadjunto, y vale
X
(P1 + · · · + Pr )2 = (P21 + · · · + P2r ) + (Pi P j + P j Pi ) = P1 + · · · + Pr .
i< j
Cada uk pertenece a un sólo subespacio M j , ası́ que (P1 + · · · + Pr )(uk ) = P j (uk ) = uk . Por lo
tanto, vale P1 + · · · + Pr = I en End(V).
Para cada k = 1, . . . , n, vale
r
X r
X
(µ1 P1 + · · · + µr Pr )(uk ) = µ j P j (uk ) = µ j [[uk ∈ M j ]] uk
j=1 j=1
Xr
= µ j [[µ j = akk ]] uk = akk uk = T (uk ),
j=1
I El teorema espectral sigue válido para una clase de operadores lineales más amplia que los
operadores autoadjuntos. Considérese un operador T ∈ End(V) que posee una base ortonor-
mal de autovectores con autovalores distintos µ1 , . . . , µr ∈ C que no son necesariamente reales.
Entonces se puede escribir:
T = µ1 P1 + · · · + µr Pr , T ∗ = µ̄1 P1 + · · · + µ̄r Pr .
MA–460: Algebra Lineal II 82
T ∗ T = |µ1 |2 P1 + · · · + |µr |2 Pr = T T ∗ .
Proposición 3.56 (Teorema Espectral II). Sea V un espacio hilbertiano, y sea T ∈ End(V) un
operador normal. Entonces se puede escribir T = µ1 P1 + · · · + µr Pr como en (3.14), donde los
µ j ∈ C son los autovalores distintos de T , los P j son proyectores ortogonales no nulos tales
que Pi P j = 0 para i , j, y además P1 + · · · + Pr = I.
E 2j = E j = E ∗j , para j = 1, . . . , r,
A = µ1 E1 + · · · + µr Er , con Ei E j = O
(3.16)
si i , j,
E1 + · · · + Er = In
y en consecuencia
r
X r
X
hx, Axi = µ j hx, E j xi = µ j kE j xk2 . (3.17)
j=1 j=1
Ahora, si µ j ≥ 0 para cada j, esta relación (3.17) muestra que A es una matriz positiva. Por
otro lado, si x j ∈ M j = P j (Cn ) = { x ∈ Cn : E j x = x }, entonces hx j , Ax j i = µ j kx j k2 . Luego, la
positividad de A implica que µ j ≥ 0 para cada j.
Si x , 0 en Cn , la relación x = E1 x + · · · + Er x implica que E j x , 0 para al menos un
valor de j. De (3.17) se ve que hx, Axi > 0 para todo x , 0 si y sólo si µ j > 0 para cada
j = 1, . . . , r.
Proposición 3.58. Para una matriz A ∈ Mn (C), son equivalentes las siguientes condiciones:
(a) A es una matriz positiva: A = A∗ y hx, Axi ≥ 0 para todo x ∈ Cn .
ν12 F1 + · · · + ν2s F s = S 2 = A = µ1 E1 + · · · + µr Er ,
ası́ que s = r es el número de autovalores distintos de A; los conjuntos {ν12 , . . . , νr2 } y {µ1 , . . . , µr }
coinciden porque ellos son los autovalores de A. Después de una permutación de este con-
√
junto, se puede suponer que ν2j = µ j para j = 1, . . . , r, ası́ que ν j = µ j para cada j. Finalmente,
los autovectores de S y de A corresponden:
{ x ∈ Cn : F j x = x } = ker(T S − ν j I) = ker(T A − µ j I) = { x ∈ Cn : E j x = x },
Proposición 3.60. Una matriz U ∈ Mn (C) es unitaria si y sólo si U es normal y cada autovalor
λ de U cumple |λ| = 1.
|α1 |2 E1 + · · · + |αr |2 Er = U ∗ U = In = E1 + · · · + Er .
MA–460: Algebra Lineal II 85
U ∗ U = UU ∗ = |α1 |2 E1 + · · · + |αr |2 Er = E1 + · · · + Er = In ,
h|T |(x), |T |(x)i = hx, |T |2 (x)i = hx, T ∗ T (x)i = hT (x), T (x)i. (3.18)
Por lo tanto, la correspondencia |T |(x) 7→ T (x) define una aplicación lineal biyectiva de |T |(V)
en T (V).
La ecuación (3.18) también muestra que ker |T | = ker T . De la Proposición 3.41, se obtiene
|T |(V)⊥ = ker(|T |∗ ) = ker |T |, ası́ que |T |(V)⊥ = ker T .
13 Sobre un espacio de Hilbert infinitodimensional, un operador U se llama una isometrı́a si U ∗ U = I. Esto es
equivalente a la condición de que kU(x)k = kxk para cada vector x, porque kU(x)k2 = hU x, U(x)i = hx, U ∗ U(x)i.
En particular, una isometrı́a es un operador inyectivo. En el contexto infinitodimensional, hay isometrı́as que
no son sobreyectivos, luego no son inversibles; pero en espacios hilbertianos finitodimensionales, cualquier
isometrı́a es unitaria.
14 En el caso unidimensional V = C, cualquier elemento de End(C) es de la forma w 7→ zw para algún z ∈ C.
√
El módulo se obtiene al reemplazar z por su valor absoluto |z| = z̄z.
MA–460: Algebra Lineal II 86
Proposición 3.65. Dada una matriz ortogonal Q ∈ Mn (R), hay una colección de ángulos
θ1 , . . . , θt ∈ (0, π) y números r, s ∈ N tales que 2t + r + s = n, amén de una matriz ortogonal P
tal que
P−1 QP = Pt QP = Rθ1 ⊕ · · · ⊕ Rθt ⊕ (−Ir ) ⊕ I s (3.20)
donde cada Rθ j es una rotación de la forma
cos θ sen θ
" #
Rθ := . (3.21)
− sen θ cos θ
Demostración. La matriz ortogonal Q cumple Qt Q = QQt = In en Mn (R). Al consider Q
como elemento de Mn (C) con entradas reales, Q es también unitaria en Mn (C). Por la
Proposicion 3.56 y 3.60, hay una base ortonormal U de Cn para la cual [T Q ]U U
es una ma-
triz diagonal con autovalores λi ∈ C que cumplen |λi | = 1. Si la descomposición espectral de
T Q es T Q = µ1 P1 + . . . + µl Pl , entonces cada λi pertenece a {µ1 , . . . , µl }.
Los polinomios caracterı́sticos de Q y de Qt coinciden, ası́ que los autovalores de Q∗ = Qt
son también µ1 , . . . , µl . Un autovalor real es necesariamente ±1. Los otros autovalores son
números complejos de valor absoluto 1, que forman pares conjugados (λk , λ̄k ) = (eiθk , e−iθk )
con 0 < θk < π.
Si z ∈ Cn es un autovector de Q para un autovalor ±1, sea z =: x + iy con x, y ∈ Rn . Si
y = 0, es z = x ∈ Rn ; si x = 0, entonces (−i)z = y es un autovector real para Q; y si x , 0,
y , 0, entonces linhx, yi es un subespacio de autovectores de Q de dimensión 2 (sobre R). En
todo caso, los subespacios ker(T Q + I) ⊆ Rn y ker(T Q − I) ⊆ Rn poseen bases ortonormales de
autovectores reales para los autovalores respectivos ∓1. Sean r := n(T Q + I), s := n(T Q − I)
sus respectivas dimensiones.
n
√ sea z ∈ C un autovector para el autovalor
Ahora complejo eiθ con 0 < θ < π, con longitud
kzk = 2. Escrı́base z =: x + iy con x, y ∈ Rn y nótese que z̄ = x − iy es un autovector para el
autovalor e−iθ porque Qz = eiθ z conlleva Qz̄ = e−iθ z̄. Ahora
eiθ hz̄, zi = hz̄, Qzi = hQ∗ z̄, zi = hQ−1 z̄, zi = heiθ z̄, zi = e−iθ hz̄, zi,
ası́ que hz̄, zi = 0 porque eiθ , e−iθ . Por tanto, vale
0 = hz̄, zi = hx − iy, x + iyi = hx, xi − hy, yi + 2ihx, yi
y además hx, xi + hy, yi = hz, zi = 2. Se concluye que kxk = kyk = 1 y hx, yi = 0. En resumen,
{x, y} es una base ortonormal por el subespacio bidimensional real generado por z y z̄. Al
tomar partes reales e imaginarios de ecuación Qz = eiθ z, se obtiene
Qx = (cos θ) x − (sen θ) y,
Qy = (sen θ) x + (cos θ) y.
Luego linhx, yi es un subespacio invariante para Q, en donde la restricción de T Q posee la
matriz Rθ de (3.21).
Por una permutación de la base U de Cn , los autovalores no reales de Q pueden ordenarse
como (eiθ1 , e−iθ1 , . . . , eiθt , e−iθt ) donde 2t = n − r − s. Al repetir el proceso anterior para cada
pareja (eiθk , e−iθk ), se construye una nueva base ortonormal V de Rn para la cual la matriz de
T Q es el lado derecho de (3.20). La matriz de cambio de bases P := [I]EV es ortogonal.
MA–460: Algebra Lineal II 88
[[ Indicación: Sea A ∈ R2×3 la matriz cuyas filas son xt1 y xt2 ; resolver la ecuación Ax = 0. ]]
Ejercicio 3.11. (a) Si U y V son matrices unitarias en Mn (C), demostrar que el producto UV
es también unitaria.
(b) Si U ∈ MN (C) es una matriz unitaria, demostrar que U es inversible y que U −1 es
también unitaria.15
(c) Demostrar que A ∈ Mn (C) es unitaria si y sólo si kAxk = kxk para todo x ∈ Cn .
Ejercicio 3.12. (a) Calcular los autovalores de la matriz
5 −6 2
A := −6 4 −4 .
2 −4 0
Encontrar una matriz ortogonal P cuyas columnas sean autovectores de A, de modo que
Pt AP = P−1 AP sea diagonal.
(b) Calcular A5 , usando esta forma diagonal D = Pt AP.
" #
a b
Ejercicio 3.13. (a) Sea A := una matriz simétrica en M2 (R). Demostrar que es posible
b c
factorizar A = LDLt , con L triangular inferior unipotente y D diagonal inversible, si y sólo si
a , 0 y c , b2 /a.
(b) Concluir que A es definida positiva si y sólo si a > 0, c > 0 y ac − b2 > 0.
" #
4 12
(c) Obtener la factorización A = LDL para A :=
t . Usar esta factorización para
12 45
hx i
comprobar que xt Ax = (2x1 + 6x2 )2 + (3x2 )2 si x = x12 ∈ R2 .
Ejercicio 3.14. Si J = { j1 , j2 , . . . , jr } ⊂ {1, 2, . . . , n}, el menor m JJ := det A JJ se llama un menor
principal de la matriz A ∈ Mn (F). Si Jk = {1, 2, . . . , k}, los menores principales Dk := m Jk ,Jk
para k = 1, . . . , n, se llaman los menores principales delanteras de la matriz cuadrada A:
a11 a12 a13
a a
D1 = a11 , D2 = 11 12 , D3 = a21 a22 a23 , . . . , Dn = det A.
a21 a22
a31 a32 a33
(a) Si A ∈ Mn (R) es definida positiva, demostrar que todos sus menores principales de-
lanteras son números positivos.
(b) Inversamente, si A ∈ Mn (R) es tal que Dk > 0 para k = 1, 2, . . . , n, demostrar que A es
definida positiva. [[ Indicación: Eliminación gaussiana simple. ]]
Ejercicio 3.15. Determinar si cada una de las matrices
1 1 1 1 1 1 9 −6 2
A := 1 1 1 , B := 1 2 2 , C := −6 8 −4
1 1 1 1 2 3 2 −4 4
Demostrar que esta matriz es definida positiva si y sólo si b > 0, c > 0 y bc > 4. [[ Esta matriz
apareció en un problema de la mecánica cuántica.16 ]]
x1 · x1 x1 · x2 . . . x1 · xm
x2 · x1 x2 · x2 . . . x2 · xm
det A = .. .. .. ..
. . . .
xm · x1 xm · x2 . . . xm · xm
Ejercicio 3.18. Sea ζ := e2πi/n una raı́z n-ésima de 1 y sea F ∈ Mn (C) la matriz con entrada
fi j := ζ (i−1)( j−1) :
...
1 1 1 1
1 ζ ζ2 . . . ζ n−1
1
F := √ 1 ζ ζ4 . . . ζ 2(n−1) .
2
n .. .. .. ..
.
..
. . . .
2
1 ζ n−1 ζ 2(n−1) . . . ζ (n−1)
Ejercicio 3.20. (a) Sea S ∈ End(V) un operador autoadjunto. Demostrar que hay dos opera-
dores positivos S + , S − ∈ End(V) tales que S + S − = S − S + = 0 y S = S + − S − .
(b) Concluir que cualquier operador lineal T ∈ End(V) es una combinación lineal de la
forma T = T 1 − T 2 + iT 3 − iT 4 donde T 1 , T 2 , T 3 , T 4 son operadores positivos.
Ejercicio 3.21. (a) Si T ∈ End(V) es un operador normal, demostrar que hay un polinomio
f (t) ∈ C[t] tal que f (T ) = T ∗ .
[[ Indicación: Buscar un polinomio que cumple f (µ j ) = µ̄ j para cada autovalor µ j de T . ]]
(b) Si S ∈ End(V) es otro operador lineal (no necesariamente normal) tal que S T = T S ,
demostrar que S ∗ T = T S ∗ .
(c) Si S , T ∈ End(V) son operadores normales, concluir que el producto S T es también un
operador normal.
Ejercicio 3.22. (a) Si T ∈ End(V) es un operador positivo, demostrar que hay un polinomio
g(t) ∈ R[t] tal que g(T ) = T 1/2 .
√
[[ Indicación: Buscar un polinomio que cumple g(µ j ) = µ j para cada autovalor µ j de T . ]]
(b) Si S ∈ End(V) es otro operador positivo tal que S T = T S , demostrar que los operadores
S + T y S T son también positivos.
(c) Si P, Q ∈ End(V) son operadores positivos que no conmutan, demostrar que P + Q es
positivo pero que PQ no es necesariamente positivo.
[[ Indicación: Dar un contraejemplo de dos matrices positivas cuyo producto no es una
matriz positiva. ]]
Ejercicio 3.24. (a) Demostrar que un operador lineal U ∈ End(V) es unitario si y sólo si
kU(x)k = kxk para todo x ∈ V.
(b) Demostrar que un operador lineal T ∈ End(V) es normal si y sólo si kT (x)k = kT ∗ (x)k
para todo x ∈ V.
" #
−1 −2
Ejercicio 3.25. Obtener la descomposición polar U|A| de la matriz A = ∈ M2 (C).
2 1
MA–460: Algebra Lineal II 93
4 Formas Bilineales
Las aplicaciones lineales entre dos espacios vectoriales no son los únicos objetos que pueden
representarse por matrices. En este capı́tulo se examinará otra clase de funciones, las formas
bilineales (o sesquilineales) sobre un espacio vectorial, que son una generalización del con-
cepto de producto escalar. A cada forma bilineal se le asocia una matriz que la representa con
respecto a una base particular.
Se distinguen tres clases importantes de estas formas: (a) las formas bilineales simétricas,
(b) las formas bilineales alternadas o antisimétricas, y (c) las formas sesquilineales hermı́ticas
(en el caso complejo). A cada forma se le asocia una matriz cuadrada, respectivamente
simétrica, antisimétrica, o hermı́tica. Se busca una clasificación de estas formas hasta iso-
morfismo, o lo que es equivalente, la identificación de ciertos tipos de matrices que permiten
distinguir entre formas inequivalentes.
f (x, y) := xt Ay
cuadrada [ f ]B
B
:= A ∈ Mn (F): esta es la matriz de la forma bilineal f con respecto a la
base B.
MA–460: Algebra Lineal II 94
Para cada vector fijo y ∈ V, la aplicación x 7→ f (x, y) es una forma lineal sobre V, es decir,
un elemento f y del espacio dual V ∗ . Por (4.1), si y = nj=1 d j x j entonces f y (x) = nj=1 d j f x j (x)
P P
para todo x ∈ V, y por ende F : y 7→ f y es una aplicación lineal en L(V, V ∗ ). Obsérvese que
ai j = f x j (xi ) por (4.2).
Si B∗ := { f1 , . . . , fn } es la base (1.5) de V ∗ que es dual a la base B = {x1 , . . . , xn } de V,
entonces la matriz (1.6) de F, con respecto a estas bases de V y V ∗ , se obtiene de
n
X n
X
F(x j ) = f x j = f x j (xi ) fi = ai j fi .
i=1 i=1
Luego [ f ]B
B
B∗
= A = [F]B . En otras palabras, la matriz de la forma bilineal f con respecto a la
base B coincide con la matriz de la aplicación lineal F ∈ L(V, V ∗ ), con respecto a B y su base
dual.
De esta manera, se ve que las formas bilineales sobre V conforman un espacio vectorial,
isomorfo al espacio vectorial L(V, V ∗ ). Su dimensión es (dim V)(dim V ∗ ) = (dim V)2 = n2 =
dim(Mn (F)).
Proposición 4.4. Sea f : V × V → F es una forma bilineal y sean B = {x1 , . . . , xn } y B0 =
{x01 , . . . , x0n } dos bases de V. Sea P la matriz de cambio de base (1.9), dado por x0s =:
B B0
j=1 p js x j . Entonces las matrices respectivas A = [ f ]B y B = [ f ]B0 de la forma bilineal f
Pn
cumplen
B = Pt AP.
Demostración. La matriz A viene de (4.2) y las entradas de B obedecen brs := f (x0r , x0s ). En
vista de (4.1), vale
Xn n
X Xn X
n n X
X n
brs = f pir xi , p js x j = pir f (xi , x j ) p js = pir ai j p js ,
i=1 j=1 i=1 j=1 i=1 j=1
Proposición 4.16. Sea d : V × V → F una forma bilineal simétrica, de rango k. Entonces hay
una base B = {x1 , . . . , xk , z1 , . . . , zn−k } para la cual la matriz de d es diagonal:
b1 0 ... 0
0 b2
. ... 0
.. .. ..
.. . . .
[d]B
= 0 0 . . . bk .
B
0 . . . 0
.. . . ..
. . .
0 ... 0
Entonces
r
X d(x, xi )
d(y, x j ) = d(x, x j ) − bi [[i= j]] = d(x, x j ) − d(x, x j ) = 0 para j = 1, . . . , r,
i=1
bi
i=1
Corolario 4.17. Una forma cuadrática sobre V de rango k puede escribirse como
Fı́jese que estos polinomios de primer grado pueden elegirse de modo que el polinomio
fi depende solamente de las variables ti , . . . , tn . Esto es consecuencia de la demostración
algorı́tmica de la Proposición 4.16: la forma lineal fr+1 del Corolario 4.17 es el primer el-
emento de la base dual de la base {xr+1 , . . . } del subespacio Mr⊥ , ası́ que no depende de las
coordenadas x1 , . . . , xr del subespacio Mr .
q(x) := x12 − 4x1 x2 + 2x1 x3 − 2x1 x4 + 3x22 − 6x2 x3 + 8x2 x4 + 2x3 x4 + 2x42 .
MA–460: Algebra Lineal II 99
1 d(x, e1 ) = x1 − 2x2 + x3 − x4 . Se
Con e1 = (1, 0, 0, 0), es b1 = q(e1 ) = 1. Defı́nase f1 (x) := b−1
ve que
q(x) − b1 f1 (x)2 = −x22 − x32 + x42 − 2x2 x3 + 4x2 x4 + 4x3 x4 =: q0 (x),
Esta es una nueva forma cuadrática q0 que no incluye la coordenada x1 . Hasta ahora se ha
identificado M1 = linhe1 i, M1⊥ = linhe2 , e3 , e4 i.
Con e2 = (0, 1, 0, 0), es b2 = q0 (e2 ) = −1. Defı́nase f2 (x) := b−1 2 d (x, e2 ) = x2 + x3 − 2x4 .
0
Ahora
q(x) − b1 f1 (x)2 − b2 f2 (x)2 = 5x42 =: q00 (x),
con M1 = linhe1 , e2 i, M1⊥ = linhe3 , e4 i. Ahora se toma x3 := e4 = (0, 0, 0, 1), b3 = q00 (e4 ) = 5,
para obtener, finalmente:
Proposición 4.20. La forma cuadrática sobre Fn dada por q(x) = xt Ax = ni, j=1 ai j xi x j con
P
(a) Si akk , 0 para algún k, reordenar las variables para que a11 , 0. Entonces
n 2
1 X
q(x) = a1 j x j + q1 (x),
a11 j=1
(b) Si todo akk = 0, reordenar las variables para que a12 , 0. Entonces
n 2 n 2
1 X 1 X
q(x) = (a1 j + a2 j )x j − (a1 j − a2 j )x j + q2 (x),
2a12 j=1 2a12 j=1
(c) Repı́tase los pasos (a) y (b) con la nueva forma cuadrática q1 ó q2 , hasta llegar a una
forma cuadrática residual nula.
MA–460: Algebra Lineal II 100
Demostración. Un cálculo directo verifica que q1 (x) no depende de x1 y que q2 (x) no de-
pende de x1 ni de x2 . La fórmula (4.5) es evidente, ya que el paso (a) construye b1 y f1 (x), o
bien en su defecto el paso (b) construye b1 , b2 y f1 (x), f2 (x); los demás términos se obtienen
al repetir el proceso hasta agotar las variables xi .
La independencia lineal de las formas lineales f1 , . . . , fk se deja como ejercicio.
La forma diagonal de la Proposición 4.16 no es única, porque hay cierta flexibilidad en
la elección de los coeficientes b j . Si, por ejemplo, b j = c j a2j con a j , 0, se puede sustituir
b j 7→ c j y x j 7→ a−1
j x j , ya que
[d]B
B = diag[1, . . . , 1, 0, . . . , 0] = Ik ⊕ On−k ,
[d]B
B = diag[1, . . . , 1, −1, . . . , −1, 0, . . . , 0] = I p ⊕ −Iq ⊕ On−p−q ,
Ad (b): Si F = R, sea p el número de los b j que son positivos y sea q el número de los b j
que son negativos. Es p + q = k. Por una permutación de los vectores x j , si fuera necesario,
puede suponerse que b j > 0ppara j = 1, . . . , p y que b j < 0 para j = p + 1, . . . , k.
Ahora colóquese a j := |b j | para j = 1, . . . , k y defı́nase y j := a−1 j x j ; entonces la matriz
de d respecto de la base B := {y1 , . . . , yk , z1 , . . . , zn−k } es I p ⊕ −Iq ⊕ On−p−q .
Definición 4.22. Sea A = At ∈ Mn (R) una matriz simétrica real. Si p es el número de autovalo-
res positivos de A (repetidas según su multiplicidad) y si q = r(A)− p el número de autovalores
negativos de A, la diferencia5 s(A) := p − q es la signatura de la matriz A.
Proposición 4.23. Dos matrices simétricas reales A, B ∈ Mn (R) son congruentes si y sólo si
tienen el mismo rango y la misma signatura.
Demostración. Si A l B, ya se sabe que A y B tienen el mismo rango. Denótese k := r(A) =
r(B) en ese caso.
Por el Teorema 4.21, hay enteros p, p0 , q, q0 ∈ N con p + q = p0 + q0 = k tales que A l
I p ⊕ −Iq ⊕ On−k mientras B l I p0 ⊕ −Iq0 ⊕ On−k . Basta verificar, entonces, en el caso k = n, que
las matrices diagonales I p ⊕ −Iq e I p0 ⊕ −Iq0 son congruentes si y sólo si p = p0 .
Supongamos que k = n y considérese la forma bilineal simétrica sobre Rn dada por
d(x, y) = x10 y01 + · · · + x0p0 y0p0 − x0p0 +1 y0p0 +1 − · · · − x0p0 +q0 y0p0 +q0 .
Definición 4.26. Una forma bilineal simétrica real d es positiva si d(x, x) ≥ 0 para todo x ∈ V.
Una forma cuadrática real q es positiva si q(x) ≥ 0] para todo x ∈ V.
Si estas desigualdades son estrictas para todo x , 0, se dice que d [respectivamente, q] es
definida positiva.
Es evidente que d es positiva si y sólo si su rango y signatura coinciden (porque q = 0 si y
sólo si s = k). Además, d es definida positiva si es positiva y no degenerada (el caso s = k = n).
Fı́jese que un producto escalar real no es más que una forma bilineal simétrica real que
es definida positiva. La teorı́a de espacios vectoriales euclidianos admite una generalización
que consiste en reemplazar el producto escalar por usar formas bilineal simétrica indefinida.
Por ejemplo, se podrı́a reemplazar el producto punto en Rn por la forma (4.6).
Con respecto de estas formas indefinidas (es decir, cuando p > 0 y q > 0, o bien cuando
−n < s < n), es posible definir bases ortonormales, matrices “pseudo-ortogonales”, etcétera,
en analogı́a con el caso euclidiano. Un caso de particular interés es p = 3, q = 1, la forma
bilineal “lorentziana”:
para todo z, z0 , w, w0 ∈ V, α ∈ C.
Una forma sesquilineal h es hermı́tica si h(z, w) = h(w, z) para z, w ∈ V.
Con respecto a una base B = {z1 , . . . , zn } de V, la fórmula ai j := h(zi , z j ) determina la ma-
triz A = [h]B B
de una forma sesquilineal. Es evidente que una forma sesquilineal es hermı́tica
si y sólo si su matriz cumple A∗ = A.
6 El principio de la relatividad fue formulado por Galileo Galilei,en: Dialogo sopra i due massimi sistemi del
mondo, Firenze, 1632. Las ecuaciones de Maxwell para movimiento en campos electromagnéticos incumplen
este principio, pero Einstein logró recuperar la relatividad al precio de postular que la velocidad de la luz es
constante.
MA–460: Algebra Lineal II 103
Proposición 4.30. Sea V un espacio vectorial sobre C con dim V = n. Sea h : V × V → C una
forma hermı́tica, de rango k. Entonces hay una base B de V tal que [h]B B
= I p ⊕ −Iq ⊕ On−k ,
B0
donde p + q = k. Además, si hay otra base B de V tal que [h]B0 = I p0 ⊕ −Iq0 ⊕ On−k , entonces
0
p0 = p y q0 = q.
Demostración. Las demostraciones de las Proposiciones 4.16 y 4.23 y del Teorema 4.21(b)
se adaptan directamente al caso hermı́tico: se deja los detalles como un ejercicio.
(Fı́jese que los b j obtenidos de la Proposición 4.16 son reales, porque h(z, z) ∈ R para todo
z ∈ V; y que además h(α−1 z, α−1 z) = |α|−2 h(z, z) para todo α ∈ C.)
MA–460: Algebra Lineal II 104
En adelante se verá que cualquier matriz antisimétrica es congruente con una suma directa de
varias copias de esta J2 .
Una forma bilineal alternada no degenerada s : V × V → F se llama forma simpléctica
sobre V.
Los complementos simplécticos presentan un fuerte contraste con los complementos or-
togonales determinados por formas simétricas o hermı́ticas. Respecto de s, cualquier vector
x ∈ V cumple s(x, x) = 0 por antisimetrı́a. En consecuencia, si N := linhxi = { cx : c ∈ F } es el
subespacio unidimensional generado por x, entonces N ⊆ N ⊥ .
Un subespacio M ≤ V tal que M ⊆ M ⊥ se llama un subespacio isotrópico de V.
J2 O . . . O
O J2 . . . O
" #
J2m O
[s]B = , con J2m := .. .. . . . = J2 ⊕ · · · ⊕ J2 . (4.7)
B O On−2m . . . .. | {z }
m veces
O O . . . J2
s(x j , y j ) = −s(y j , x j ) = 1
linealmente independientes porque s(x1 , y01 ) serı́a cero por antisimetrı́a si x1 , y01 fueran pro-
porcionales. Colóquese y1 := c−1 1 y1 , de modo que s(x1 , y1 ) = 1 y s(y1 , x1 ) = −1.
0
Supóngase, para argumentar por inducción, que ya se haya elegido 2r vectores lineal-
mente independientes {x1 , y1 , . . . , xr , yr } en V con
s(xi , y j ) = −s(y j , xi ) = [[i= j]], s(xi , x j ) = s(yi , y j ) = 0,
para i, j = 1, . . . , r. Entonces la restricción de s al subespacio M2r := linhx1 , y1 , . . . , xr , yr i es
no degenerada, y además M2r ∩ M2r ⊥ = {0}.
Si s es no degenerada (este el caso k = n), entonces V = M2r ⊕ M2r ⊥ por la Proposición 4.11.
(Fı́jese que la demostración de esta Proposición sigue válida sin cambio alguno para formas
bilineales alternadas en vez de simétricas). Resulta que esta relación es válida aun para k < n.
Para x ∈ V, colóquese
X r r
X
z := x − s(x, yi )xi + s(x, xi )yi .
i=1 i=1
Entonces, para j = 1, . . . , r, vale
s(z, x j ) = s(x, x j ) + s(x, x j )s(y j , x j ) = 0,
s(z, y j ) = s(x, y j ) − s(x, y j )s(x j , y j ) = 0,
⊥ . Por tanto,
ası́ que z ∈ M2r
r
X r
X
x= s(x, yi )xi − s(x, xi )yi + z ∈ M2r ⊕ M2r
⊥
.
i=1 i=1
Como x es arbitrario, se concluye que V = M2r ⊕ M2r ⊥.
dos vectores no proporcionales xr+1 , yr+1 ∈ M2r tales que s(xr+1 , yr+1 ) = −s(yr+1 , xr+1 ) = 1.
⊥
es k = 2m y Cn−2m = O. Al elegir una base cualquiera {z1 , . . . , zn−2m } para M2m ⊥ , se obtiene la
base deseada de V.
A veces conviene permutar los vectores de la base B obtenida en la Proposición anterior
para cambiarla a B0 = {x1 , . . . , xm , y1 , . . . , ym , z1 , . . . , zn−2m }, para la cual la matriz de s tiene el
formato:
O Ir O
[s]B
0
B0 = −Ir O O .
O O On−2m
MA–460: Algebra Lineal II 106
Corolario 4.33. El rango de una matriz antisimétrica A = −At ∈ Mn (F) es par. Dos matrices
antisimétricas reales A, B ∈ Mn (F) son congruentes si y sólo si tienen el mismo rango.
Demostración. Defı́nase la forma bilineal s sobre Fn por sA (x, y) := xt Ay. Si A = −At , en-
tonces s es una forma alternada. La Proposición anterior dice que hay una matriz de cambio
de base P = [I]B
E
tal que Pt AP = J2m ⊕ On−2m , para algún m ∈ N con 2m ≤ n. El rango de A es
r(A) = r(Pt AP) = 2m.
Si A = −At , B = −Bt y r(A) = r(B) = 2m, entonces la Proposición anterior, aplicada a las
formas alternadas sA y sB , muestra que A l J2m ⊕ On−2m l B.
Corolario 4.34. Una forma simpléctica sobre V existe sólo si dim V es par: n = 2m.
Sea A ∈ Mn (F) una matriz antisimétrica inversible. Entonces sA (x, y) := xt Ay es una forma
simpléctica sobre Fn , y n = 2m es necesariamente par. La Proposición 4.32 dice que A l J2r :
hay una matriz inversible R tal que A = Rt J2r R. Obsérvese que det J2r = (det J2 )r = 1. En
consecuencia, vale
det A = (det R)2 .
En particular, si F = R, esto implica √ que det A > 0.
Es legı́timo escribir det R = ± det A, porque det R es una raı́z cuadrada del determinante
de A. Lo que es menos evidente, pero cierto, es que det R es un polinomio con coeficientes
enteros en las entradas de A. (Esto significa, por ejemplo, que si las entradas de A son
números enteros, entonces det R es entero.) Además, esta “raı́z cuadrada del determinante”
resulta de la evaluación en las entradas de A de un polinomio “universal”, muy análogo al
polinomio (1.15) que define el determinante de A por la fórmula de Leibniz.
Es necesario, para entender su definición, hacer un inciso de la teorı́a de polinomios.
Para i, j = 1, . . . , n con i < j, tómese una “incógnita” ti j , y sea t := (t12 , t13 , . . . , tn−1,n ). Sea
Q(t) el cuerpo de cocientes de polinomios en estas incógnitas, con coeficientes racionales.
(Al multiplicar el numerador y denominador de un tal cociente por un número entero apro-
piado, se puede suponer que ese numerador y denominador tienen coeficientes enteros, es
decir, pertenecen al anillo de polinomios Z[t].) Ahora considérese la matriz antisimétrica T
definido por
t13 . . . t1n
0 t12
−t12 0 t23 . . . t2n
T := −t13 −t23 0 . . . t3n ∈ Mn (Q(t)).
.. .. .. .. .
. . . . ..
−t1n −t2n −t3n . . . 0
En el cuerpo Q(t), vale 1 + 1 , 0, ası́ que las proposiciones ya vistas sobre formas bilineales
alternadas siguen válidas para F = Q(t). Se concluye que det T = (det R)2 para cierta matriz
R con entradas en Q(t).
De la fórmula (1.15) se sabe que det R es un polinomio en las entradas de R, ası́ que
det R = q(t)/r(t) donde q, r son polinomios en Z[t] sin factor común. También por (1.15),
resulta que det T =: s(t) es otro polinomio en las incógnitas t. La relación det T = (det R)2
implica
s(t)r(t)2 = q(t)2 . (4.8)
MA–460: Algebra Lineal II 107
Los polinomios con coeficientes enteros (en varias variables) admiten factorización única:
al expresar los dos lados de (4.8) como producto de polinomios irreducibles, se ve que cada
factor irreducible de r(t) es también un factor de q(t). Como q(t) y r(t) no tienen factor
común, se concluye que r(t) ≡ ±1. Por lo tanto, det T = q(t)2 es un cuadrado perfecto en Z[t].
Definición 4.35. Sea A = −At una matriz antisimétrica en Mn (F) donde n = 2m es par. La
evaluación de polinomios ti j 7→ ai j lleva Q(t) en F y lleva la matriz T en A. El polinomio en
las entradas ai j que es la imagen de det R es el pfaffiano de A:
Para resolver la ambigüedad de signo en q(t), se requiere adicionalmente que Pf(J2r ) = +1.
Ejemplo 4.38. La fórmula general para el pfaffiano de una matriz antisimétrica A ∈ M2m (F)
es la siguiente:
1 X
Pf A := (−1)σ aσ(1)σ(2) aσ(3)σ(4) . . . aσ(2m−1)σ(2m) . (4.10)
2m m! σ
Demostración. Si n es impar, los dos lados de la ecuación valen 0. Supóngase, entonces, que
n es par.
Obsérvese que (S t AS )t = S t At S = −S t AS , ası́ que la matriz S t AS es también antisimétrica
y posee un pfaffiano. Ahora det (S t AS ) = (det S )2 det A por las propiedades conocidas de
determinantes. De (4.9) se obtiene enseguida:
Pf(S t AS ) = ±(det S ) (Pf A).
Los dos lados de esta igualdad resultan de la evaluación de una identidad polinomial, con
T en lugar de A y una matriz análoga (cuyas entradas son nuevas incógnitas si j ) en lugar
de S . Esto significa que el signo al lado derecho es el mismo, cualesquiera que sean A y S .
Al tomar S = In , y al recordar que det In = 1, se ve que este signo es positivo, y la fórmula
deseada queda comprobada.
I Hay un contexto importante en donde coexisten una forma bilineal simétrica y una forma
bilineal alternada que juegan papeles complementarias. Ese es el caso de un un espacio vec-
torial complejo W de dimensión m sobre C, dotado de un producto escalar h·, ·i. Se puede
considerar W como un espacio vectorial real de dimensión 2m sobre R, al tomar la multipli-
cación escalar
√ x 7→ cx sólo para c ∈ R, “olvidando” o despreciando las aplicaciones x 7→ ±ix
para i = −1. Las partes real e imaginaria del producto escalar,
d(x, y) := < hx, yi, s(x, y) := = hx, yi,
definen dos formas R-bilineales, d y s, sobre W. Es evidente que d es simétrica y que s es
alternada. La positividad del producto escalar implica que d y s son formas no degeneradas,
y que d sea definida positiva, es decir, su rango y signatura son máximos: r(d) = s(d) = 2m.
Considérese el problema inverso, el de transformar un espacio vectorial real V de di-
mensión par n = 2m, con un producto escalar real d : V × V → R, en un espacio vectorial
complejo de dimensión m, con un producto escalar complejo h·, ·i. Lo que hace falta es una
manera de prescribir la multiplicación escalar de ±i sobre V.
Definición 4.40. Sea (V, d) un espacio euclidiano (esto es, un espacio vectorial real V con una
forma bilineal simétrica d que es definida positiva) de dimensión par n = 2m. Una estructura
compleja ortogonal sobre (V, d) es un operador J ∈ EndR (V) tal que
(a) J 2 = −I en EndR (V), y además
(b) d(Jx, Jy) = d(x, y) para todo x, y ∈ V.
Por el teorema de inercia de Sylvester, hay una base E = {e1 , . . . , en } de V tal que
n
X n
X
d(x, y) = x1 y1 + · · · + xn yn , cuando x= xi ei , y= y j e j.
i=1 j=1
En otras palabras, la base E es una base ortonormal para el espacio euclidiano (V, d). Al
identificar el vector x ∈ V con (x1 , . . . , xn ) ∈ Rn , se obtiene d(x, y) = xt y.
Con un leve abuso de notación, se puede usar la misma letra J para denotar la matriz
E
[J]E ∈ Mn (R). Esta matriz J cumple dos propiedades:
MA–460: Algebra Lineal II 109
(b) J t J = In .
En otras palabras, J es una matriz ortogonal. Además, las propiedades (a) y (b) implican que
J t = −J = J −1 .
Ejemplo 4.41. Si V = R"2m , se #puede tomar J := J2m como en (4.7), la suma directa de m
0 1
copias de la matriz J2 = 2 = −I ⊕ · · · ⊕ −I = −I .
. Es claro que J2m 2 2 2m
−1 0
Lema 4.42. Sea (V, d) un espacio euclidiano de dimensión 2m sobre R y sea J ∈ EndR (V)
una estructura compleja ortogonal. Entonces s(x, y) := d(Jx, y) define una forma bilineal
simpléctica sobre V tal que s(Jx, Jy) ≡ s(x, y).
s(y, x) = d(Jy, x) = d(J 2 y, Jx) = −d(y, Jx) = −d(Jx, y) = −s(x, y), (4.12)
por las propiedades (a) y (b) de la Definición 4.40 y la simetrı́a de d. Por tanto, s es alternada.
Si s(x, y) = 0 para todo y ∈ V, entonces d(Jx, y) = 0 para todo y; de ahı́, es d(Jx, Jx) = 0.
Luego Jx = 0 porque d es definida positiva, y en consecuencia x = 0 ya que J es inversible
(con J −1 = −J). Esto comprueba que s es no degenerada.
También, es s(Jx, Jy) = d(J 2 x, Jy) = s(x, y), a partir de la ecuación (4.12) con x ↔ y.
(a + ib)(p + iq)x = (a + ib)(px + qJ(x)) = apx + (aq + bp) J(x) + bqJ 2 (x)
= (ap − bq) x + (aq + bp) J(x) = ((ap − bq) + i(aq + bp)) x.
MA–460: Algebra Lineal II 110
Por el Lema anterior, s(x, y) := d(Jx, y) es una forma bilineal alternada, ası́ que d + is es
una forma hermı́tica sobre V. Como s(x, x) = 0 para todo x, se ve que hx, xiJ = d(x, x) ≥ 0
para todo x ∈ V, con igualdad sólo si x = 0. Luego V J es un espacio hilbertiano.
Fı́jese que
s(x, y) = d(Jx, y) es equivalente a d(x, y) = s(x, Jy),
porque s(x, Jy) = d(Jx, Jy) = d(x, y).
Sea {u1 , . . . , ur } una familia ortonormal en el espacio hilbertiano V J y considérese el con-
junto de vectores Br = {u1 , J(u1 ), . . . , ur , J(ur )} en V. Si i , j, entonces
d(ui , u j ) + i d(Jui , u j ) = hui , u j i = 0.
Además, d(Jui , ui ) = s(ui , ui ) = 0 para i = 1, . . . , r. Entonces Br es una base ortonormal de
un subespacio Mr de (V, d), de dimensión real 2r. Si r < m, hay un vector ur+1 ∈ V tal
que d(ur+1 , ur+1 ) = 1 y d(ur+1 , ui ) = d(ur+1 , Jui ) = 0 para i = 1, . . . , r, por compleción de una
base ortonormal en (V, d). También, es d(Jur+1 , Jur+1 ) = d(ur+1 , ur+1 ) = 1 y d(Jur+1 , ui ) =
d(Jur+1 , Jui ) = 0, ası́ que {u1 , . . . , ur+1 } es una familia ortonormal en V J . Al llegar a r = m,
se ha construido una base ortonormal U = {u1 , . . . , um } del espacio hilbertiano V J y al mismo
tiempo una base ortonormal Br = {u1 , J(u1 ), . . . , um , J(um )} del espacio euclidiano (V, d). En
particular, es dimC V J = m.
Definición 4.44. Sea (V, d) un espacio euclidiano con dimR V = n. La complexificación de V
es el espacio vectorial complejo
VC = V ⊕ iV := { x + iy : x, y ∈ V },
con multiplicación escalar (a + ib)(x + iy) := (ax − by) + i(bx + ay) para a, b ∈ R, x, y ∈ V. Si
z = x + iy ∈ VC , escrı́base z̄ := x − iy. La forma R-bilineal d sobre V se puede ampliar a una
forma C-bilineal sobre VC al poner d(x + iy, x0 + iy0 ) := d(x, x0 ) + i d(x, y0 ) + i d(y, x0 ) − d(y, y0 ).
Es posible dotar VC de un producto escalar complejo al definir
hhz, wii := 2d(z̄, w) para z, w ∈ VC . (4.14)
Fı́jese que VC tiene dimensión n sobre C.
Lema 4.45. Sea (V, d) un espacio euclidiano con una estructura compleja ortogonal J. En-
tonces W := { x − iJ(x) : x ∈ V } es un subespacio complejo de VC , isomorfo a V J como espacio
hilbertiano.
Demostración. Defı́nase P J := 21 (I − iJ) ∈ EndC (VC ). Entonces P J (VC ) = P J (V) = W, mien-
tras P2J = P J y además P∗J = 12 (I + iJ t ) = 12 (I − iJ) = P J . Luego P J es el proyector ortogonal
sobre VC con imagen W. Si x, y ∈ V, entonces
hhP J (x), P J (y)ii = 12 d(x + iJ(x), y − iJ(y))
= 21 d(x, y) + 2i s(x, y) − 2i s(y, x) + 12 d(J(x), J(y))
= d(x, y) + i s(x, y) = hx, yiJ .
Como dimC W = 21 dimR W = 12 dimR V = dimC V J , se ve que P J : V J → W es una biyección
lineal que entrelaza los productos escalares complejos de V J y W.
MA–460: Algebra Lineal II 111
(c) q(x1 , x2 , x3 ) = x1 x2 + x1 x3 + x2 x3 ,
(d) q(x1 , x2 , x3 , x4 ) = x12 + 2x1 x2 − 2x1 x3 + 2x1 x4 + 4x22 + 4x2 x3 + 2x2 x4 + 4x32 − 2x3 x4 − x42 ,
(e) q(x1 , x2 , x3 , x4 ) = 4x12 − 4x1 x2 − 4x1 x3 + 4x1 x4 + x22 + 4x2 x3 − 4x2 x4 + x32 + x42 .
7 Paramás información sobre polos y polares, véase, por ejemplo, el Tema VI de: Joseph C. Várilly, Elemen-
tos de Geometrı́a Plana, Editorial de la UCR, San José, 1988.
MA–460: Algebra Lineal II 112
Ejercicio 4.7. ¿Cuáles son el rango y la signatura de cada una de las formas cuadráticas del
Ejercicio anterior?
Ejercicio 4.8. Determinar el rango y la signatura de las siguientes formas cuadráticas so-
bre Rn :
Ejercicio 4.12. Encontrar una matriz ortogonal Q ∈ M3 (R) tal que Q−1 AQ sea diagonal,
donde
2 1 1
A := 1 2 1 .
1 1 2
Ejercicio 4.19. Considérese el espacio vectorial R2m con su producto escalar real estándar
d(x, y) = xt y y su forma simpléctica estándar s(x, y) = xt J2m y. Sean A, B ∈ M2m (R) tales que
AJ2m = J2m A y BJ2m = −J2m B. Verificar las siguientes reglas de transposición para s:
[[ Indicación: Factorizar la matriz al lado izquierdo como un producto Rt JR para ciertas ma-
trices apropiadas R, J ∈ M2m (R). ]]
Ejercicio 4.22. Hay una fórmula inductiva que define el pfaffiano de una matriz antisimétrica
A por expansión en filas y columnas. Denótese por Ai j,i j la submatriz (n − 2) × (n − 2) de A
obtenida al borrar las filas i, j y también las columnas i, j de A; escrı́base pi j := Pf(Ai j,i j ). La
regla de expansión es:
n
X
Pf A = a12 p12 − a13 p13 + · · · + (−1) a1n p1n =
n
(−1) j a1 j p1 j .
j=2
(a) Usar esta fórmula para hallar la expresión explı́cita del pfaffiano de una matriz anti-
simétrica 6 × 6, en términos de sus entradas ai j con i < j.
(b) Verificar, por inducción sobre m, que esta fórmula conduce a la expresión gene-
ral (4.10) para el pfaffiano de una matriz antisimétrica 2m × 2m.
I En los ejercicios que siguen, V es un espacio vectorial real de dimensión par n = 2m, d es
un producto escalar real, J es una estructura compleja ortogonal, s es la forma simpléctica
sobre V definido por s(x, y) := d(Jx, y), VC denota la complexificación de V. Cada operador
R-lineal T ∈ EndR (V) se puede ampliar a un operador C-lineal, T ∈ EndC (VC ), mediante la
redefinición T (x + iy) := T (x) + iT (y) para x, y ∈ V.
Ejercicio 4.23. Si R ∈ EndR (V) es un operador ortogonal, es decir, d(R(x), R(y)) = d(x, y)
para todo x, y ∈ V, demostrar que R es inversible y ortogonal, y que RJR−1 es otra estructura
compleja ortogonal sobre V.
MA–460: Algebra Lineal II 115
Ejercicio 4.24. Para V = R4 con el producto escalar usual, sean α, β dos ángulos cualesquiera;
demostrar que las siguientes dos matrices determinan estructuras complejas ortogonales:10
Ejercicio 4.25. Sea V J el propio espacio vectorial V dotado del producto escalar complejo
h·, ·iJ = d + is. Un operador R-lineal Q ∈ EndR (V) define un operador C-lineal sobre V J si
y sólo si QJ = JQ; en cambio, Q define un operador C-semilineal sobre V J si y sólo si
QJ = −JQ.
(a) Sean R := 12 (Q − JQJ), S := 12 (Q + JQJ). Fı́jese que Q = R + S . Verificar que R es
C-lineal y que S es C-semilineal como operadores sobre V J .
(b) Si Q es un operador ortogonal sobre V, mostrar que Rt y S t son las partes C-lineal y
C-semilineal de Q−1 . Además, verificar las relaciones
RRt − S S t = Rt R + S t S = I, RS t = −S Rt , Rt S = −S t R.
Definición 5.5. Si h : V k → F es una forma k-lineal cualquiera, se obtiene una forma simétrica
por simetrización:3
1 X
(Sh)(x1 , . . . , xk ) := h(xσ(1) , . . . , xσ(k) ).
k! σ∈S
k
lo omiten, en cuyo caso los coeficientes factoriales en las fórmulas que siguen no son iguales que los nuestros.
Véase, por ejemplo: Jean Dieudonné, Éléments d’Analyse, tomo 3, inciso A.12.
MA–460: Algebra Lineal II 118
o bien Ah := (1/k!) τ (−1)τ τ · h. Es fácil verificar que Ah es k-lineal y alternada, y que una
P
forma k-lineal g es alternada si y sólo si Ag = g.
Ejemplo 5.6. Considérese el determinante de una matriz A ∈ Mn (F) en función de sus colum-
nas a1 , . . . , an ∈ Fn . La fórmula de Leibniz (1.15), hace evidente que det A depende lineal-
mente de cada columna, y que es una n-forma alternada sobre Fn .
Al omitir el signo (−1)σ en la fórmula de Leibniz, se obtiene el permanente de A,
X
per A := a1 j1 a2 j2 . . . an jn .
σ∈S n
( f ∧ g) ∧ h = f ∧ (g ∧ h).
f1 ∧ · · · ∧ fk = k! A( f1 ⊗ · · · ⊗ fk ) para f1 , . . . , fk ∈ V ∗ . (5.5)
g ∧ f = (−1)kr f ∧ g. (5.6)
( f1 ∧ · · · ∧ fk )(x1 , . . . , xk ) = det fi (x j ) ,
(5.7)
( f1 ∧ · · · ∧ fk )(x1 , . . . , xk ) = k! A( f1 ⊗ · · · ⊗ fk )(x1 , . . . , xk )
(−1)σ ( fσ(1) ⊗ · · · ⊗ fσ(k) )(x1 , . . . , xk )
X
=
σ
(−1)σ fσ(1) (x1 ) . . . fσ(k) (xk )
X
=
σ
= det fi (x j ) .
Proposición 5.13. Para cada forma k-lineal alternante g : E k → F, hay una única aplicación
lineal g̃ : Λk V → F tal que
Demostración. La forma g queda determinada por los coeficientes cI := g(xi1 , . . . , xik ), donde
I ⊆ {1, . . . , n} con |I| = k y {x1 , . . . , xn } es una base de V. Entonces g̃(xI ) := cI necesariamente.
Pero una forma lineal sobre Λk V queda determinada por sus valores en una base, ası́ que esta
asignación de valores define la forma lineal g̃ deseada.
De este modo, se identifica el espacio vectorial Λk V ∗ de formas k-lineales alternantes con
el espacio dual (Λk V)∗ . Bajo esta identificación, la fórmula (5.7) dice simplemente que la
base { fI : |I| = k } de Λk V ∗ es la base dual a la base { xI : |I| = k } de Λk V.
MA–460: Algebra Lineal II 121
que es la suma directa de las potencias exteriores Λk V del espacio vectorial V, dotado con el
producto exterior de multivectores. Un escalar c ∈ F se considera como elemento del espacio
vectorial unidimensional Λ0 V, con c ∧ z := cz para c ∈ F, z ∈ Λ• V.
Si algún sumando es trivial (es decir, si Ak = {0} para algún k), se omite ese ı́ndice en la suma
directa.6
n+k−1 Esto es, se debe elegir k objetos de entre una lista de n + k − 1 objetos dados; hay
paredes.
k maneras de hacer esa elección.
Para obtener dim S k V = n+k−1
k , se intercambian los papeles de V y de V ∗ , que tienen la
misma dimensión n.
Definición 5.20. Si A es un álgebra sobre F, un ideal de A es un subespacio J tal que a ∈ A,
j ∈ J implican a j ∈ J y ja ∈ J. El espacio vectorial cociente A/J := { a + J : a ∈ A } es un
álgebra también, porque la relación (a1 + j1 )(a2 + j2 ) = a1 a2 + (a1 j2 + j1 a2 + j1 j2 ) muestra
que (a1 + J)(a2 + J) = a1 a2 + J en A/J.
Ejemplo 5.21. Sea JS el ideal del álgebra T(V) generado por todos los elementos de la
forma x ⊗ y − y ⊗ x, para x, y ∈ V. El álgebra cociente T(V)/JS es isomorfo a S • V, porque
la simetrización S : V ⊗k → S k V tiene como núcleo el subespacio V ⊗k ∩ JS . Es claro que
V ∩ JS = {0}, es decir, JS no contiene elementos de nivel k = 1, ası́ que S : V ⊗1 → S 1 V es
simplemente la identidad I : V → V.
Ejemplo 5.22. Sea JΛ el ideal del álgebra T(V) generado por todos los elementos de la
forma x ⊗ y + y ⊗ x, para x, y ∈ V. El álgebra cociente T(V)/JΛ es isomorfo a Λ• V, porque
la simetrización A : V ⊗k → Λk V tiene como núcleo el subespacio V ⊗k ∩ JΛ . Es claro que
V ∩ JΛ = {0}, es decir, Jλ no contiene elementos de nivel k = 1, ası́ que S : V ⊗1 → Λ1 V es
simplemente la identidad I : V → V.
volB := x1 ∧ x2 ∧ · · · ∧ xn .
n
X
x01 ∧ x02 ∧ · · · ∧ x0n = p j1 ,1 p j2 ,2 . . . p jn ,n x j1 ∧ x j2 ∧ · · · ∧ x jn
j1 ,..., jn =1
porque bk = 0 en Λ2k V si k > m. En efecto, cualquier función f (t) definido por una serie de
potencias con coeficientes racionales —aplicable al caso actual de un cuerpo F cualquiera—
conduce, por la sustitución t 7→ b, a un elemento f (b) ∈ Λ• V definido por una suma finita de
elementos en la subálgebra par Λ+ V := k=0 Λ2k V.
L m
9 Esta terminologı́a curiosa se debe a una marcada analogı́a, enfatizada por Berezin, entre esta forma lineal y
una cierta integral (con peso e−t /2 ) sobre polinomios. De hecho, hay un isomorfismo evidente entre el álgebra
2
Demostración. Obsérvese que la matriz B del bivector b es antisimétrica y que cada sub-
matriz principal BII es también antisimétrica. Además, Pf BII = 0 cuando |I| es impar: la
sumatoria al lado derecho de (5.11) extiende sobre toda parte I ⊆ {1, . . . , n} pero se ha omitido
los términos nulos.
Para un determinado conjunto I de ı́ndices, con |I| par, sea W el subespacio de V generado
por los vectores básicos { xi : i ∈ I }. Defı́nase la proyección lineal P : V → W por P(xi ) := xi
si i ∈ I, P(x j ) := 0 si j < I. Fı́jese que ΛP(x J ) = x J si J ⊆ I y que ΛP(x J ) = 0 para otros J.
Ahora, es ΛP(b) ∈ Λ2 W y además
X 1
ΛP(exp b) = (ΛP(b))∧k = exp(ΛP(b)).
0≤2k≤n
k!
12 Obsérveseque d es un producto escalar si y sólo si d es definida positiva, si y sólo si s(d) = n; en cuyo caso
E es una base ortonormal para el espacio euclidiano (V, d).
MA–460: Algebra Lineal II 127
Definición 5.28. Si (V, d) es un espacio vectorial real con una forma bilineal simétrica no de-
generada, para cada vector y ∈ V se define un operador ι(y) ∈ End(Λ• V), llamado contracción
con el vector y, mediante la fórmula
k
X
ι(y)(x1 ∧ · · · ∧ xk ) := (−1) j−1 d(y, x j ) x1 ∧ · · · ∧ xbj ∧ · · · ∧ xk ,
j=1
para todo x1 , . . . , xk ∈ V, donde el circunflejo en xbj significa que el término x j se omite del
producto exterior x1 ∧ · · · ∧ xk . Obsérvese que ι(y) es un operador de grado −1 sobre el
álgebra graduada Λ• V, porque lleva el subespacio Λk V en Λk−1 V. Sobre los escalares en
Λ0 V, el operador ι(y) se anula: se define ι(y)(1) := 0 por convención.
Lema 5.29. Si y ∈ V, entonces ι(y)2 = 0 en End(Λ• V).
Demostración. Es obvio que ι(y)2 (1) = 0 y ι(y)2 (x) = ι(y) d(y, x) = 0 para todo x ∈ V. Para
k = 2, . . . , n, se calcula que
X
ι(y)2 (x1 ∧ · · · ∧ xk ) = (−1)i−1 (−1) j−1 d(y, xi ) d(y, x j ) x1 ∧ · · · ∧ xbi ∧ · · · ∧ xbj ∧ · · · ∧ xk
i< j
X
+ (−1)i−2 (−1) j−1 d(y, xi ) d(y, x j ) x1 ∧ · · · ∧ xbj ∧ · · · ∧ xbi ∧ · · · ∧ xk
i> j
X
= (−1)i+ j−2 + (−1)i+ j−3 d(y, xi ) d(y, x j ) x1 ∧ · · · ∧ xbi ∧ · · · ∧ xbj ∧ · · · ∧ xk .
i< j
X k
ε(x0 )ι(z) + ι(z)ε(x0 ) (x1 ∧ · · · ∧ xk ) = (−1) j−1 d(x j , z) x0 ∧ x1 ∧ · · · ∧ xbj ∧ · · · ∧ xk
j=1
k
X
+ (−1) j d(x j , z) x0 ∧ x1 ∧ · · · ∧ xbj ∧ · · · ∧ xk
j=0
= d(x0 , z) x1 ∧ · · · ∧ xk ,
porque los términos de las dos sumatorias se anulan por cancelación de signos, con la ex-
cepción del primer término de la segunda sumatoria.
MA–460: Algebra Lineal II 128
= 2 d(y, z) I. (5.12a)
Proposición 5.32. Las álgebras C`(V, d) y Λ• V son isomorfos como espacios vectoriales
reales, pero no como álgebras sobre R.
Demostración. Si E = {e1 , . . . , en } es una base ortonormal para (V, d), sus elementos anticon-
mutan en C`(V, d), ya que ei e j + e j ei = 0 para i , j, en vista de (5.12b). Por lo tanto, el álgebra
C`(V, d) es generada por los productos ordenados
Estos elementos están etiquetadas por las partes I = {i1 , . . . , ik } ⊆ {1, . . . , n}. (El caso I = ∅
corresponde al escalar 1 ∈ R; fı́jese que e2i = ±1 en C`(V, d) para i = 1, . . . , n.) En consecuencia,
es dim C`(V, d) ≤ 2n = dim Λ• V.
Defı́nase una aplicación lineal σ : C`(V, d) → Λ• V por
σ(a) := a(1).
y si y, z ∈ V, entonces13
Entonces σ(ei1 ei2 . . . eik ) = ei1 ∧ ei2 ∧ · · · ∧ eik para todo I ⊂ {1, . . . , n}. Luego la aplicación σ es
sobreyectiva. Si I aI ei1 . . . eik = 0 en C`(V, d) para algunos coeficientes aI ∈ R, al aplicar σ se
P
obtiene la relación I aI ei1 ∧ · · · ∧ eik = 0 en Λ• V y se concluye que cada aI = 0. Por lo tanto,
P
los elementos ei1 . . . eik son linealmente independientes en C`(V, d), luego dim C`(V, d) = 2n y
la aplicación lineal σ es biyectiva.
Por otro lado, si y ∈ V con d(y, y) , 0, entonces y2 = d(y, y) , 0 en C`(V, d) pero σ(y)∧2 =
y ∧ y = 0 en Λ2 V y por ende σ(y2 ) , σ(y)∧2 . Esto comprueba que σ no es un homomorfismo
de álgebras.
Corolario 5.34. Sea V un espacio vectorial real con una forma bilineal simétrica no de-
generada d con rango p + q, signatura p − q. Un álgebra real A es isomorfo a C`(V, d) si y
sólo si dimR A = 2dim V y hay elementos generadores14 a1 , . . . , a p , b1 , . . . , bq ∈ A tales que para
i, j ∈ {1, . . . , p} distintos, r, s ∈ {1, . . . , q} distintos, valen
Demostración. Con n = p + q = dim V, sea E = {e1 , . . . , en } una base ortonormal para (V, d)
tal que d(ei , ei ) = +1 para i = 1, . . . , p y d(e p+r , e p+r ) = −1 para r = 1, . . . , q. Defı́nase una
aplicación lineal f : V → A por f (ei ) := ai si i = 1, . . . , p y f (e p+r ) := br si r = 1, . . . , q.
Si x = λ1 e1 + · · · + λn en ∈ V, las relaciones (5.15) muestran que
p
X q
X 2
f (x) =
2
λ i ai + λ p+r br = (λ21 + . . . + λ2p − λ2p+1 − . . . − λ2p+q ) 1A = d(x, x) 1A .
i=1 r=1
I El Corolario 5.34 permite una descripción explı́cita de las álgebras de Clifford reales de
baja dimensión.
Notación. Escrı́base C` p,q := C`(R p+q , d p,q ) donde d p,q denota la forma bilineal simétrica
sobre R p+q dada por
Para la base ortonormal estándar de R p+q se escribe E = {e1 , . . . , e p , ε1 , . . . , εq }. Con esta no-
tación, es e2i = +1 en C`(V, d) para i = 1, . . . , p y ε2r = −1 en C`(V, d) para r = 1, . . . , q.
Como caso trivial, se designa C`0,0 := R, de dimensión 20 = 1.
14 Unoselementos c1 , . . . , ck son generadores de un álgebra A si todos los productos finitos ci1 . . . cil generan
A como espacio vectorial.
MA–460: Algebra Lineal II 131
Ejemplo 5.36. Es claro que C`1,0 ' R ⊕ R como espacio vectorial; la primera copia de R
denota los escalares, la segunda copia son los múltiplos de e1 . Si a, b, c, d ∈ R, entonces
(a + be1 )(c + de1 ) = (ac + bd) + (ad + bc)e1 . Se puede considerar R ⊕ R como subálgebra de
M2 (R), al identificar
" # " # " #
1 0 0 1 a b
1↔ , e1 ↔ , a + be1 ↔ .
0 1 1 0 b a
Ejemplo 5.37. Por otro lado, es C`0,1 ' C. En efecto, la regla de multiplicación
Definición 5.38. Las matrices de Pauli15 son las siguientes tres matrices en M2 (C):
" # " # " #
0 1 0 −i 1 0
σ1 := , σ2 := , σ3 := . (5.16)
1 0 i 0 0 −1
Obsérvese que σ21 = σ22 = σ23 = I2 y que estas matrices anticonmutan; en efecto,
Ejemplo 5.39. Resulta que C`2,0 ' M2 (R). En primer lugar, es C`2,0 = linh1, e1 , e2 , e1 e2 i.
Obsérvese que
(e1 e2 )2 = e1 e2 e1 e2 = −e1 e1 e2 e2 = −(+1)(+1) = −1.
Por tanto, como σ3 y σ1 anticonmutan, se puede identificar
" # " # " #
1 0 0 1 0 1
e1 ↔ σ3 = , e2 ↔ σ1 = , e1 e2 ↔ J2 = .
0 −1 1 0 −1 0
Junto con 1 ↔ I2 , estas matrices generan M2 (R) como espacio vectorial real; es evidente que
el producto de elementos de C`2,0 corresponde con el producto de las matrices 2 × 2.
Ejemplo 5.40. También sucede que C`1,1 ' M2 (R), con otra identificación. Ahora C`2,0 =
linh1, e1 , ε1 , e1 ε1 i, con (e1 ε1 )2 = −e1 e1 ε1 ε1 = −(+1)(−1) = +1. Como σ1 y J2 anticonmutan,
se identifica
" # " # " #
0 1 0 1 −1 0
e1 ↔ σ1 = , ε1 ↔ J2 = , e1 ε1 ↔ −σ3 = .
1 0 −1 0 0 1
15 Estos matrices fueron usadas por el fı́sico austriaco Wolfgang Pauli en 1927 para modelar el fenómeno de
espı́n de un electrón. Su principio de exclusión, que afirma que dos partı́culas subatómicas de espı́n 21 no pueden
coexistir en un mismo estado material, es la base de la explicación moderna de la estructura de los átomos.
MA–460: Algebra Lineal II 132
Definición 5.41. Los cuaterniones son elementos del álgebra real H := linh1, i, j, ki, con
dimR H = 4, cuyos generadores i, j, k obedecen las relaciones de Hamilton:16
i2 = j2 = k2 = i jk = −1.
Nótese también que dimR M2 (H) = 4 dimR H = 16. El Corolario 5.34 muestra el isomorfismo
requerido, al identificar e1 , e2 , e3 , e4 con σ1 , σ2 , σ3 , τ2 respectivamente.
Lema 5.45. Hay isomorfismos C` p+1,q+1 ' M2 (C` p,q ), para todo p, q ∈ N.
Demostración. Por el Corolario 5.34, basta identificar la base {e1 , . . . , e p+1 , ε1 , . . . , εq+1 } de
R p+q+2 con elementos de M2 (C` p,q ) con cuadrados respectivos ±1 que anticonmutan entre sı́.
Fı́jese que dim C` p+1,q+1 = 2 p+q+2 = 4 · 2 p+q = dim M2 (C` p,q ). Las identificaciones requeridas
son
εr 0
" # " #
ei 0
ei 7−→ para i = 1, . . . , p, εr 7−→ , para r = 1, . . . , q,
0 −ei 0 −εr
Este resultado de “periodicidad-(1, 1)” muestra que es suficiente clasificar las álgebras de
Clifford C` p,0 y C`0,q para p, q ∈ N. De hecho, hay otro resultado importante, la periodicidad
módulo 8, que afirma que17
De este modo, basta clasificar C` p,0 y C`0,q para p, q = 0, 1, . . . , 7. Por ejemplo, vale
C`8,0 ' C`0,8 ' M16 (C`0,0 ) = M16 (R). La lista de estos casos, completando los ejemplos
anteriores, es18
C` p,0 para p = 0, 1, . . . , 7 :
R, R ⊕ R, M2 (R), M2 (C), M2 (H), M2 (H) ⊕ M2 (H), M4 (H), M8 (C);
C`0,q para q = 0, 1, . . . , 7 :
R, C, H, H ⊕ H, M2 (H), M4 (C), M8 (R), M8 (R) ⊕ M8 (R).
De hecho, estas listas ejemplifican un teorema de Wedderburn, que dice que cualquier álgebra
real asociativa semisimple19 es una suma directa de álgebras de matrices sobre una de las tres
álgebras R, C, H.
g = h1 ∧ h2 + h3 ∧ h4 + · · · + h2r−1 ∧ h2r ,
17 En el caso complejo (se puede desarrollar la teorı́a de las álgebras de Clifford sobre C en vez de R) hay un
resultado más sencillo: si C`n es el álgebra de Clifford complejo generado por el espacio hilbertiano Cn , entonces
C`n+2 ' M2 (C`n ). Esto fue descubierto por Raoul Bott en 1958, como consecuencia de su clasificación de los
grupos de homotopı́a de los grupos unitarios. La esencia algebraica de esta construcción fue extraı́da, junto
con la periodicidad módulo 8 para el caso real, en: Michael Atiyah, Raoul Bott y Arnold Shapiro, “Clifford
modules”, Topology 3 (1964), 3–38.
18 Aquı́ no se demuestran los casos superiores, ni el teorema de periodicidad módulo 8. Para estos y otros
detalles sobre las álgebras de Clifford, se remite al Capı́tulo 5 del libro: José M. Gracia-Bondı́a, Joseph C.
Várilly y Héctor Figueroa, Elements of Noncommutative Geometry, Birkhäuser, Boston, 2001.
19 Un álgebra se llama semisimple si no posee ideales nilpotentes. Para el teorema de Wedderburn, véase el
último capı́tulo de: Isadore Herstein, Topics in Algebra, Blaisdell, New York, 1964.
MA–460: Algebra Lineal II 134
α β
" #
[[ Indicación: Si α, β ∈ C, se identifica α + β j ∈ H con la matriz ∈ M2 (C). ]]
−β̄ ᾱ
20 Una orientación sobre V es una de las dos clases de equivalencia de bases ordenadas determinadas por el
signo de det [I]B
B0
.
MA–460: Algebra Lineal II 135
Bibliografı́a
Los siguientes libros amplifican y profundizan los tópicos vistos en este curso.
2. Feliks R. Gantmacher, The Theory of Matrices, tomo 1, Chelsea, New York, 1959.
3. Lidia I. Goloviná, Algebra Lineal y Algunas de sus Aplicaciones, Mir, Moscú, 1974.
6. Serge Lang, Algebra Lineal, Fondo Educativo Interamericano, México, DF, 1976.
10. Denis Serre, Matrices: Theory and Applications, Graduate Texts in Mathematics 216,
Springer, New York, 2002.