Álgebra Lineal de Jorge Campos Unexpo Barquisimeto
Álgebra Lineal de Jorge Campos Unexpo Barquisimeto
Álgebra Lineal de Jorge Campos Unexpo Barquisimeto
Al Dios que habita en cada uno de nosotros y que es la fuente de todo conocimiento.
A mis padres, quienes me inculcaron los valores que me guı́an dı́a a dı́a, les agradezco las
profundas enseñanzas que me dieron y el rol tan importante que jugaron para mı́ en esta
vida.
A mi hermana Juanita, siempre tan consecuente y bondadosa conmigo.
A mi hermana Belkis, por su manera tan particular de demostrarme su amor.
A mis hermanos y hermanas, quienes siempre han estado presentes en mi vida, nombrarlos
a todos uno por uno me llevarı́a buena parte de los agradecimientos, sin embargo, todos ellos
son pilares en mi vida.
Al Supremo Creador A mis amigas, colegas y compañeras de trabajo, Marirosa Morello y Carolina Cárdenas,
Y A mis Padres quienes con su insistencia y paciencia fueron de gran ayuda para culminar este trabajo.
A mi amiga, colega y compañera de trabajo Blanca Peña quien, con sus conocimientos en
el área de Planificación, me ayudó de gran manera.
A mi amigo, colega y compañero de trabajo Ramón Vivas, por su apoyo en la elaboración
de este material.
A mi amiga y compañera de trabajo Yaritza Canelón, por siempre estar dispuesta a ayudar
en lo que pueda.
A todos mis amigos, compañeros de trabajo y colegas que de una u otra forma han sido
de ayuda.
A la UNEXPO, donde laboro, me he formado y me sigo formando profesionalmente.
A todos aquellos a quienes no nombro pero que han sido de gran ayuda, les pido disculpas
por la omisión.
A todos mis más sinceras gracias.
ii
Índice general
Apéndices 209
interno, que a su vez nos permitirá el estudio de los espacios normados, junto con las impli-
caciones que esto conlleva, como son, entre otras cosas, las bases ortormales y el proceso de
ortonormalización de Gram-Schmidt.
Capı́tulo 5: es el estudio de la diagonalización de matrices, el cual, necesariamente, requiere
del estudio de los autovalores, autovectores y autoespacios de una matriz, también se hará
Introducción un pequeño y rápido estudio de la forma canónica de Jordan de una matriz.
Capı́tulo 6: al igual que el capı́tulo 5, es bastante corto desde el punto de vista teórico, sin
embargo, en este último capı́tulo del trabajo se manejan, prácticamente, todos los conceptos
y herramientas teorico-prácticas de los cinco primeros capı́tulos, por lo tanto, desde cierto
En diversas áreas de estudio, en los distintos niveles educativos, ocurre que nos encontramos punto de vista, es un repaso del curso en sı́, la idea principal de este capı́tulo es el estudio de
con problemas en los cuáles, para su resolución, necesariamente se ve involucrada el Álgebra las transformaciones lineales que no son sino una clase particular de funciones entre espacios
Lineal, en particular en el área de ingenierı́a. La mayorı́a de estos problemas pueden ser vectoriales, acá también se estudiarán algunos problemas de aplicación que involucran las
modelados por medio de las matrices, las cuales juegan un papel prepodenrante para su tansformaciones lineales.
resolución, o bien algún método de resolución numérica basado en métodos netamente del Finalmente, al final del presente trabajo, se presentan algunos apéndices, la intención de
Álgebra Lineal. estos es profundizar sólo un poco más sobre algunos de los temas acá planteados entre los
capı́tulos 1 al 6, pero no forman parte esencial del objetivo principal del material.
A pesar de la variedad de textos existentes en el mercado que cubren el contenido teórico
del programa que se dicta en las carreras de ingenierı́a del Vicerrectorado Barquisimeto de
la UNEXPO, no se tiene un material totalmente adaptado al contenido programático que
se tiene en el Vicerrectorado, además de que pocos textos contienen las aplicaciones de las
transformaciones lineales, que son de mucha utilidad en las áreas de ingenierı́a eléctrica y
electrónica, entre otras.
El objetivo principal del presente trabajo es presentar un material que permita el estudio
del Álgebra Lineal con un enfoque hacia las carreras de ingenierı́a o bien áreas conexas, más
particularmente, dirigido a estudiantes de la UNEXPO. Para ello se hará un pasaje por la
teorı́a que nos permita tener las herramientas necesarias para resolver los problemas antes
mencionados.
A continuación haremos un resumen breve de cada uno de los capı́tulos del presente ma-
terial.
Capı́tulo 1: se darán las principales herramientas para resolver problemas en los cuales
esté involucrada la resolución de sistemas de ecuaciones lineales, para ello se estudiarán las
propiedades de las operaciones con matrices, se establecerá el vı́nculo entre las matrices
y los sistemas de ecuaciones lineales para luego presentar problemas que involucran estas
herramientas como son, entre otros, la búsqueda de la inversa de una matriz y problemas de
aplicación de los sistemas de ecuaciones lineales.
Capı́tulo 2: continúa con el esquema matricial y en esta ocasión corresponde al estudio de
los determinantes, los cuales, desde el punto de vista histórico, surgieron antes que el estudio
formal de las matrices, esta herramienta, más que todo calculista, nos permite decidir, entre
otras cosas, cuando una matriz tiene o no inversa.
Capı́tulo 3: se presentan los espacios vectoriales, que son el basamento principal del Álgebra
Lineal, pasando por los conceptos primordiales de subespacio vectorial, base y dimensión de
un espacio vectorial.
Capı́tulo 4: se estudian un tipo especı́fico de espacios vectoriales, los espacios con producto
1 2 Jorge Campos
Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales
Para cada j ∈ {1, . . . , n} la j-ésima columna de A la denotaremos por A(j) y está dada
por
a1j
a2j
A(j) = ..
.
Capı́tulo 1 amj
Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
componentes a1,1 , a2,2 , . . . , ann , forman lo que llamaremos diagonal principal de A.
Matrices y Sistemas de Ecuaciones Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una
matriz columna.
Lineales La notación A = (aij )m×n , significa que A es la matriz de orden m × n cuya ij-ésima
componente es aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
El conjunto formado por todas las matrices reales de orden m × n lo denotaremos por
Mm×n (R).
Como sabemos, cada vez es más común el uso del Álgebra Lineal en el planteamiento y
resolución de variados problemas que surgen en áreas relacionadas con la ingenierı́a, es por Observación 1.1. Podemos considerar matrices sobre un campo2 K, por ejemplo
ello que ésta juega un papel preponderante en el estudio y comprensión de los mismos. En la K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son
resolución de la mayorı́a de estos problemas, las matrices sugen de manera natural, estas elementos de K. La notación para el conjunto de todas las matrices de orden m × n sobre K,
pueden aparecer de forma directa o bien como una consecuencia del estudio, planteamiento análogo al caso real, es Mm×n (K).
y modelaje de un problema especı́fico. Una de las principales causas de la aparición de las Observación 1.2. Se debe tener cuidado cuando se usa la notación (aij )m×n , el cambio de
matrices en la resolución de dichos problemas, son los sistemas de ecuaciones lineales ı́ndices no significa que se trata de otra matriz, los ı́ndices son “mudos”, esto es
y, para poder resolverlos, se necesita el uso y manejo de las operaciones elemnetales
por filas. En el presente capı́tulo estudiaremos con detalle cada uno de los conceptos antes (aij )m×n = (akr )m×n = (apq )m×n = (aji )m×n
mencionados ası́ como otros más.
A continuación
ilustraremos algunos
de los conceptos dados en la definición 1.1
a1,1 · · · a1j · · · a1n
1.1. Operaciones con Matrices .. .. ..
. . .
Definición 1.1. Sean m, n ∈ Z+ . Una matriz real A de orden m por n (m × n) es un A = ai1 · · · aij · · · ain ← i-ésima fila de A
.
arreglo bidimensional de números reales dispuestos en m filas y n columnas como sigue .. ... ...
am1 · · · amj · · · amn
a1,1 a1,2 · · · a1n a1,1 a1,2 · · · a1n ↑
a2,1 a2,2 · · · a2n a2,1 a2,2 · · · a2n
j-ésima columna de A
A = (aij )m×n = .. .. .. = .. .. ..
. . . . . .
am1 am2 · · · amn am1 am2 · · · amn a1,1 a1,2 ··· a1n
a a2,2 ··· ain
donde aij ∈ R para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, el cual es llamado compo- i1
nente ij-ésima1 de A.
A= . .. ... .. ← matriz cuadrada (de orden n)
.. . .
Para cada i ∈ {1, . . . , m} la i-ésima fila de A la denotaremos por A(i) y está dada por an1 an2 · · · ann
� �
A(i) = ai1 ai2 · · · ain �
1
diagonal principal de A
Cuando pueda haber error a confusión, usaremos una coma entre los subı́ndices, por ejemplo a2,5 en lugar
2
de a25 Para mayores detalles sobre el concepto de campo se recomienda ir al Apéndice B.
3 4 Jorge Campos
1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales
Ejemplo 1.1. Definición 1.2. Sea A ∈ Mn×n (R). Diremos que A = (aij )n×n es
� √ �
−2 0 5 1. Triangular superior si aij = 0 para cualesquiera i, j ∈ {1, . . . , n} con i > j.
1. A = 2 es una matriz real de orden 2 × 3, la componente 2, 1 de A es
4 1
3 � √ � 2. Triangular inferior si aij = 0 para cualesquiera i, j ∈ {1, . . . , n} con i < j.
� � 5
a2,1 = 23 , la fila 2 de A es A(2) = 23 4 1 , la columna 3 de A es A(3) =
1 3. Diagonal si aij = 0 para cualesquiera i, j ∈ {1, . . . , n} con i �= j, es decir, A es
triangular superior e inferior simultáneamente.
−1 4 0
2. B = 5 12 −3 es una matriz cuadrada real de orden 3, las componentes de la 4. Escalar si es diagonal y además existe λ ∈ R tal que aii = λ para cada i ∈ {1, . . . , n}.
0 2 −8
diagonal principal son a1,1 = −1, a2,2 = 12, a3,3 = −8. Observación 1.3. Cualquier matriz que sea triangular superior o inferior es llamada ma-
triz triangular.
3. La matriz In = (δij )n×n , donde, para cada i, j ∈ {1, . . . , n},
Observación 1.4. Una matriz cuadrada es triangular superior (respectivamente inferior) si
� y sólo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales
1 si i = j
δij = a cero.
0 si i �= j
Observación 1.5. Cuando A ∈ Mn×n (R) es diagonal y las componentes en la diagonal
es llamada matriz identidad de orden n, esto es,
principal son λ1 , λ2 , . . . , λn ∈ R, escribiremos A = diag(λ1 , λ2 , . . . , λn ).
1 0 ··· 0 Ejemplo 1.2.
. . ..
0 1 . .
In = . . 1. Para cada n ∈ Z+ , In y 0/n son matrices escalares, y por lo tanto diagonales y conse-
.. . . . . . 0
cuentemente triangulares superior e inferior.
0 · · · 0 1 n×n
−5 4 0 −7
La función δij , que define la componente ij de la matriz identidad, es llamada función 0 3 12 5
2. A =
0 0 2
es triangular superior.
delta de Kronecker3 . 1
0 0 0 0
4. La matriz 0/m×n = (ξij )m×n , donde ξij = 0 para cada i ∈ {1, . . . , m} y para cada
j ∈ {1, . . . , n}, es llamada matriz nula de orden m × n, es decir, −5 0 0 0
0 4 0 0
3. A =
0 −1
es triangular inferior.
0 ··· 0 0 0
..
0/m×n = ... . 9 13 −3 8
0 ··· 0
m×n 6 0 0 0
0 −3 0 0
Cuando m = n, sólo escribiremos 0/n en lugar de 0/n×n , es decir, 4. A =
0
es diagonal y podemos escribir A = diag(6, −3, −5, 0).
0 −5 0
0 0 0 0
0 ··· 0
..
0/n = ... . . . . 8 0 0 0
0 ··· 0 0 8 0 0
n×n 5. A =
0 0 8 0 es escalar, ası́ que podemos escribir A = diag(8, 8, 8, 8).
� 0 0 0 8
3
Es llamada ası́ en honor al matemático alemán Leopold Kronecker. �
Definición 1.3. Sean A, B ∈ Mm×n (R). Diremos que A y B son matrices iguales, lo cual son submatrices de la matriz
denotaremos por A = B, si la componente ij-ésima de A es igual a la componente ij-ésima de
2 −1 0 3 4 −5
B para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, es decir, si A = (aij )m×n y B = (bij )m×n , 0 3 −1 2 7 6
diremos que A y B son iguales si aij = bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}. A=
−4
8 2 −11 5 2
7 −5 12 9 −3 0
Observación 1.6. Nótese que para que dos matrices sean iguales, en primer lugar, de-
ben ser del mismo orden. En algunos textos, cuando dos matrices no son del mismo orden, para obtener A1 se eliminaron la fila 3 y las columnas 3 y 6; para obtener A2 se eliminaron la
simplemente se dice que no son comparables. fila 1 y la columna 2; para A3 se eliminaron las dos últimas filas y las tres primeras columnas;
para A4 ser eliminaron las columnas 3 y 4 y para la obtención de A5 se eliminó la fila 3.
� � 5 7 x 7 �
5 −1 0
Ejemplo 1.3. Si A = ; B = 0 y y C = 0 −3 , entonces Luego veremos la utilidad de éstas matrices.
−6 8 3
−2 4 −2 4
A �= B pues ni siquiera son del mismo orden4 ; B = C si y sólo si x = 5 e y = −3.
� 1.1.1. Suma de Matrices y Multiplicación por Escalar
En este apartado definiremos dos operaciones con matrices que dotarán al conjunto
El siguiente teorema es una consecuencia directa de la definición de igualdad de matrices, Mm×n (R) de una estructura algebraica conocida como espacio vectorial , dicha estruc-
su demostración la dejamos como ejercicio. tura será tratada con detalle en el capı́tulo 3, en cierto modo, las definiciones de dichas
operaciones son “naturales” como veremos a continuación.
Teorema 1.1. Sean A, B ∈ Mm×n (R). Entonces las siguientes proposiciones son equivalentes
Definición 1.5. Sean A, B ∈ Mm×n (R), con A = (aij )m×n y B = (bij )m×n . Definiremos
1. A = B. la matriz suma de A con B como la matriz A + B ∈ Mm×n (R) cuya ij-ésima componen-
te viene dada por aij + bij para cualesquiera i ∈ {1, . . . , m} y j ∈ {1, . . . , n}, esto es, si
2. A(i) = B(i) para cada i ∈ {1, . . . , m}. A + B = (cij )m×n , entonces cij = aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
Observación 1.7. Para poder sumar dos matrices éstas deben ser del mismo orden.
3. A(j) = B (j) para cada j ∈ {1, . . . , n}.
4 −9 0 8 −3 9 5 −4
Demostración. ¡Ejercicio! Ejemplo 1.5. Si A = −7 3 5 −12 y B = 1 −13 3 9 , entonces
1 0 −6 2 10 4 7 11
4 −9 0 8 −3 9 5 −4
Definición 1.4. Dada una matriz A ∈ Mm×n (R), cualquier matriz que se obtiene al eliminar
A + B = −7 3 5 −12 + 1 −13 3 9
ciertas filas o columnas de A, pero no todas, es llamada submatriz de A.
1 0 −6 2 10 4 7 11
Ejemplo 1.4. Las matrices 4 + (−3) −9 + 9 0 + 5 8 + (−4) 1 0 5 4
= −7 + 1 3 + (−13) 5 + 3 −12 + 9 = −6 −10 8 −3
2 −1 3 4 0 −1 2 7 6 � � 1 + 10 0 + 4 −6 + 7 2 + 11 11 4 1 13
3 4 −5
A1 = 0 3 2 7 ;
A2 = −4 2 −11 5 2 ; A3 = ; �
2 7 6
7 −5 9 −3 7 12 9 −3 0
Definición 1.6. Sean A ∈ Mm×n (R) y α ∈ R (α es llamado escalar5 ), con A = (aij )m×n .
Definiremos la multiplicación de α por A ( multiplicación por escalar) como la matriz
2 −1 4 −5
0 2 −1 0 3 4 −5 α · A o simplemente αA cuya ij-ésima componente es αaij para cada i ∈ {1, . . . , m} y cada
3 7 6
A4 =
−4
y A5 = 0 3 −1 2 7 6 j ∈ {1, . . . , n}, esto es, si αA = (bij )m×n , entonces bij = αaij para cada i ∈ {1, . . . , m} y
8 5 2
7 −5 12 9 −3 0 cada j ∈ {1, . . . , n}.
7 −5 −3 0
5
A los elementos de un campo o cuerpo (e incluso en algunos casos también a los elementos de un anillo)
4
A partir de la observación 1.6, podrı́amos decir, simplemente, que las matrices A y B no son comparables. se les llama escalares.
Observación 1.8. La notación de multiplicación por escalar es α · A o αA y no A · α ni 2. Hagamos A + B = E = (eij )m×n , (A + B) + C = E + C = F = (fij )m×n ,
Aα, se debe colocar primero el escalar luego la matriz. B + C = G = (gij )m×n y A + (B + C) = A + G = H = (hij )m×n . Ası́ que, para
cualesquiera i ∈ {1, . . . , m} y j ∈ {1, . . . , n} se tiene que
Observación 1.9. Toda matriz escalar de orden n, es un múltiplo escalar de In , más aún,
se puede probar que A ∈ Mn×n (R) es una matriz escalar si y sólo si existe λ ∈ R tal que fij = eij + cij (definición de suna de matrices)
A = λIn .
= (aij + bij ) + cij (definición de suna de matrices)
Ejemplo 1.6. Sea A la matriz del ejemplo 1.5, entonces = aij + (bij + cij )
4 −9 0 8 2 · 4 2(−9) 2·0 2·8 = aij + gij (definición de suna de matrices)
2 · A = 2 · −7 3 5 −12 = 2(−7) 2·3 2 · 5 2(−12) = hij (definición de suma de matrices)
1 0 −6 2 2·1 2 · 0 2(−6) 2·2
De donde (A + B) + C = F = H = A + (B + C) (definición de igualdad de matrices).
8 −18 0 16
= −14 6 10 −24 3. Recordemos que 0/m×n = (ξij )m×n donde ξij = 0 para cada i ∈ {1, . . . , m} y cada
2 0 −12 4 j ∈ {1, . . . , n}. Ası́ que si A + 0/m×n = E = (eij )m×n , entonces, para cada i ∈ {1, . . . , m}
� y cada j ∈ {1, . . . , n}, tenemos que
Teorema 1.2. Sean A, B, C ∈ Mm×n (R) y α, β ∈ R cualesquiera. Entonces eij = aij + ξij (definición de suna de matrices)
= aij + 0 (definición de la matriz nula)
1. A + B = B + A (conmutatividad de la suma).
= aij
2. (A + B) + C = A + (B + C) (asociatividad de la suma).
Por lo tanto, usando la definición de igualdad de matrices, se tiene que
3. A + 0/m×n = A = 0/m×n +A (neutro aditivo).
4. Existe una matriz D ∈ Mm×n (R) tal que A + D = 0/m×n = D + A (opuesto aditivo). A + 0/m×n = E = A
6. (α + β)A = αA + βA (distributividad de la multiplicación por escalar respecto a la suma 4. Definamos D = (dij )m×n con dij = −aij para cada i ∈ {1, . . . , m} y cada
escalar). j ∈ {1, . . . , n}. Hagamos A + D = E = (eij )m×n . Entonces, para cada i ∈ {1, . . . , m} y
cada j ∈ {1, . . . , n}, tenemos que
7. α(βA) = (αβ)A = β(αA) (asociatividad de la multiplicación por escalar).
8. 1 · A = A (neutro de la multiplicación por escalar). eij = aij + dij (definición de suna de matrices)
= aij + (−aij ) (definición de la matriz D)
Demostración. Sean A = (aij )m×n , B = (bij )m×n y C = (cij )m×n .
= 0
1. Hagamos A + B = E = (eij )m×n y B + A = F = (fij )m×n . Ası́ que, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} se tiene que Por lo tanto, usando la definición de igualdad de matrices y la definición de la matriz
nula, se tiene que A + D = E = 0/m×n , y por conmutatividad
eij = aij + bij (definición de suna de matrices)
= bij + aij A + D = 0/m×n = D + A.
= fij (definición de suma de matrices)
5. Hagamos A + B = E = (eij )m×n , α(A + B) = αE = F = (fij )m×n , αA = G = (gij )m×n ,
Luego A + B = E = F = B + A (definición de igualdad de matrices). αB = H = (hij )m×n y αA + αB = G + H = P = (pij )m×n . Entonces, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, tenemos que 8. Hagamos 1 · A = E = (eij )m×n . Ası́ que al usar la definición de multiplicación por
escalar, se tiene que para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
fij = αeij (definición de multiplicación por escalar)
= α(aij + bij ) (definición de suma de matrices) eij = 1 · aij = aij
= αaij + αbij En consecuencia, por igualdad de matrices
= gij + hij (definición de multiplicación por escalar) 1 · A = E = A.
= pij (definición de suma de matrices)
7. Definamos las matrices βA = E = (eij )m×n , α(βA) = αE = F = (fij )m×n y 1. Supongamos que P ∈ Mm×n (R) es tal que A + P = A = P + A para cada matriz
(αβ)A = G = (gij )m×n . Ası́ que, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, A ∈ Mm×n (R), luego
obtenemos P = P + 0/m×n (por la parte 3 del teorema 1.2 con A = P )
fij = αeij (definición de multiplicación por escalar) = 0/m×n (por hipótesis con A = 0/m×n )
= α(βaij ) (definición de multiplicación por escalar)
2. Sea A ∈ Mm×n (R) cualquiera. Supongamos que existen D, E ∈ Mm×n (R) tales que
= (αβ)aij
= gij (definición de multiplicación por escalar) A + D = 0/m×n = D + A (1.1)
A + E = 0/m×n = E + A (1.2)
Luego, nuevamente por igualdad de matrices, se tiene que
En consecuencia
α(βA) = F = G = (αβ)A D = D + 0/m×n (por teorema 1.2 parte 3)
y en consecuencia = D + (A + E) (por la ecuación 1.2)
β(αA) = (βα)A = (αβ)A. = (D + A) + E (por teorema 1.2 parte 2)
Por lo tanto = 0/m×n +E (por la ecuación 1.1)
α(βA) = (αβ)A = β(αA). = E (por teorema 1.2 parte 3)
3. (−1)A = −A.
4. Si αA = 0/m×n , entonces α = 0 o A = 0/m×n . La unicidad de la matriz opuesta permite la siguiente definición.
Cantidad de unidades producidas de: del producto P1. Continuando de esta manera tenemos que 1150 · 1, 5 representa la cantidad
P1 P2 P3 P4 P5 de unidades de la materia prima M2 necesarias para producir 1150 unidades del producto P2
E1 1250 800 200 1100 750 (cantidad mensual del producto P2 que fabrica la empresa E3), 1000 · 2 representa la cantidad
Producido
E2 1500 650 940 980 500 de unidades de la materia prima M2 necesarias para producir 1000 unidades del producto P3
por:
E3 400 1150 1000 850 1200 (cantidad mensual del producto P3 que fabrica la empresa E3), 850·1, 5 representa la cantidad
de unidades de la materia prima M2 necesarias para producir 850 unidades del producto P4
Cuadro 1.1: Producción Mensual de cada Empresa
(cantidad mensual del producto P4 que fabrica la empresa E3) y 1200·3 representa la cantidad
de unidades de la materia prima M2 necesarias para producir 1200 unidades del producto P5
(cantidad mensual del producto P5 que fabrica la empresa E3).
Si queremos saber, por ejemplo, cuál es la producción mensual de la empresa E2, basta Ası́ que 400·3, 5+1150·1, 5+1000·2+850·1, 5+1200·3 representa la cantidad (mı́nima) de
mirar, en el cuadro 1.1, la fila correspondiente a dicha empresa, de lo cual resulta que la unidades de la materia prima M2 necesarias para que la empresa E3 mantenga la produccción
produción mensual de ésta es 1500 unidades del producto P1, 650 unidades del producto P2, mensual dada por el cuadro 1.1, es decir, la empresa E3 necesita un mı́nimo mensual de 10000
940 unidades del producto P3, 980 unidades del producto P4 y 500 unidades del producto P5. unidades de la materia prima M2 si quiere mantener su producción mensual acorde al cuadro
¿Cómo podrı́an interpretarse las columnas de esta tabla? 1.1.
Además, para la fabricación de cada uno de los cinco productos, se necesitan cuatro mate- Nótese que para el cálculo anterior fue necesario conocer la producción mensual de la
rias primas distintas, M 1, M 2, M 3 y M 4. El cuadro siguiente permite saber las cantidades empresa E3, información que encontramos en la fila del cuadro 1.1 correspondiente a tal
de materia prima necesarias para producir una unidad de cada uno de estos productos. empresa, y la cantidad de materia prima M2 necesaria para producir una unidad de cada uno
de los productos que fabrica dicha empresa, tal información la obtuvimos de la columna en
Cantidad de unidades de:
el cuadro 1.2 correspondiente a la materia prima M2. Al aplicar este procedimiento a cada
M1 M2 M3 M4
una de las empresas y a cada una de las materias primas, entonces obtenemos el siguiente
P1 2 3,5 1 3,5
cuadro.
P2 3 1,5 3 2,5
Producto
P3 1,5 2 2,5 4 Cantidad de unidades de:
final:
P4 0,5 1,5 5 3 M1 M2 M3 M4
P5 4 3 1,5 1,5 E1 8750 9875 10775 11600
Necesidad
Cuadro 1.2: Materia Prima Necesaria para Producir una Unidad de cada Producto E2 8850 11075 11450 14325
de:
E3 10975 10000 12400 12625
Cuadro 1.3: Materia Prima Necesaria para la Producción Mensual de cada Empresa
En este caso, si queremos producir una unidad del producto P3, por ejemplo, el cuadro 1.2,
más especı́ficamente la fila 3 de dicho cuadro, nos dice que vamos a necesitar 1, 5 unidades
de la materia prima M1, 2 unidades de la materia prima M2, 2, 5 unidades de la materia
prima M3 y 4 unidades de la materia prima M4. En este caso ¿cuál serı́a el significado de Por ejemplo, a partir del cuadro 1.3 se deduce que la empresa E1 necesita, mensualmente,
las columnas de esta tabla? un mı́nimo de 8750 unidades de la materia prima M1, 9875 unidades de la materia prima
Ahora bien, si una empresa, digamos la empresa E3, quiere saber cuál es cantidad mı́nima M2, 10775 unidades de la materia prima M3 y 11600 unidades de la materia prima M4 para
mensual necesaria de una de las materias primas, digamos materia prima M2, para mantener poder mantener la producción mensual correspondiente al cuadro 1.1. �
la producción según el cuadro 1.1, entonces es necesario hacer el siguiente cálculo
En referencia al ejemplo 1.8, si definimos las matrices
400 · 3, 5 + 1150 · 1, 5 + 1000 · 2 + 850 · 1, 5 + 1200 · 3
2 3,5 1 3,5
El significado de este cálculo es el siguiente, dado que mensualmente la empresa E3 produce 1250 800 200 1100 750 3 1,5 3 2,5
400 unidades del producto P1, según el cuadro 1.1, y a su vez, según el cuadro 1.2, cada unidad A = 1500 650 940 980 500 y B=
1,5 2 2,5 4
del producto P1 necesita 3, 5 unidades de la materia prima M2, entonces 400·3, 5 representa la 400 1150 1000 850 1200 0,5 1,5 5 3
cantidad de unidades de materia prima M2 que se necesitan para la produción de 400 unidades 4 3 1,5 1,5
entonces estas matrices representan, respectivamente, los cuadros 1.1 y 1.2, es decir, la matriz Observación 1.11. Nótese que en el ejemplo anterior, el producto BA no está definido,
A representa la producción mensual de las empresas y la matriz B representa la cantidad esto nos dice que el producto de matrices no es conmutativo, más aún, a pesar de que ambos
de materias primas necesarias para la elaboración de una unidad de cada producto. Nótese productos estén definidos, AB y BA, no necesariamente son ambos del mismo orden, además,
que la matriz A tiene tantas columnas como filas tiene la matriz B, esto se debe a que las siendo ambos productos del mismo orden, en cuyo caso necesariamente A y B deben ser
columnas, en la matriz A, representan los productos elaborados por las empresas, que es lo cuadradas y del mismo orden, las matrices AB y BA no tienen por que ser iguales, cuando
mismo que representan las filas en la matriz B. Ahora bien, si definimos la matriz esto ocurre, es decir, cuando AB = BA, se dice que A y B son matrices que conmutan.
8750 9875 10775 11600 A continuación enunciaremos un teorema que expone las principales propiedades del pro-
C = 8850 11075 11450 14325 ducto de matrices
10975 10000 12400 12625
Teorema 1.6. Sean A ∈ Mm×n (R); B, C ∈ Mn×p (R); D ∈ Mp×q (R) y α ∈ R. Entonces
entonces C representa las necesidades mensuales de materias primas para cada una de las
empresas. 1. (AB)D = A(BD) (asociatividad del producto de matrices).
Es necesario hacer notar que la cantidad de filas de C es la misma cantidad de filas de A
y la cantidad de columnas de C es la misma cantidad de columnas de B, esto se debe a que 2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).
las filas de A y C representan las empresas y las columnas de B y C representan las materias
primas. 3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices).
Cabe la siguiente pregunta, en términos matemáticos ¿es posible darle un significado a la
matriz C? la respuesta es sı́, esta matriz es el producto de las matrices A y B, como 4. α(AB) = (αA)B = A(αB) (asociatividad del producto de matrices y la multiplicación
veremos a continuación. por escalar).
Definición 1.8. Sean A = (aij )m×n ∈ Mm×n (R) y B = (bjk )n×p ∈ Mn×p (R). Definiremos 5. Im A = A = AIn (neutros del producto de matrices).
el producto matricial de A por B como la matriz C = (cik )m×p ∈ Mm×p (R), denotada por
AB o A · B, tal que para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p} se tiene que 6. B 0/p×q = 0/n×q y 0/m×n B = 0/m×p .
n
� Demostración. Sean A = (aij )m×n ; B = (bjk )n×p ; C = (cjk )n×p y D = (dkl )p×q .
cik = aij bjk = ai1 b1k + ai2 b2k + · · · + ain bnk
j=1
1. Definamos AB = E = (eik )m×p ; (AB)D = ED = F = (fil )m×q ; BD = G = (gjl )n×q y
Observación 1.10. Al igual que lo observado en los comentarios hechos luego del ejemplo A(BD) = AG = H = (hil )m×q . Entonces, usando la definición de producto matricial,
1.8, es de hacer notar que, para poder definir el producto AB, la cantidad de columnas de A tenemos que para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
debe coincidir con la cantidad de filas de B, además, la matriz resultante AB, tiene tantas n
filas como filas tiene la matriz A y tantas columnas como columnas tiene B. �
eik = aij bjk
� � 3 1 0 j=1
2 −1 0
Ejemplo 1.9. Sean A = yB= 2 −1 −2 . Entonces
0 3 1 para cada j ∈ {1, . . . , n} y cada l ∈ {1, . . . , q}
−4 −2 3
p
�
A·B
AB = � � gjl = bjk dkl
2 · 3 + (−1)2 + 0(−4) 2 · 1 + (−1)(−1) + 0(−2) 2 · 0 + (−1)(−2) + 0 · 3 k=1
=
0 · 3 + 3 · 2 + 1(−4) 0 · 1 + 3(−1) + 1(−2) 0 · 0 + 3(−2) + 1 · 3
� � � � y para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . . , q}
6−2+0 2+1+0 0+2+0 4 3 2
= =
0+6−4 0−3−2 0−6+3 2 −5 −3 p
� n
�
fil = eik dkl ; hil = aij gjl
� k=1 j=1
Luego para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . . , q} se tiene que De donde, por la definición de igualdad de matrices, obtenemos
p p
� n � p n p
n �
� � � � � � α(AB) = F = H = (αA)B.
fil = eik dkl = aij bjk dkl = aij bjk dkl = aij bjk dkl
k=1 k=1 j=1 k=1 j=1 j=1 k=1
De manera análoga se prueba que α(AB) = A(αB), ası́ que
� �
n
� p
� n
� α(AB) = (αA)B = A(αB).
= aij bjk dkl = aij gjl = hil
j=1 k=1 j=1 5. Recordemos que In = (δjk )n×n , donde
�
Por lo tanto, usando la definición de igualdad de matrices 1 si j = k
δjk = (1.3)
(AB)D = F = H = A(BD). 0 si j �= k
para cada j, k ∈ {1, . . . , n}.
2. Hagamos B +C = E = (ejk )n×p ; A(B +C) = AE = F = (fik )m×p ; AB = G = (gik )m×p ;
Si definimos AIn = E = (eik )m×n , entonces, para cualesquiera i ∈ {1, . . . , m} y
AC = H = (hik )m×p y AB + AC = G + H = R = (rik )m×p . Entonces, para cada
k ∈ {1, . . . , n}, obtenemos
i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
�n
�n
eik = aij δjk (definición de producto de matrices)
fik = aij ejk (definición de producto de matrices)
j=1
j=1
n = ai1 δ1k + · · · + ai(k−1) δ(k−1)k + aik δkk + ai(k+1) δ(k+1)k + · · · + ain δnk
�
= aij (bjk + cjk ) (definición de suma de matrices) = ai1 · 0 + · · · + ai(k−1) · 0 + aik · 1 + ai(k+1) · 0 + · · · + ain · 0 (por 1.3)
j=1 = aik
�n n
� n
�
= (aij bjk + aij cjk ) = aij bjk + aij cjk Por lo tanto AIn = E = A, análogamente puede probarse que Im A = A, en consecuencia
j=1 j=1 j=1 AIn = A = Im A.
= gik + hik (definición de producto de matrices)
6. ¡Ejercicio!
= rik (definición de suma de matrices)
En consecuencia, en virtud de la definición de igualdad de matrices, se tiene que
Ejercicio 1.1.1. Pruebe que si A ∈ Mm×n (R) y B ∈ Mn×p (R), entonces
A(B + C) = F = R = AB + AC. � �
1. AB = AB (1) AB (2) · · · AB (p) (desarrollo por columnas del producto AB), es
3. Análogo a la demostración de la parte 2. decir, la k-ésima columna de AB, que es (AB)(k) , es igual a A por la k-ésima columna
4. Sean AB = E = (eik )m×p ; α(AB) = αE = F = (fik )m×p ; αA = G = (gij )m×n de B, que es AB (k) , para cada k ∈ {1, . . . , p}.
y (αA)B = GB = H = (hik )m×p . Entonces, para cualesquiera i ∈ {1, . . . , m} y A(1) B
k ∈ {1, . . . , p} se tiene que A(2) B
fik = αeik (definición de multiplicación por escalar) 2. AB = .. (desarrollo por filas del producto AB), es decir, la i-ésima fila de
.
�n
A(m) B
= α aij bjk (definición de producto de matrices)
AB, que es (AB)(i) , es igual a la i-ésima fila de A por B, que es A(i) B, para cada
j=1
n n i ∈ {1, . . . , m}.
� �
= α(aij bjk ) = (αaij )bjk Ejercicio 1.1.2. Dada una matriz A ∈ Mn×n (R), para k ∈ N definamos
j=1 j=1
n
0/n si A = 0/n y k ≥ 1
�
= gij bjk (definición de multiplicación por escalar) Ak = In si A �= 0/n y k = 0
k−1
j=1
A A si A �= 0/n y k ≥ 1
= hik (definición de producto de matrices) Pruebe que Ak Ar = Ak+r para cualesquiera A ∈ Mn×n (R) y k, r ∈ Z+ .
1.1.3. Transposición o Trasposición de Matrices 2. Sean A + B = D = (dij )m×n ; (A + B)T = DT = E = (eji )n×m ; AT = F = (fji )n×m ;
B T = G = (gji )n×m y AT + B T = F + G = H = (hji )n×m . Entonces, para cada
Definición 1.9. Sea A = (aij )m×n ∈ Mm×n (R). Definiremos la transpuesta o traspuesta
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
de A como la matriz AT = (bji )n×m ∈ Mn×m (R) tal que
eji = dij (definición de transpuesta)
bji = aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
= aij + bij (definición de suma de matrices)
Ejemplo 1.10. Sea = fji + gji (definición de transpuesta)
−2 5 0 7
= hji (definición de suma de matrices)
A= 3 0 1 −6
−5 12 −2 9 Por lo tanto
Entonces (A + B)T = E = H = AT + B T .
−2 3 −5
5 0 12 3. Hagamos αA = D = (dij )m×n ; (αA)T = DT = E = (eji )n×m ; AT = F = (fji )n×m ; y
AT =
0
αAT = αF = G = (gji )n×m . Entonces, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
1 −2
7 −6 9
eji = dij (definición de transpuesta)
�
= αaij (definición de multiplicación por escalar)
Observación 1.12. Nótese que las filas de A “pasan” a ser las columnas de AT y las = αfji (definición de transpuesta)
columnas de A “pasan” a ser las filas de AT , más propiamente = gji (definición de multiplicación por escalar)
� �T � �(i)
A(i) = AT para cada i ∈ {1, . . . , m} Ası́ que
� � � � (αA)T = E = G = αAT .
(j) T T
A = A (j)
para cada j ∈ {1, . . . , n}
4. Sean AC = D = (dik )m×p ; (AC)T = DT = E = (eki )p×m ; C T = F = (fkj )p×n ;
Teorema 1.7. Sean A, B ∈ Mm×n (R), C ∈ Mn×p (R) y α ∈ R. Entonces AT = G = (gji )n×m y C T AT = F G = H = (hki )p×m . Entonces, para cada
� �T i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
1. AT = A (propiedad de involución de la transposición de matrices).
eki = dik (definición de transpuesta)
2. (A + B)T = AT + B T (transpuesta de la suma). �n
= aij cjk (definición de producto)
3. (αA)T = αAT (transpuesta de la multiplicación por escalar). j=1
n
�
4. (AC)T = C T AT (transpuesta del producto matricial).
= gji fkj (definición de transpuesta)
5. (In )T = In y (0/m×n )T = 0/n×m . j=1
�n
Demostración. Sean A = (aij )m×n ; B = (bij )m×n y C = (cjk )n×p . = fkj gji = hki (definición de producto)
j=1
��T
1. Hagamos AT = D = (dji )n×m y AT = DT = E = (eij )m×n . Entonces, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, por definición de transpuesta De donde
(AC)T = E = H = C T AT .
eij = dji = aij
5. ¡Ejercicio!
Luego
� �
T T
A = E = A.
Definición 1.10. Sea A ∈ Mn×n (R). Diremos que 2. A es antisimétrica si y sólo si aij = −aji para cualesquiera i, j ∈ {1, . . . , n}.
Ejemplo 1.11.
A continuación definiremos una operación escalar6 sobre matrices, es bastante sencilla y se
1. In es simétrica para todo n ∈ Z+ . � usa, entre otras cosas, para conocer sobre el “buen comportamiento” computacional de una
matriz y para definir un producto interno (ver capı́tulo 4) entre matrices.
2. 0/n es simétrica y antisimétrica para todo n ∈ Z+ ¿existe alguna otra matriz que sea
simétrica y antisimétrica simultáneamente? � Definición 1.11. Dada una matriz cuadrada A ∈ Mn×n (R), se define la traza de A como
n
�
3. Toda matriz diagonal es una matriz simétrica. � el número real tr(A) = aii .
i=1
4. La matriz
0 5 7 −6 El siguiente teorema resume las principales propiedades de la traza.
−5 0 −4 8
A= Teorema 1.9. Sean A, B ∈ Mn×n (R), C ∈ Mm×n (R) y D ∈ Mn×m (R). Entonces
−7 4 0 12
6 −8 −12 0 1. tr(A + B) = tr(A) + tr(B) para cualesquiera A, B ∈ Mn×n (R).
es antisimétrica pues
2. tr(αA) = α tr(A) para cualesquiera α ∈ R y A ∈ Mn×n (R).
0 −5 −7 6 m �
n
�
5 0 4 −8 3. tr(CD) = aij bji = tr(DC).
AT =
7 −4
= −A
0 −12 i=1 j=1
−6 8 12 0 � �
4. tr AT = tr(A).
�
Demostración. ¡Ejercicio!
5. La matriz
5 −9 3 0
−9 2 −1 13
A=
3 −1
0 7
0 13 7 −3
1.2. Operaciones Elementales por Filas
es simétrica ya que Las operaciones elementales por filas son herramientas usadas con mucha frecuencia
5 −9 3 0 en la resolución de los sistemas de ecuaciones lineales al igual que en cálculo de la
−9 2 −1 13 inversa de una matriz cuadrada. Estas operaciones las usaremos a lo largo de todo el
AT =
3 −1
=A
0 7 curso, por ello deben ser manejadas con la mayor perfección posible por parte del estudiante
0 13 7 −3 que desee aprender la materia. Comencemos por definir dichas operaciones.
Denotemos por MFm (R) el conjunto formado por todas las matrices reales con m filas.
�
Definición 1.12. Una función f : MFm (R) → MFm (R) es llamada una operación ele-
Teorema 1.8. Sea A ∈ Mn×n (R). Entonces mental por filas (OEF) si es de uno de los siguientes tipos:
1. A es simétrica si y sólo si aij = aji para cualesquiera i, j ∈ {1, . . . , n}. 6
Se le llama operación escalar pues el resultado es un escalar.
Observación 1.13. Nótese que si A ∈ Mm×n (R) y f : MFm (R) → MFm (R) es una OEF,
Por comodidad, en lugar de escribir B = f (A), escribiremos A
Fs → αFs
→ B. entonces f (A) ∈ Mm×n (R).
Ejercicio 1.2.1. Pruebe que toda OEF f : MFm (R) → MFm (R) es una función invertible
y que su inversa f −1 : MFm (R) → MFm (R) es también una OEF del mismo tipo que f .
OEF Tipo 2. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m}, con s �= t, y α ∈ R tales
que B(i) = A(i) para cada i ∈ {1, . . . , m}, con i �= s, y además B(s) = A(s) + αA(t) , Ejemplo 1.12. Sea
es decir, a una fila de A le sumamos un múltiplo escalar de alguna otra fila de A, −2 4 −5
distinta de la primera, dejando el resto de las filas intactas. 6 3 4
A=
2 −1 8
−6 21 −15
A(1) A(1) Entonces
.. ..
. .
−2 4 −5 2 −1 8
A(s−1) A(s−1) 4 6 4
f (A) = f A(s)
= A(s) + αA(t)
=B A=
6 3 F1 ↔ F3→ 3
2 −1 8 (OEF 3) −2 4 −5
A(s+1) A(s+1)
−6 21 −15 −6 21 −15
... ...
2 −1 8 2 −1 8
1
A(m) A(m) F4 → 3 F4 6 3 4 F3 → F3 + F1
→ → 6 3 4 =B
(OEF 1) −2 4 −5 (OEF 2) 0 3 3
−2 7 −5 −2 7 −5
Fs → Fs + αFt
Al igual que antes, escribiremos A → B, en lugar de escribir B = f (A). �
Observación 1.14. Se pueden aplicar más de dos operaciones por filas en un solo paso,
OEF Tipo 3. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m} tales que B(i) = A(i) lo único que debemos cuidar es no transformar, en el mismo paso, una fila más de
para cada i ∈ {1, . . . , m}, con i �= s e i �= t y además B(s) = A(t) y B(t) = A(s) , una vez y no transformar, en el mismo paso, una fila que va ser usada para
dicho de otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar. transformar a otra(s).
Observación 1.15. De manera análoga a como se definieron las operaciones elementales 1 0 0 7
por filas, pueden definirse operaciones elementales por columnas (OEC) sobre el con- 0 0 0 0
junto MCn (R) formado por todas las matrices reales con n columnas, sin embargo, estas 3. R =
0 0 1 −9 es reducida por filas pero no es escalonada. �
últimas sólo se usarán para el cálculo de determinantes y no para la resolución de sistemas 0 0 0 0
de ecuaciones lineales ni para calcular la inversa de una matriz cuadrada, en estos últimos 0 1 0 1
dos problemas sólo usaremos las operaciones elementales por filas. Al igual que las operacio-
nes elementales por filas, las operaciones elemnetales por columnas también son invertibles y 1 0 −5 0 8
0 1 3 0 −1
sus inversas son también OEC del mismo tipo que la original.
4. F =
0 0 0 1 −2 es escalonada reducida por filas. �
Definición 1.13. Sea A = (aij )m×n ∈ Mm×n (R). Diremos que A es una matriz 0 0 0 0 0
0 0 0 0 0
Escalonada
Ejercicio 1.2.2. Sea A ∈ Mm×n (R). Pruebe que:
1. Si todas las filas nulas de A, si las hay, están ubicadas en las últimas posiciones,
esto es, si A(i) es una fila no nula de A, entonces A(s) también es no nula para 1. Si A es una matriz escalonada, entonces la cantidad de filas no nulas de A es, a lo
cada 1 ≤ s < i. sumo, el mı́nimo entre m y n.
2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no 2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mı́nimo
nula de A(i) (contada de izquierda a derecha) está mas a la izquierda de la primera entre m y n.
componente no nula de A(i+1) , es decir, si j, k ∈ {1, . . . , n} son tales que aij �= 0;
a(i+1)k �= 0 y ais = 0 = a(i+1)t para cada 1 ≤ s < j y cada 1 ≤ t < k, entonces Ejercicio 1.2.3. Pruebe que si A ∈ Mn×n (R) es una matriz escalonada, entonces A es
j < k. triangular superior.
Definición 1.14. Sean A, B ∈ Mm×n (R). Diremos que B es equivalente por filas a A si
Reducida por Filas (RF) existen OEF f1 , f2 , . . . , fr : MFm (R) → MFm (R) tales que B = (f1 ◦ f2 ◦ · · · ◦ fr )(A).
1. Si A(i) es una fila no nula de A, entonces la primera componente no nula de A(i) es Ejemplo 1.14. Consideremos las matrices A y B del ejemplo 1.12. Entonces B es equiva-
igual a 1 (uno), dicha componente es llamada pivote, es decir, si j ∈ {1, . . . , n} lente por filas a A (¿por qué?). �
es tal que aij �= 0 y ais = 0 para cada 1 ≤ s < j, entonces aij = 1.
Teorema 1.10. Sean A, B, C ∈ Mm×n (R). Tenemos que
2. Si A(j) es una columna de A que tiene un pivote, la cual es llamada columna
pivote, entonces el resto de las componentes de A(j) son iguales a 0 (cero), esto 1. A es equivalente por filas a A.
es, si i ∈ {1, . . . , m} es tal que aij = 1 y ais = 0 para cada 1 ≤ s < j, entonces
akj = 0 para cada k ∈ {1, . . . , m} con k �= i. 2. Si B es equivalente por filas a A, entonces A es equivalente por filas a B.
1. Para cualesquiera m, n ∈ Z+ , In y 0/m×n son escalonadas reducidas por filas. � Observación 1.16. La parte 2 del teorema 1.10, nos permite decir A y B son equivalentes
por filas en lugar de B es equivalente por filas a A o A es equivalente por filas a B.
2 −1 3 8 3
0 5 1 6 −4 Teorema 1.11. Toda matriz A ∈ Mm×n (R) es equivalente por filas a:
2. E = es escalonada pero no es reducida por filas. �
0 0 0 8 −7
0 0 0 0 0 1. Una matriz escalonada.
Observación 1.17. Observe que A ∈ Mn×n (R) es equivalente por filas a In si y sólo si In Definición 1.15. Una matriz E ∈ Mn×n (R) es llamada matriz elemental si existe una
es la FERF de A. OEF f : MFn (R) → MFn (R) tal que E = f (In ), es decir, E se obtiene de In por medio de
una única OEF.
Observación 1.18. Dada una matriz no nula A ∈ Mm×n (R), la cantidad de matrices es-
calonadas, que son equivalentes por filas a A, son infinitas, pero la cantidad de matrices Ejemplo 1.16.
reducidas por filas, que son equivalentes por filas a A, son, a lo sumo m!.
1 0 0 0
El siguiente ejemplo ilustra el procedimiento a seguir para calcular la FERF de una matriz, 0 1 0 0
1. E1 = es elemental, pues
los pasos pueden variar en cantidad y en el orden, sin embargo, el resultado final debe ser el −5 0 1 0
mismo sin importar los pasos previos. 0 0 0 1
Ejemplo 1.15. Calcular la FERF de 1 0 0 0 1 0 0 0
0 1 0 0 0
6 −1 −15 2 13
I4 = F3 → F3 − 5F1 0 1 0 = E1
0 0 1 0 → −5 0 1 0
−1 0 2 −1 −3
A=
0 −3 −9
0 0 0 1 0 0 0 1
0 9
�
7 1 −11 3 10
1 0 0
Solución. 2. E2 = 0 4 0 es elemental, ya que
0 0 1
6 −1 −15 2 13 −1 0 2 −1 −3
−1 0 2 −1 −3 6 −1 −15 2 13 1 0 0 1 0 0
A= 0 −3 −9 F ↔ F2
0 9 1 → 0 −3 −9 0 9 I3 = 0 1 0 F2 → 4F2 0 4 0 = E2
→
7 1 −11 3 10 7 1 −11 3 10 0 0 1 0 0 1
1 0 −2 1 3 1 0 −2 1 3 �
6 −1 −15 2 13 F2 → F2 − 6F1 0 −1 −3 −4 −5
F1 → −F1 →
1 0 0 0 0
→ 0 −3 −9 0 9 F4 → F4 − 7F1 0 −3 −9 0 9
0 0 0 0 1
7 1 −11 3 10 0 1 3 −4 −11
3. E3 = 0 0 1 0 0 es elemental, dado que
1 0 −2 1 3 1 0 −2 1 3
0 F3 → F3 + 3F2 0 1 0 0 0 1 0
1 3 4 5 3 4 5
F2 → −F2 → 0 1 0 0 0
→ 0 −3 −9 0 9 F 4 → F4 − F 2 0 0 0 12 24
0 1 3 −4 −11 0 0 0 −8 −16 1 0 0 0 0 1 0 0 0 0
1 0 −2 1 3 1 0 −2 0 1 0 1 0 0 0 0 0 0 0 1
F 1 → F 1 − F 3
0 1 3 4 5 0 1 3 0 −3 I5 = F 2 ↔ F5 0 0 1 = E3
1
F3 → 12 F3 F2 → F2 − 4F3 0 0 1 0 0 →
0 0
→ 0 0 0 1 2 → 0 0 0 1 2 0 0 0 1 0 0 0 0 1 0
F4 → F4 + 8F3
0 0 0 −8 −16 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0
Ası́ que la FERF de A es �
Teorema 1.12. Sean A ∈ Mm×n (R), B ∈ Mn×p (R) y f : MFm (R) → MFm (R) una OEF. 1.3. Sistemas de Ecuaciones Lineales
Entonces
La presente sección está muy relacionada con las OEF y las matrices, y es, quizás, junto
1. f (AB) = f (A)B. con la sección anterior, el más importante del presente capı́tulo.
� � Definición 1.16. Un sistema de ecuaciones lineales con m ecuaciones y n incógnitas,
2. (f (A))(j) = f A(j) para cada j ∈ {1, . . . , n} de donde
donde m, n ∈ Z+ , es un conjunto de m ecuaciones de la forma
� � � � � � ��
f (A) = f A(1) f A(2) · · · f A(n) a1,1 x1 + a1,2 x2 + · · · + a1n xn = b1
a2,1 x1 + a2,2 x2 + · · · + a2n xn = b2
es decir, la fila j-ésima de f (A) es igual a f aplicada a la j-ésima fila de A. .. .. .. .. .. (1.4)
. . . . .
a x + a x + ··· + a x = b
Demostración. Ver apéndice D. m,1 1 m,2 2 mn n m
donde x1 , x2 , . . . , xn son las incógnitas del sistema (1.4) y toman valores en R; aij ∈ R son
Como una consecuencia directa de este teorema tenemos el siguiente resultado. números fijos para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} y los llamaremos coeficientes
del sistema (1.4) y b1 , b2 , . . . , bm ∈ R son fijos y son los términos independientes del
Corolario 1.13. Si f, f1 , f2 , . . . , fr : MFm (R) → MFm (R) son OEF, y si consideramos sistema (1.4).
A ∈ Mm×n (R) y B ∈ Mn×p (R), entonces Si b1 = b2 = · · · = bm = 0, diremos que el sistema (1.4) es homogéneo, en caso contrario
diremos que es no homogéneo.
1. f (A) = f (Im )A = EA donde E = f (Im ) es una matriz elemental. Cuando m = n, se dice que el sistema (1.4) es un sistema cuadrado.
Si hacemos
2. (f1 ◦ f2 ◦ · · · ◦ fr )(AB) = (f1 ◦ f2 ◦ · · · ◦ fr )(A)B.
� � a1,1 a1,2 · · · a1n b1 x1
3. ((f1 ◦ f2 ◦ · · · ◦ fr )(A))(j) = (f1 ◦ f2 ◦ · · · ◦ fr ) A(j) para cada j ∈ {1, . . . , m}. a2,1 a2,2 · · · a2n b2 x2
A = (aij )m×n = .. .. .. ; b = .. y x = .. ,
. . . . .
Demostración. ¡Ejercicio! am1 am2 · · · amn bm xn
Observación 1.19. Para las OEC, existen resultados y definiciones equivalentes a las dadas es llamada matriz ampliada del sistema (1.4), x se conoce con el nombre de matriz
para las OEF, entre estas tenemos: matrices equivalentes por columnas, matrices ele- incógnita o matriz de incógnitas del sistema (1.4) y b es conocida como matriz de
mentales (por columnas), estás últimas no difieren de las matrices elementales (por filas) términos independientes del sistema (1.4).
pues se puede probar que toda matriz elemental (por filas) es también una matriz elemental El sistema
(por columnas) y viceversa, de allı́ la razón por la cual simplemente se les llama matrices
a1,1 x1 + a1,2 x2 + · · · + a1n xn = 0
a2,1 x1 + a2,2 x2 + · · · + a2n xn = 0
elementales. Otro resultado es que si f : MCp (R) → MCp�(R) es � una OEC, A ∈ Mm×n (R) (1.5)
.. .. .. .. ..
y B ∈ Mn×p (R), entonces f (AB) = Af (B), (f (B))(j) = f B(j) para cada j ∈ {1, . . . , n} y
. . . . .
a x + a x + ··· + a x = 0
f (B) = Bf (Ip ) = BE. m,1 1 m,2 2 mn n
es llamado sistema homogéneo asociado al sistema (1.4). las matrices incógnitas y de términos independientes del sistema son, respectivamente
Diremos que s1 , s2 , . . . , sn es una solución del sistema (1.4) si al sustituir x1 = s1 ,
x2 = s2 , . . . , xn =
sn en (1.4), las igualdades son satisfechas, más propiamente hablando, x1 � �
x2 0
s1 y
s2 4
x3
diremos que s = .. es solución del sistema (1.4) si As = b.
.
6x −2y +9z = 1
sn
2. −5x +12y −3z = −2
Se dice que el sistema (1.4) es
x 6z = 6
Inconsistente si no tiene solución alguna. es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incógnitas, es
no homogéneo y su representación matricial es
Consistente si tiene al menos una solución, cuando tiene una única solución, se di-
ce que es consistente determinado, si tiene más de una solución, se dice que es 6 −2 9 x 1
consistente indeterminado. −5 12 −3 y = −2
1 0 6 z 6
Observación 1.20. En general, no haremos diferencia al referirnos al sistema y a su re-
presentación matricial. El sistema homogéneo asociado a este sistema es
Observación 1.21. Todo sistema homogéneo Ax = 0m×1 es consistente, x = 0n×1 es solu-
/ /
6x −2y +9z = 0
−5x +12y −3z = 0
ción de éste, la cual es llamada solución trivial.
x 6z = 0
x1
x2 �
Observación 1.22. Es claro si A ∈ Mm×n (R) y x = .. ∈ Mn×1 (R), entonces
. Una pregunta que surge de manera inmediata es ¿cómo garantizar si un sistema de ecua-
xn ciones lineales es consistente o inconsistente? y en caso de que sea consistente ¿cómo resolver
dicho sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero
Ax = x1 A(1) + x2 A(2) + · · · + xn A(n) antes daremos las bases teóricas que nos permitan usar dichas herramientas.
Ejemplo 1.17. Teorema 1.15. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas
de ecuaciones lineales con m ecuaciones y n incógnitas. Supongamos que las matrices [A|b]
�
3x1 +2x2 −6x3 = 0 y [C|d] son equivalentes por filas. Entonces ambos sistemas tienen exáctamente las mismas
1. soluciones o ninguno tiene solución.
−x1 +5x2 −7x3 = 4
es un sistema de ecuaciones lineales de dos ecuaciones y tres incógnitas, es no ho- Demostración. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces
mogéneo, su representación matricial es existen OEF f1 , f2 , . . . , fr : MFm (R) → MFm (R) tales que
(f1 ◦ f2 ◦ · · · ◦ fr )([A|b]) = [C|d]
� � x1 � �
3 2 −6 x2 = 0
−1 5 −7 4 por la parte 3 del corolario 1.13
x3
(f1 ◦ f2 ◦ · · · ◦ fr )(A) = C y (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d
La matriz y la matriz ampliada del sistema son, respectivamente
� � � � y por la parte 2 del mismo corolario, tenemos que
3 2 −6 3 2 −6 0
y (f1 ◦ f2 ◦ · · · ◦ fr )(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr )(A)x
−1 5 −7 −1 5 −7 4
Ası́ que, si Ax = b, entonces x +y −2z +w = 1
4. 4x +2y +2z = −2
Cx = (f1 ◦ f2 ◦ · · · ◦ fr )(A)x = (f1 ◦ f2 ◦ · · · ◦ fr )(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d
2y −10z +4w = 3
Además, en virtud del ejercicio 1.2.1, sabemos que f1 , f2 , . . . , fr son invertibles y que sus Solución.
inversas f1−1 , f2−1 , . . . , fr−1 son también OEF sobre MFm (R), luego, si Cx = d, entonces
1. La matriz ampliada del sistema es
Ax = (f1 ◦ f2 ◦ · · · ◦ fr )−1 (C)x (pues (f1 ◦ f2 ◦ · · · ◦ fr )(A) = C) 2 1 −1 1
2 −1 5 5
= (f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )(C)x (pues (f1 ◦ f2 ◦ · · · ◦ fr )−1 = f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )
0 −1 3 2
= (f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )(Cx) (por la parte 2 del corolario 1.13)
= (f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )(d) (por hipótesis) Calculemos su FERF
= (f1 ◦ f2 ◦ · · · ◦ fr )−1 (d) (pues (f1 ◦ f2 ◦ · · · ◦ fr )−1 = f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )
1
= b (pues (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d) 2 1 −1 1 1 2
− 12 12
2 −1 5 5 F1 → 12 F1 2 −1 5 5
Por lo tanto Ax = b si y sólo si Cx = d, en consecuencia, o ambos sistemas son inconsis- 0 −1 3 2 → 0 −1 3 2
tentes o ambos tienen la(s) misma(s) solución(es). 1 1 1
1
1 2
− 2 2
1 2
− 12 1
2
F2 → F2 − 2F1 0 −2
6 4 F1 → − 2 F1 1 0 1 −3 −2
Observación 1.23. Cuando la matriz del sistema es una matriz ERF, es fácil decidir si el → → 0 −1
0 −1 3 2 3 2
sistema es o no consistente, y en caso de serlo, es sencillo calcular la(s) solución(es) de éste. 3
1
F 1 → F1 − 2 F 2 1 0 1
La idea es calcular la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.15, 2
→ 0 1 −3 −2
resolver, de manera sencilla, el sistema dado. F 3 → F3 + F2 0 0 0 0
Corolario 1.16. Sean A, C ∈ Mm×n (R) y b, d ∈ Mm×1 (R) tales que [C|d] es la FERF de La última fila de esta última matriz equivale a la ecuación 0 · x + 0 · y + 0 · z = 0, que
[A|b]. El sistema Ax = b tiene solución si y sólo si el número de filas no nulas de [C|d] es no aporta nada a la solución. Ası́ que el sistema dado es equivalente al sistema
igual al número de filas no nulas de C. � 3
x +z = 2
Demostración. ¡Ejercicio! y −3z = −2
que a su vez equivale a �
Ejemplo 1.18. Decidir cuál(es) de los siguientes sistemas son consistentes y cuál(es) no, x = −z + 32
en caso de serlo, mostrar su(s) solución(es). y = 3z − 2
2x +y −z = 1 Luego el sistema dado es consistente indeterminado. Haciendo z = α, con α ∈ R, obte-
1. 2x −y +5z = 5 nemos
3
−y +3z = 2 x = −α + ; y = 3α − 2
2
2x +y −z = 2 En consecuencia la solución del sistema dado viene dada por
x −2y +4z = −3
2. 3
5x −4y +8z = −9 x = −α + ; y = 3α − 2; z = α; con α ∈ R
2
−y +3z = 2
o bien 3
x +y −2z +w = 1 x −α + 32 −1 2
3. 4x +2y +2z = −2 y = 3α −2 = α 3 + −2 ; con α ∈ R
2y −10z +3w = 3 z α 1 0
2. En este caso la matriz ampliada del sistema es 1 1 −2 1 1 1 1 −2 1 1
4 2 2 0 −2 F2 → F2 − 4F1 0 −2 10 −4 −6
2 1 −1 2 →
1 −2 0 2 −10 3 3 0 2 −10 3 3
4 −3
5 −4 8 −9 1 1 −2 1 1 1 0 3 −1 −2
F 1 → F1 − F 2
0 −1 3 2 1
F2 → − 2 F2 0 1 −5 2 3 → 0 1 −5 2 3
→ 0 2 −10 3 3 F3 → F3 − 2F2
0 0 0 −1 −3
Vamos a calcular su FERF
1 0 3 −1 −2 1 0 3 0 1
F 1 → F1 + F3
2 1 −1 2 1 −2 4 −3 F3 → −F3 0 1 −5 2 3 → 0 1 −5 0 −3
→ F2 → F2 − 2F3
1 −2 4 −3 2 1 −1 2 0 0 0 1 3 0 0 0 1 3
F ↔ F2
5 −4 8 −9 1 → 5 −4 8 −9 En consecuencia el sistema dado es equivalente al sistema
0 −1 3 2 0 −1 3 2
1 −2 4 −3 1 −2 4 −3 x +3z = 1
F2 → F2 − 2F1 0 5 −9
8 0 −1 3 2 y −5z = −3
→ F ↔ F4
F3 → F3 − 5F1 0 6 −12 6 2 → 0 6 −12 6 w = 3
0 −1 3 2 0 5 −9 8
o equivalentemente
1 −2 4 −3 1 0 −2 −7 x = −3z + 1
0 F1 → F1 + 2F2
1 −3 −2 →
F3 → F3 − 6F2 0 1 −3 −2 y = 5z − 3
F2 → −F2
→ 0 6 −12 6 0 0 6 18 w = 3
F4 → F4 − 5F2
0 5 −9 8 0 0 6 18
1 0 −2 −7 1 0 0 −1 Por lo tanto el sistema original es consistente indeterminado. Si hacemos z = α, con
0 1 −3 −2 F1 → F1 + 2F3→ 0 1 0 7 α ∈ R, tenemos que la solución del sistema es
F3 → 16 F3 F2 → F2 + 3F3
→ 0 0 1 3 0 0 1 3
F4 → F4 − 6F3 x −3α +1 −3 1
0 0 6 18 0 0 0 0
y 5α −3 −3
Luego, el sistema dado, es equivalente al sistema = = α 5 + con α ∈ R
z α 1 0 ;
w 3 0 3
x = −1
y = 7
4. Calculemos la FERF de la matriz
z = 3
Por lo tanto el sistema es consistente determinado y su solución es 1 1 −2 1 1
4 2 2 0 −2
x = −1; y = 7; z=3
0 2 −10 4 3
o bien
x −1 que es la matriz ampliada del sistema
y = 7
1 1 −2 1 1 1 1 −2 1 1
z 3 4 2 2 0 −2 F2 → F2 − 4F1 0 −2 10 −4 −6
→
3. Calculemos la FERF de la matriz ampliada del sistema que es 0 2 −10 4 3 0 2 −10 4 3
1 1 −2 1 1 1 1 −2 1 1
4 2 2 0 −2 F3 → F3 + F2 0 −2 10 −4 −6
→
0 2 −10 3 3 0 0 0 0 −3
Sin necesidad de llegar a la FERF de la matriz, vemos que la última fila de esta última Es claro que, en general, en virtud del teorema 1.19, el sistema homogéneo asociado tiene
matriz equivale a la ecuación como única solución la trivial si y sólo si el sistema dado tiene solución única.
Finalmente, para el sistema de la parte 3 del ejemplo en cuestión
0 · x + 0 · y + 0 · z + 0 · w = −3
1 −3
la cual es contradictoria, en consecuencia, el sistema original es inconsistente. −3 5
xp =
0 ; xh = α 1 ; con α ∈ R
3 0
Teorema 1.17. El sistema homogéneo Ax = 0/m×1 , con A ∈ Mm×n (R), tiene infinitas so-
luciones si m < n, esto es, si el sistema homogéneo Ax = 0/m×1 tiene más incógnitas que �
ecuaciones, entonces es consistente indeterminado. Ejercicio 1.3.1. Sea A ∈ Mm×n (R). Pruebe que si el sistema Ax = b tiene solución para
Demostración. ¡Ejercicio! cada b ∈ Mm×1 (R), entonces m ≤ n.
z: la cantidad de manzanas en la urbanización con el diseño 3. Demostración. Sea A ∈ Mn×n (R) una matriz invertible y supongamos que B, C ∈ Mn×n (R)
Ası́ que la cantidad total de casas tipo estudio está dada por 18x + 12y + 12z, la cantidad son inversas de A. Entonces
total de casas familiares viene dada por 15x + 24y + 31z y la cantidad total de casas de lujo
AB = In = BA (1.6)
es 3x + 2y + 2z. Dado que la urbanización debe tener exactamente 84 casas tipo estudio, 168
casas AC = In = CA (1.7)
familiares y 14 casas de lujo, entonces obtenemos el sistema
18x +12y +12z = 84 Luego
15x +24y +31z = 210
C = CIn (por la parte 5 del teorema 1.6)
3x +2y +2z = 14
Aparte de las ecuaciones anteriores, debemos notar que x, y, z ∈ N (¿por qué?). Al resolver = C(AB) (por la ecuación 1.6)
el sistema obtenemos como solución x = 13 z − 2,y = − 32 z + 10 y dado que x, y, z ∈ N, se tiene, = (CA)B (por la parte 1 del teorema 1.6)
en primer lugar, que z = 6k con k ∈ N, de donde x = 2k − 2 ≥ 0, y = −9k + 10 ≥ 0, ası́ que = In B (por la ecuación 1.7)
k = 1 (¿por qué?) y en consecuencia el sistema obtenido tiene una única solución, a saber
= B (por la parte 5 del teorema 1.6)
x = 0, y = 1 y z = 6, es decir, la urbanización debe tener en total 7 manzanas, 1 manzana
del diseño 2 y 6 manzanas del diseño 3.
Teorema 1.21. Sean A, B ∈ Mn×n (R) dos matrices invertibles y α ∈ R con α �= 0. Entonces
−1
1. A−1 es invertible y (A−1 ) = A (propiedad involutiva de la inversa).
1.4. Inversa de una Matriz Cuadrada 2. AB es invertible y (AB) −1
= B −1 A−1 (inversa del producto matricial).
En la presente sección presentaremos un breve estudio sobre las matrices invertibles y 3. αA es invertible y (αA)−1 = α−1 A−1 (inversa del múltiplo escalar).
sus aplicaciones en la resolución de los sistemas de ecuaciones, cabe destacar que se pueden � �−1 T
definir inversas laterales de matrices no cuadradas, sin embargo, sólo estudiaremos el caso 4. AT es invertible y AT = (A−1 ) (inversa de la transpuesta).
de matrices cuadradas. Demostración.
Definición 1.17. Sea A ∈ Mn×n (R). Diremos que A es invertible o inversible si existe 1. Se deduce directamente de la definición de matriz invertible.
una matriz B ∈ Mn×n (R) tal que
2. En primer lugar
AB = In = BA
(AB)(B −1 A−1 ) = ABB −1 A−1 (teorema 1.6 parte 1)
Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A.
= A(BB −1 )A−1 (teorema 1.6 parte 1)
� � � �
2 −2 2 1 = AIn A−1 (definición de matriz inversa)
Ejemplo 1.21. Si A = , entonces B = 3 es una inversa de A ya que
−3 4 2
1 = (AIn )A−1 (teorema 1.6 parte 1)
� �� � � � � � = AA−1 (teorema 1.6 parte 5)
2 −2 2 1 4−3 2−2 1 0
AB = 3 = = = I2 = In (definición de matriz inversa)
−3 4 2
1 −6 + 6 −3 + 4 0 1
Además
� �� � � � � �
2 1 2 −2 4 − 3 −4 + 4 1 0 (B −1 A−1 )(AB) = B −1 A−1 AB (teorema 1.6 parte 1)
BA = 3 = = = I2
1 −3 4 3 − 3 −3 + 4 0 1
2 = B −1 (A−1 A)B (teorema 1.6 parte 1)
� = B −1 In B (definición de matriz inversa)
= (B −1 In )B (teorema 1.6 parte 1)
Teorema 1.20. Si A ∈ Mn×n (R) es invertible, entonces A tiene sólo una inversa, es decir,
existe una única matriz B ∈ Mn×n (R) tal que AB = In = BA, tal matriz es denotada por = B −1 B (teorema 1.6 parte 5)
A−1 . = In (definición de matriz inversa)
Luego, por la definición 1.17, se tiene que AB es invertible, y por el teorema 1.20, y
tenemos que (AB)−1 = B −1 A−1 .
F E = f −1 (In )f (In )
3. Veamos = f −1 (f (In )) (corolario 1.13 parte 1)
= In
(αA)(α−1 A−1 ) = (α−1 (αA))A−1 (teorema 1.6 parte 4)
= ((α−1 α)A)A−1 (teorema 1.2 parte 7) Luego, E es invertible y E −1 = F , es decir, (f (In ))−1 = f −1 (In ).
= (1 · A)A−1
= AA−1 (teorema 1.2 parte 8) Ahora bien ¿cómo saber si una matriz cuadrada A es o no invertible? y en caso de que lo sea
= In (definición de matriz inversa) ¿cómo calcular A−1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento
único. Daremos un ejemplo sencillo que ilustrará tal procedimiento, sin embargo, antes que
Análogamente, se prueba que (α−1 A−1 )(αA) = In . Nuevamente, usando la definición nada, enunciaremos un par de resultados que nos permitirán garantizar que el procedimiento
1.17 y el teorema 1.20, se tiene que αA es invertible y (αA)−1 = α−1 A−1 . empleado es válido.
El siguiente teorema nos será muy útil a la hora de saber si una matriz es o no invertible.
4. Por un lado
Teorema 1.23. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.
AT (A−1 )T = (A−1 A)T (teorema 1.7 parte 4) 1. A es invertible.
= (In )T (definición de matriz inversa)
= In (teorema 1.7 parte 5) 2. El sistema Ax = b tiene una única solución para cada b ∈ Mn×1 (R).
3. El sistema homogéneo Ax = 0/n×1 tiene como única solución la trivial.
Por otro lado
4. A es equivalente por filas a In .
(A−1 )T AT = (AA−1 )T (teorema 1.7 parte 4)
5. Existen matrices elementales E1 , E2 , . . . , Er ∈ Mn×n (R) tales que A = E1 E2 · · · Er .
= (In )T (definición de matriz inversa)
= In (teorema 1.7 parte 5) Demostración.
Teorema 1.22. Toda matriz elemental es invertible y su inversa es también una matriz x0 = In x0 (teorema 1.6 parte 5)
elemental. = (A−1 A)x0 (por definición de inversa)
= A−1 (Ax0 ) (teorema 1.6 parte 1)
Demostración. Sea E ∈ Mn×n (R) una matriz elemental. Entonces existe una OEF
f : MFn (R) → MFn (R) tal que E = f (In ). El ejercicio 1.2.1 garantiza que f es inverti- = A−1 b (pues x0 es solución del sistema Ax = b)
ble y su inversa f −1 es también una OEF sobre MFn (R), ası́ que F = f −1 (In ) es una matriz
elemental, además Ası́ que el sistema Ax = b tiene como única solución x0 = A−1 b.
(2. ⇒ 3.) Supongamos que el sistema Ax = b tiene una única solución para cada
EF = f (In )f −1 (In )
b ∈ Mn×1 (R). Entonces el sistema homogéneo Ax = 0/n×1 tiene una única solución,
= f (f −1 (In )) (corolario 1.13 parte 1) pero sabemos que x = 0/n×1 es solución de este sistema (observación 1.21), ası́ que la
= In única solución de dicho sistema es la solución trivial.
(3. ⇒ 4.) Supongamos que el sistema homogóneo Ax = 0/n×1 tiene como única solución la Ası́ que la única solución del sistema homogéneo Bx = 0/n×1 es la trivial, y en virtud del
trivial. teorema 1.23, B es invertible. Además
Procederemos por reducción al absurdo. Supongamos que A no es equivalente por filas
A = AIn (teorema 1.6 parte 5)
a In . Por lo tanto, usando la observación 1.17, si CA es la FERF de A, entonces CA
debe tener alguna fila nula (¿por qué?), la cual debe estar ubicada en la última posición = A(BB −1 ) (definición de matriz inversa)
pues CA es escalonada reducida por filas, esta fila equivale a la ecuación = (AB)B −1 (teorema 1.6 parte 1)
= In B −1 (por hipótesis)
0 · x 1 + 0 · x2 + · · · + 0 · x n = 0
= B −1 (teorema 1.6 parte 5)
donde
x1 Por lo tanto BA = In (definición de inversa) y como consecuencia de la parte 1 del teorema
x2 1.21 A−1 = (B −1 )−1 = B.
x = ..
.
xn Observación 1.24. El teorema 1.24 nos permite garantizar que A−1 = B sólo con probar
y en consecuencia no aporta ninguna información a la solución del sistema Ax = 0/n×1 . que AB = In o BA = In .
Definamos DA ∈ M(n−1)×n (R) la matriz que se obtiene al eliminar la última fila de Ejemplo 1.22. En cada uno de los siguientes casos decidir si A es o no invertible, en caso
CA . Luego el sistema homogéneo Ax = 0/n×1 es equivalente al sistema homogéneo afirmativo, calcular A−1 .
DA x = 0/(n−1)×1 el cual, en virtud del teorema 1.17, tiene infinitas soluciones, de donde, � �
el sistema Ax = 0/n×1 tiene infinitas soluciones, lo cual contradice la hipótesis, por lo 2 −2
1. A =
tanto A es equivalente por filas a In . −3 4
� �
(4. ⇒ 5.) Es consecuencia directa del corolario 1.14. 2 −8
2. A =
−3 12
(5. ⇒ 1.) Supongamos que A = E1 E2 · · · Er donde E1 , E2 , . . . , Er ∈ Mn×n (R) son matrices
elementales. Dado que toda matriz elemental es invertible (teorema 1.22), y usando Solución.
recursivamente la parte 2 del teorema 1.21, se tiene que A es invertible.
1. Supongamos que A es invertible y sea
Lo cual concluye la prueba. � �
x y
B=
z w
Teorema 1.24. Sean A, B ∈ Mn×n (R). Si AB = In , entonces BA = In ; y en consecuencia
A−1 = B. tal que AB = I2 , ası́ que
Demostración. Supongamos que AB = In . Sea xh una solución del sistema homogéneo � � � � � � � �
x 1 y 0
Bx = 0/n×1 . Entonces A = y A =
z 0 w 1
Bxh = 0/n×1 . (1.8)
Luego como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de
manera simultánea considerando la siguiente matriz (dos veces) ampliada
xh = In xh (teorema 1.6 parte 5)
� �
= (AB)xh (por hipótesis) 2 −2 1 0
[A|I2 ] =
= A(Bxh ) (teorema 1.6 parte 1) −3 4 0 1
= A 0/n×1 (por ecuación 1.8) Al calcular la FERF de esta matriz, las tercera y cuarta columnas nos darán, respecti-
= 0/n×1 (teorema 1.6 parte 6) vamente, las soluciones del primer y segundo sistema, si existen, que a su vez nos darán,
saber de antemano si A es o no invertible. Más adelante haremos uso de los determinantes Solución. Según lo comentado antes del ejercicio, basta conseguir la FERF de la matriz
para garantizar este hecho, por lo momentos no tenemos alternativa alguna.
3 1 1 2 −2 0
Teorema 1.25. Sean A, B ∈ Mn×n (R). Si AB es invertible, entonces A y B también son A = −3 −7 −2 0 1 3
invertibles. 2 2 1 1 4 −1
con α, β ∈ R. 1 0 0 0 −1 −8 12
F1 → F1 − 2F4
Además, la matriz → 0 1 0 0 −1 −18 28
F2 → F2 − 3F4 0
− 27
2
1 0 1 0 4 21 −34
− 15 F3 → F3 + 5F4
0 0 0 0 1 1 3 −5
XP = 2
46 −3
Por lo tanto, sı́ existe X tal que AX = B y ésta es
0 0
−1 −8 12
es solución (particular) de la ecuación matricial AX = B. −1 −18 28
Por lo tanto, la solución de la ecuación matricial dada viene dada por XG = XH + XP . X= 4
21 −34
En general, dadas matrices A ∈ Mm×n (R) y B ∈ Mm×p (R), al igual que en el caso de una 1 3 −5
ecuación matricial Ax = b, donde x y b son matrices columna de órdenes adecuados, se puede
probar que si XP es una solución particular de la ecuación AX = B, entonces, para cualquier además, se concluye que A es invertible y que X = A−1 B, es decir, el problema tiene solución
solución XG de tal ecuación, existe una solución XH , de la ecuación matricial homogénea única.
asociada AX = 0/m×p , tal que XG = XH + XP .
Ejemplo 1.25. Idem para las matrices En relación
al ejemplo
precedente, sean las matrices
1 0 0 0 1 0 0 0
1 −1 −1 4 0 1 −2 0 1 0 0 −2 1 0 0
2 −1 −1 1 −1
I4 = F → F2 − 2F1 = E1
6 0 0 0 1 0 2 → 0 0 1 0
A= 2
y B=
2 −1 −1
1 2 −3 0 0 0 1 0 0 0 1
−4 3 3 −13 0 2 −1
1 0 0 0 1 0 0 0
Solución. Al igual que en el ejercicio precedente, calculemos la FERF de la matriz 0 1 0 0 0 1 0 0
I4 =
0 0 1 0 F3 → F3 − 2F1→ −2 0 1 0 = E2
1 −1 −1 4 0 1 −2 0 0 0 1 0 0 0 1
2 −1 −1
6 1 −1 0 1 0 0 0 1 0 0 0
[A|B] = 2
1 2 −3 2 −1 −1 0 1 0 0 0 1 0 0
−4 3 3 −13 0 2 −1 I4 =
0 0 1 0 F4 → F4 + 4F1→ 0 0 1 0 = E3
Hagamos los 0 0 0 1 4 0 0 1
cálculos necesarios
1 −1 −1 4 0 1 −2 1 0 0 0 1 1 0 0
2 −1 −1 6 1 −1 0 0 1 0 0 0 1 0 0
[A|B] = 2
I4 =
0 0 1 0 F1 → F1 + F2→ 0 0 1 0 = E4
1 2 −3 2 −1 −1
−4 3 3 −13 0 2 −1 0 0 0 1 0 0 0 1
1 −1 −1 4 0 1 −2 1 0 0 0 1 0 0 0
F2 → F2 − 2F1
→ 0 1 1 −2 1 −3 4 0 1 0 0 0 1 0 0
F3 → F3 − 2F1 0
I4 =
0 0 1 0 F3 → F3 − 3F2→ 0 −3 1 0 = E5
3 4 −11 2 −3 3
F4 → F4 + 4F1
0 −1 −1 3 0 6 −9 0 0 0 1 0 0 0 1
1 0 0 2 1 −2 2 1 0 0 0 1 0 0 0
F 1 → F1 + F2
→ 0 1 1 −2 1 −3 4 0 1 0 0 0 1 0 0
I4 =
F3 → F3 − 3F2
0 0 1 −5 −1 6 −9 0 0 1 0 F4 → F4 + F2→ 0 0 1 0 = E6
F 4 → F4 + F2
0 0 0 1 1 3 −5 0 0 0 1 0 1 0 1
1 0 0 2 1 −2 2 1 0 0 0 1 0 0 0
0 1 0 3 2 −9 13 0 1 0 0 0 1 −1 0
F 2 → F2 − F 3 I4 =
0 0 1 0 F2 → F2 − F3→ 0 0
= E7
→ 0 0 1 −5 −1 6 −9 1 0
0 0 0 1 1 3 −5 0 0 0 1 0 0 0 1
1 0 0 0 1 0 0 −2
0 1 0 0 0 1 0 0
I4 =
0 0 1 0 F1 → F1 − 2F4→ 0 0 1
= E8
0
0 0 0 1 0 0 0 1
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 −3
I4 =
0 0 1 0 F2 → F2 − 3F4→ 0 0 1
= E9
0
Capı́tulo 2
0 0 0 1 0 0 0 1
1 0 0 0 1 0 0 0
0 1 0 0
I4 =
0 1 0 0
Determinantes. Regla de Cramer
0 0 1 0 F3 → F3 + 5F4→ 0 0 1 5 = E10
0 0 0 1 0 0 0 1
Entonces I4 = E10 E9 E8 E7 E6 E5 E4 E3 E2 E1 A (ver el corolario 1.14), de donde se obtiene que
A−1 = E10 E9 E8 E7 E6 E5 E4 E3 E2 E1 (¡verifı́quelo!). Los determinantes, cronológicamente, aparecen antes que las matrices, de allı́ el nombre
El lector puede notar que estas matrices (elementales) surgen de las OEF que le fueron que se les dió a éstas últimas, tratando de indicar que son de donde “nacen” los primeros.
aplicadas a la matriz A para obtener I4 , además, también puede verificar que E1 , E2 y E3
conmutan entre sı́ y surgen de las tres primeras OEF que le fueron aplicadas a A; E4 , E5 y E6
conmutan entre sı́ y surgen de las tres siguientes OEF que le fueron aplicadas a A; E7 surge
2.1. Determinantes y sus Propiedades
de la siguiente OEF que le fue aplicada a A y finalmente E8 , E9 y E10 conmutan entre sı́ y En esta sección trataremos los determinantes y algunas de sus propiedades, en primer lu-
surgen de las últimas tres OEF que le fueron aplicadas a A. Este procedimiento nos da una gar definiremos los determinantes de orden 2, continuando luego con los determinantes
alternativa para calcular la inversa de una matriz. Aplique este procedimiento para obterner de orden 3, para finalmente definir los determinantes de orden n.
A−1 en el caso de la matriz A del ejemplo 1.23. � �
a1,1 a1,2
Definición 2.1. Sea A = ∈ M2×2 (R). Definiremos el determinante de A,
a2,1 a2,2
como el número real
� �
� a a �
det(A) = |A| = �� 1,1 1,2 �� = a1,1 a2,2 − a1,2 a2,1
a2,1 a2,2
este tipo de determinante se suele llamar determinante de orden 2.
Observación 2.1. Vamos a convenir en que si A = [a] es una matriz real de orden 1,
entonces det(A) = |A| = a.
� �
−6 5
Ejemplo 2.1. Calcular det(A) para A =
−7 6
� �
� −6 5 �
Solución. det(A) = �� � = (−6)6 − 5(−7) = −36 + 35 = −1
−7 6 �
� �
a1,1 a1,2
Ejercicio 2.1.1. Pruebe que A = ∈ M2×2 (R) es invertible si y sólo si
a2,1 a2,2
det(A) �= 0. � �
1 a2,2 −a1,2
Además, si A es invertible, entonces A−1 = .
det(A) −a2,1 a1,1
Jorge Campos 53 54
2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer
Definición 2.2. Dada la matriz Los productos generados por las flechas rojas (�) se colocan con signo positivo, los que
son generados por las flechas azules (�) se colocan con signo negativo.
a1,1 a1,2 a1,3 Puede verificar que la igualdad anterior es cierta. También se puede hacer el cálculo si en
A = a2,1 a2,2 a2,3 ∈ M3×3 (R) lugar de colocar las dos primeras filas al final, se colocan las dos últimas filas en la parte
a3,1 a3,2 a3,3 superior, las dos primeras columnas a la derecha o las dos últimas columnas a la izquierda.
Este método se conoce como la método de Sarrus para el cálculo de determinantes de
Definiremos el determinante de A, denotado por det(A) o |A|, como
orden 3 y sólo es aplicable a determinantes de orden 3.
� �
� a1,1 a1,2 a1,3 � Ejemplo 2.3. Calculemos el determinante del ejemplo 2.2 usando este método.
� �
det(A) = |A| = �� a2,1 a2,2 a2,3 ��
� a3,1 a3,2 a3,3 � Solución.
� � � � � � � �
� a a � � a a � � a a � � 2 −3 −1 �
= a1,1 �� 2,2 2,3 �� − a1,2 �� 2,1 2,3 �� + a1,3 �� 2,1 2,2 � � �
a3,2 a3,3 a3,1 a3,3 a3,1 a3,2 � � −6 1 5 � = 2 · 1 · 6 + (−6)0(−1) + (−7)(−3)5
� �
� −7 0 6 �
este tipo de determinante es llamado determinante de orden 3.
2 −3 −1
−((−1)1(−7) + 5 · 0 · 2 + 6(−3)(−6))
Observación 2.2. Nótese que estamos definiendo el determinante de orden 3 en función de −6 1 5
determinantes de orden 2. � �
� 2 −3 −1 �
� �
2 −3 −1 � −6 1 5 �� = 12 + 0 + 105 − (7 + 0 + 108) = 2
�
Ejemplo 2.2. Calcular det(A) para A = −6 1 5 � −7 0 6 �
−7 0 6
Compare este resultado con el obtenido en el ejemplo 2.2.
Solución.
� �
� 2 −3 −1 � � � � � � � Antes de definir determinantes de orden n, daremos una definición previa.
� � � 1 5 � � � � �
�
det(A) = |A| = � −6 1 5 �� = 2 �� � − (−3) � −6 5 � + (−1) � −6 1 �
0 6 � � −7 6 � � −7 0 � Definición 2.3. Sea A ∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} se define la matriz
� −7 0 6 �
MijA ∈ M(n−1)×(n−1) (R) como la submatriz de A que se obtiene al eliminar la i-ésima fila
= 2(6 − 0) + 3(−36 + 35) − (0 + 7) = 2 y la j-ésima columna. El determinate de dicha� matriz
� es
� llamado
� el ij-ésimo menor de A
y lo denotaremos por mA A A � A�
ij , es decir, mij = det Mij = Mij .
Observación 2.4. Si en lugar de eliminar una fila y una columna de A, eliminamos r filas
Observación 2.3. Una forma muy sencilla de recordar la fórmula de determinantes de y r columnas de A, con 1 ≤ r < n, digamos las filas i1 , i2 , . . . , ir y las columnas j1 , j2 , . . . , jr ,
orden 3 es la siguiente: donde 1 ≤ i1 < i2 < · · · < ir ≤ n y 1 ≤ j1 < j2 < · · · < jr ≤ n, la submatriz de A
A
que se obtiene, la denotaremos por MIJ , donde I = {i1 , i2 , . . . , ir } y J = {j1 , j2 , . . . , jr }. El
� �
� a1,1 a1,2 a1,3 � determinante de dicha submatriz
� � �se denomina
� IJ-ésimo menor de A y es denotado por
� � � A�
� � � � mA A A
IJ , esto es, mIJ = det MIJ = MIJ .
� �
� a2,1 a2,2 a2,3 � = a1,1 a2,2 a3,3 + a2,1 a3,2 a1,3 + a3,1 a1,2 a2,3
� � Ejemplo 2.4. Consideremos la matriz
� �
� �
� �
� � − a1,3 a2,2 a3,1 − a2,3 a3,2 a1,1 − a3,3 a1,2 a2,1
� a3,1 a3,2 a3,3 � −9 2 −1 4
0 8 −5 7
�
� �
�
A=
� 1 6 3 −6
a1,1 a1,2 a1,3 no es parte del determinante, es sólo para −4 1 0 3
←
� �
ayudar a recordar la fórmula
a2,1 a2,2 a2,3 A
Calcular M2,3 A
; M4,2 A
y M2,2 .
Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la Solución. Notemos primero que A es triangular inferior.
fórmula dada en la definición 2.2 puede ser escrita como
� �
� 2 0 0 0 0 �
det(A) = |A| = a1,1 mA A A � �
1,1 − a1,2 m1,2 + a1,3 m1,3 � 12 1 0 0 0 �
� �
= a1,1 (−1)1+1 mA
1,1 + a1,2 (−1)
1+2 A
m1,2 + a1,3 (−1)1+3 mA
1,3 det(A) = |A| = �� −3 0 −3 0 0 �
�
� A� � A� � A� � 5 −8 �
= a1,1 (−1) det M1,1 + a1,2 (−1)1+2 det M1,2
1+1
+ a1,3 (−1)1+3 det M1,3 � 7 −1 0 �
� −9 6 −7 0 −6 �
La idea es generalizar esta fórmula para una matriz A de orden n. = 2(−1)1+1 mA 1,1 + 0(−1)
1+2 A
m1,2 + 0(−1)1+3 mA 1,3 + 0(−1)
1+4 A
m14 + 0(−1)1+5 mA
15
� �
� 1 0 0 0 �
Definición 2.4. Sea A ∈ Mn×n (R). Definiremos el determinante de A, determinante �
� 0 −3
�
� A� 0 0 ��
de orden n, como� el número real � = 2(−1)1+1 det M1,1 = 2 ��
�a1,1 a1,2 · · · a1n � � −8 7 −1 0 ��
� � � 6 −7 0 −6 �
�a2,1 a2,2 · · · a2n � � � A � �n
� � n 1+j 1+j A � � � �
det(A) = |A| = � .. .. . . .. � = j=1 a1j (−1) det M1j = j=1 a1j (−1) m1j . � −3 0 0 �� � 0 0 0 ��
� . . . . � 1+1 �
� �
� �
= 2 1(−1) � 7 −1 � 1+2 �
0 � + 0(−1) � −8 −1 0 ��
� an1 an2 · · · ann �
� −7 0 −6 � � 6 0 −6 �
� � � �
Ejemplo 2.5. Calcular el determinante de la matriz del ejemplo 2.4 � 0 −3 0 �� � 0 −3 0 ��
1+3 �
� �
+0(−1) � −8 7 � 1+4 �
0 � + 0(−1) � −8 7 −1 ��
Solución. � 6 −7 −6 � � 6 −7 0 �
� � � �
� −9 2 −1 � −3 0 0 ��
� 4 �� �
� 0 8 −5 7 � = 2 · 1 �� 7 −1 0 ��
det(A) = |A| = �� � � −7 0 −6 �
� 1 6 3 −6 �� � � � � �
� −4 1 0 3 � � −1 0 �� � 7 0 ��
� A� � A� � A� = 2 · 1 (−3)(−1)1+1 �� + 0(−1) 1+2 �
Definición 2.5. Sea A ∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definiremos el ij-ésimo Demostración. Ver apéndice D.
cofactor de A como el número real CijA dado por
� �
CijA = (−1)i+j det MijA = (−1)i+j mA
ij Ejemplo 2.8. Calcular el determinante de la matriz A del ejemplo 2.2 al desarrollar el
determinante mediante la tercera fila y mediante la segunda columna.
Ejemplo 2.7. Para la matriz del ejemplo 2.4 se tiene que
Solución. En primer lugar hallemos el determinante de A desarrollándolo mediante la ter-
� � cera fila.
� −9 2 4 ��
� A� � � �
A
C2,3 = (−1) m2,3 = − det M2,3 = − �� 1 6 −6 ��
2+3 A
� 2 −3 −1 �
� −4 1 � �
3 � det(A) = |A| = � −6� 1 5 ��
= −(−162 + 4 + 48 + 96 − 54 − 6) = 74 � −7 0 6 �
� � � � � �
� −3 −1 � � � 2 −1 � � �
= −7(−1)3+1 �� + 0(−1)3+2 �� � + 6(−1)3+3 � 2 −3 �
� � 1 5 � −6 5 � � −6 1 �
� −9 −1 4 �
� A� � � = −7(−15 + 1) + 0 + 6(2 − 18) = 2
A
C4,2 = (−1)4+2 mA = det M = � 0 −5 7 �
4,2 4,2 � �
� 1 3 −6 �
Ahora desarrollemos el determinante de A mediante la segunda columna.
= −270 + 0 − 7 + 20 + 189 − 0 = −68 � �
� 2 −3 −1 �
� �
� � det(A) = |A| = �� −6 1 5 ��
� −9 −1 4 �� � −7 0 6 �
� � � � � � � � �
A
C2,2 = (−1) 2+2
= det mA �
= � 1 3 −6 �� A
M2,2 � −6 5 � � � � �
2,2
� −4 = −3(−1)1+2 �� � + 1(−1)2+2 � 2 −1 � + 0(−1)3+2 � 2 −1 �
0 3 � −7 6 � � −7 6 � � −6 5 �
= −81 + 0 − 24 + 48 − 0 + 3 = −54 = 3(−36 + 35) + (12 − 7) + 0 = 2
�
Haciendo uso de los cofactores, podemos escribir � �
Teorema 2.2. Si A ∈ Mn×n (R), entonces det AT = det(A).
n
� n
� n
�
� A�
det(A) = a1j (−1)1+j det M1j = a1j (−1)1+j mA
1j =
A
a1j C1j Demostración. ¡Ejercicio!
j=1 j=1 j=1 Sugerencia: proceder por inducción sobre n y usar el teorema 2.1
La demostración del teorema que enunciaremos a continuación escapa al objetivo del curso,
sin embargo, de él se derivan el resto de las propiedades que serán enunciadas más adelante,
Teorema 2.3. Si A = (aij )n×n ∈ Mn×n (R) es una matriz triangular (superior o inferior),
en el apéndice D se puede encontrar una demostración de éste.
entonces det(A) = a1,1 a2,2 · · · ann .
Teorema 2.1. Si A = (aij )n×n ∈ Mn×n (R), entonces
Demostración. Procedamos por inducción sobre n. Supongamos, sin perder generalidad,
n
� n
� n
�
i+j
� � que A es una matriz triangular superior.
1. det(A) = aij (−1) det MijA = aij (−1) i+j
mA
ij = aij CijA para cualesquiera Verifiquemos que se cumple para n = 2. Sea
j=1 j=1 j=1
� �
i ∈ {1, . . . , n} (Desarrollo del determinante de A mediante la fila i-ésima). a1,1 a1,2
A=
n
� � � n
� n
� 0 a2,2
2. det(A) = aij (−1)i+j det MijA = aij (−1)i+j mA
ij = aij CijA para cualesquiera
i=1 i=1 i=1 Entonces
j ∈ {1, . . . , n} (Desarrollo del determinante de A mediante la columna j-ésima). det(A) = a1,1 a2,2 − a1,2 · 0 = a1,1 a2,2
Supongamos ahora que se cumple para n−1, esto es, supongamos que para cualquier matriz Teorema 2.5. Sean A, B ∈ Mn×n (R) y α ∈ R. Si existe s ∈ {1, . . . , n} tal que B(s) = αA(s)
triangular superior A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R) se cumple que y B(i) = A(i) para i �= s, entonces det(B) = α det(A), esto es, si multiplicamos una fila de A
det(A) = a1,1 a2,2 · · · a(n−1)(n−1) (Hipótesis Inductiva). por un escalar α, entonces el determinante de la matriz resultante es igual al determinante
Probemos ahora que se cumple para n. Sea de A multiplicado por α.
a1,1 a1,2 · · · a1n Demostración. Sean A = (aij )n×n y B = (bij )n×n . Como B(s) = αA(s) y B(i) = A(i) para
0 a2,2 · · · a2n i �= s, entonces bsj = αasj para cada j ∈ {1, . . . , n} y además, la matriz que se obtiene al
A = .. . . . . . . .. eliminar la fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego
. . A B
0 · · · 0 ann Msj = Msj para cada j ∈ {1, . . . , n} (¿por qué?).
Por lo tanto
B
Entonces, al desarrollar el determinante de A mediante la fila n, obtenemos Csj = (−1)s+j det(Msj B
) = (−1)s+j det(Msj
A A
) = Csj
para cada j ∈ {1, . . . , n}.
� A�
A
det(A) = 0 · Cn1 A
+ · · · + 0 · Cn(n−1) A
+ ann Cnn = ann (−1)n+n det(Mnn
A
) = ann det Mnn Ası́, al desarrollar el determinante de B por medio de la fila s, obtenemos
n
� n
� n
�
Pero B A A
det(B) = bsj Csj = αasj Csj =α asj Csj = α det(A)
j=1 j=1 j=1
a1,1 a1,2 · · · a1(n−1)
0 a2,2 · · · a2(n−1)
A
Mnn = .. .. .. ..
. . . .
0 · · · 0 a(n−1)(n−1) Ejemplo 2.9. Sea
2 −1 2
A
es decir, Mnn es una matriz triangular
� Asuperior
� de orden (n − 1), por lo tanto, usando la A= 12 −16 4
Hipótesis Inductiva, se tiene que det Mnn = a1,1 a2,2 · · · a(n−1)(n−1) . Luego −2 0 3
det(A) = ann a1,1 a2,2 · · · a(n−1)(n−1) = a1,1 a2,2 · · · a(n−1)(n−1) ann Entonces
� � � � � �
Lo cual concluye la prueba. � 2 −1 2 � � 2 −1 2 �� � 2 −1 2 �
� � � � �
�
det(A) = � 12 −16 4 � � 4 · 3 4(−4) 4 · 1 � � 3 −4 1 �
� = � � = 4� �
� −2 0 3 � � −2 0 3 � � −2 0 3 �
Los teoremas que enunciaremos a continuación, nos presentan las propiedades básicas del = 4[2(−4)3 + 3 · 0 · 2 + (−2)(−1)1 − 2(−4)(−2) − 1 · 0 · 2 − 3(−1)3]
determinante, estas propiedades nos permitirán calcular el determinante de una matriz sin
hacer demasiados cálculos. Los enunciados de estas propiedades se darán sólo para filas, sin = 4[−24 + 0 + 2 − 16 − 0 + 9] = 4(−29) = −116
embargo, en virtud del teorema 2.2, se pueden enunciar propiedades análogas para columnas.
�
Teorema 2.4. Sea A ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que A(s) = 0/1×n , entonces
det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero. Teorema 2.6. Sean A, B, C ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que C(s) = A(s) + B(s)
y C(i) = B(i) = A(i) para i �= s, entonces det(C) = det(A) + det(B), dicho de otra manera,
Demostración. Sea A = (aij )n×n . Como A(s) = 0/1×n , entonces asj = 0 para cada si tenemos tres matrices A, B, C cuyas filas son idénticas excepto la fila s, y que la fila s de
j ∈ {1, . . . , n}. C es igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es
Ası́ que, al desarrollar el determinante de A por medio de la fila s, se tiene que igual a la suma del determinante de A con el determinante de B.
n
� n
�
A A Demostración. Sean A = (aij )n×n , B = (bij )n×n y C = (cij )n×n . Sean A, B, C ∈ Mn×n (R).
det(A) = asj Csj = 0 · Csj =0
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i �= s, entonces csj = asj + bsj para cada
j=1 j=1
j ∈ {1, . . . , n} y además, las matrices que se obtienen al eliminar la fila s de A, B y C son
A B C
iguales, ası́ que Msj = Msj = Msj para cada j ∈ {1, . . . , n}.
Teorema 2.8. Sea A ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s �= t y A(s) = A(t) ,
entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.
Ejemplo 2.10. Sea A la matriz del ejemplo 2.9. Entonces
Demostración. Sea B ∈ Mn×n (R) la matriz que se obtiene al intercambiar las filas s y t
� � � � de A. Como A(s) = A(t) , entonces B = A y ası́ det(B) = det(A).
� 2 −1 2 �� � 4 + (−2) −1 2 �
� � � Por otro lado, dado que s �= t y según el teorema 2.7, det(B) = − det(A).
det(A) = �� �
12 −16 4 � = � � 6 + 6 −16 4 ��
� −2 0 3 � � 1 + (−3) 0 3 � Ası́ que det(A) = det(B) = − det(A) y en consecuencia det(A) = 0.
� � � �
� 4 −1 2 �� �� −2 −1 2 ��
�
= �� 6 −16 4 �� + �� 6 −16 4 �� Ejemplo 2.12. Sea
� 1 0 3 � � −3 0 3 � 2 −1 −2
= [4(−16)3 + 6 · 0 · 2 + 1(−1)4 − 2(−16)1 − 4 · 0 · 4 − 3(−1)6] A = 4 −16 12
2 −1 −2
+[−2(−16)3 + 6 · 0 · 2 + (−3)(−1)4 − 2(−16)(−3) − 4 · 0(−2) − 3(−1)6]
= [−192 + 0 − 4 + 32 − 0 + 18] + [96 + 0 + 12 − 96 − 0 + 18] Entonces A(1) = A(3) y
= −146 + 30 = −116 � �
� 2 −1 −2 �
� �
det(A) = �� 4 −16 12 ��
� � 2 −1 −2 �
= 2(−16)(−2) + 4(−1)(−2) + 2(−1)12 − (−2)(−16)2 − 12(−1)2 − (−2)(−1)4
Teorema 2.7. Sean A, B ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s �= t, B(s) = A(t) ,
B(t) = A(s) y B(i) = A(i) para i �= s e i �= t, entonces det(B) = − det(A), en otras palabras, = 64 + 8 − 24 − 64 + 24 − 8 = 0
si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al
�
determinante de A multiplicado por −1.
Teorema 2.9. Sean A ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s �= t y
Demostración. Ver Apéndice D. A(s) = αA(t) , entonces det(A) = 0, esto es, si una fila de A es un múltiplo escalar de alguna
otra fila de A, su determinante es igual a cero.
Ejemplo 2.11. Sea A la matriz del ejemplo 2.9 y sea Demostración. Sea B ∈ Mn×n (R) tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i �= s y
B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 2.8, se tiene que det(B) = 0.
2 −1 2 Por otro lado, como A(s) = αA(t) = αB(t) = αB(s) , entonces, usando el teorema 2.5, se
B = 4 −16 12 tiene que det(A) = α det(B) = α0 = 0.
3 0 −2
Ejemplo 2.13. Sea El siguiente ejemplo nos da un método para calcular el determinante de una matriz A
2 8 2 haciendo uso de las propiedades dadas en los siete teoremas precedentes, más propiamente
A = −4 −16 1 usaremos los teoremas 2.5, 2.7 y 2.10. Como veremos, el cálculo resulta mucho más sencillo
3 12 −2 que al usar la definición.
Como se dijo en la observación 1.15, usaremos tanto OEF como operaciones elementales por
Entonces A(2) = 4A(1) , además
columnas (OEC) para el cálculo de determinantes, éstas últimas operaciones las indicaremos
� � de manera análoga a las OEF, salvo que en lugar de usar F usaremos C.
� 2 8 2 ��
�
det(A) = �� −4 −16 1 �� Ejemplo 2.15. Calcular el determinante de la matriz
� 3 12 −2 �
6 −1 2 13 2
= 2(−16)(−2) + (−4)12 · 2 + 3 · 8 · 1 − 2(−16)3 − 1 · 12 · 2 − (−2)8(−4) −1 0 −1 −3 −1
= 64 − 96 + 24 + 96 − 24 − 64 = 0 A= 0 −3 0 9 0
7 1 3 12 3
� 0 −2 4 1 −3
Teorema 2.10. Sean A, B ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s �= t, Solución.
� �
B(s) = A(s) + αA(t) y B(i) = A(i) para i �= s, entonces det(B) = det(A), dicho de otra forma, � 6 −1 2 13 2 ��
�
si a una fila de A le sumamos un múltiplo escalar de alguna otra fila de A, el determinante � −1 0 −1 −3 −1 �
� �
de la matriz resultante es igual al determinante de A. det(A) = �� 0 −3 0 9 0 ��
� 7 1 3 12 3 ��
�
Demostración. Sea C ∈ Mn×n (R) tal que C(i) = B(i) = A(i) para i �= s y C(s) = αA(t) . Por � 0 −2 4 1 −3 �
lo tanto, dado que s �= t y en virtud del teorema 2.9, det(C) = 0. � �
� 6 −1 2 10 2 ��
Además, como B(s) = A(s) + αA(t) = A(s) + C(s) y en virtud del teorema 2.6 �
� −1 0 −1 −3 −1 �� � �
� C4 → C4 + 3C2
= �� 0 −3 0 0 0 ��
det(B) = det(A) + det(C) = det(A) + 0 = det(A) � 7 por teorema 2.10
� 1 3 15 3 ��
� 0 −2 4 −5 −3 �
� �
� 6 2 10 2 �� �
� �
Ejemplo 2.14. Sea A la matriz del ejemplo 2.9 y sea � −1 −1 −3 −1 � desarrollando el determinante
= −3(−1)3+2 �� �
� mediante la tercera fila
� 7 3 15 3 �
2 −1 2 � 0 4 −5 −3 �
B = −2 −9 −10 �
� 0 −4 −8 −4 �
�
−2 0 3 � � F1 → F1 + 6F2
� −1 −1 −3 −1 �
= 3 �� � F3 → F3 + 7F2
�
Ası́ que B(2) = A(2) − 7A(1) (¡verifı́quelo!). Además � 0 −4 −6 −4 � por teorema 2.10
� 0 4 −5 −3 �
� � � �
� 2 −1 2 �� � −4 −8 −4 � � �
� � � desarrollando el determinante
det(B) = � � −2 −9 −10 � = 3(−1)(−1) � −4 −6 −4 ��
2+1 �
�
� −2 0 3 � � 4 −5 −3 � mediante la primera columna
� �
= 2(−9)3 + (−2)0 · 2 + (−2)(−1)(−10) − 2(−9)(−2) − (−10)0 · 2 − 3(−1)(−2) � 0 −13 −7 � F 1 → F1 + F3
� �
= −54 + 0 − 20 − 36 − 0 − 6 = −116 �
= 3 � 0 −11 −7 � � F 2 → F2 + F3
� 4 −5 −3 � por teorema 2.10
= det(A) � �� �
� −13 −7 � desarrollando el determinante
� = 3 · 4(−1)3+1 �� �
�
−11 −7 mediante la primera columna
Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos métodos ¿cuál de los det(E) = det(In ) = 1
dos le parece más sencillo?
y
Teorema 2.11. Sea A = (aij )n×n ∈ Mn×n (R). Entonces para cualesquiera s, t ∈ {1, . . . , n} det(EA) = det(f (A)) = det(A) = 1 · det(A) = det(E) det(A)
con s �= t se tiene que
� n n
� Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t ∈ {1, . . . , n} tales que
A A
ask Ctk =0 y aks Ckt =0 E(s) = (In )(t) , E(t) = (In )(s) y E(i) = (In )(i) para i �= s e i �= t. De donde
k=1 k=1 (f (A))(s) = A(t) , (f (A))(t) = A(s) y (f (A))(i) = A(i) para i �= s e i �= t.
Demostración. Sea s, t ∈ {1, . . . , n} con s �= t. Definamos B = (bij )n×n tal que B(i) = A(i) Si s = t, entonces E = In y f (A) = A, ası́ que
para cada i ∈ {1, . . . , n} con i �= t y B(t) = A(s) . Ası́ que, usando el teorema 2.8, det(B) = 0.
det(E) = det(In ) = 1
Por otro lado, las matrices que se obtienen al eliminar la fila t de B y la fila t de A, son
B A B A
iguales, por lo tanto Mtk = Mtk para cada k ∈ {1, . . . , n}, de donde Ctk = Ctk . Luego, al y
desarrollar el determinante de B mediante la fila t, se tiene que det(EA) = det(f (A)) = det(A) = 1 · det(A) = det(E) det(A)
n
� n
�
B A Si s �= t, podemos usar el teorema 2.7 y obtenemos
det(B) = btk Ctk = ask Ctk
k=1 k=1 det(E) = − det(In ) = −1
n
� n
�
A A y
En consecuencia ask Ctk = 0, análogamente se prueba que aks Ckt = 0.
det(EA) = det(f (A)) = − det(A) = (−1) det(A) = det(E) det(A.)
k=1 k=1
Caso 1. f es una OEF tipo 1. Ası́ que existen s ∈ {1, . . . , n} y α �= 0 tales que
E(s) = α(In )(s) (donde (In )(s) es la fila s de In ) y para i �= s se tiene que Teorema 2.14. Si A ∈ Mn×n (R) es una matriz ERF, entonces det(A) �= 0 si y sólo si
E(i) = (In )(i) . Luego (f (A))(s) = αA(s) y para i �= s tenemos (f (A))(i) = A(i) . A = In .
Por lo tanto, según el teorema 2.5, Demostración. Sea A = (aij )n×n . Como A es ERF, entonces A es triangular superior (ver
ejercicio 1.2.3), ası́ que aij = 0 para i > j y además, en virtud del teorema 2.3, se tiene que
det(E) = α det(In ) = α · 1 = α det(A) = a1,1 a2,2 · · · ann .
Supongamos que det(A) �= 0. Luego aii �= 0 para cada i ∈ {1, . . . , n}. Como aij = 0 para
y i > j, entonces para cada i ∈ {1, . . . , n}, la primera componente no nula en la i-ésima fila es
det(EA) = det(f (A)) = α det(A) = det(E) det(A). aii , y por ser A una matriz ERF, se tiene que aii = 1 para cada i ∈ {1, . . . , n}, es decir, aii
es un pivote y por lo tanto aij = 0 para i �= j (¿por qué?). En resumen
Caso 2. f es una OEF tipo 2. Luego existen s, t ∈ {1, . . . , n}, con s �= t, y α ∈ R tales
�
que E(s) = (In )(s) + α(In )(t) y E(i) = (In )(i) para i �= s. Ası́ que 1 si i = j
(f (A))(s) = A(s) + αA(t) y (f (A))(i) = A(i) para i �= s. aij =
0 si i �= j
Es decir, A = In . Definición 2.6. Sea A ∈ Mn×n (R). Se define la matriz adjunta de A como la matriz
Recı́procamente, si A = In , entonces det(A) = 1 �= 0. adj(A) ∈ Mn×n (R) cuya ij-ésima componente es el ji-ésimo cofactor de A para cualesquie-
ra i, j ∈ {1, . . . , n}, es decir, si adj(A) = (bij )n×n , entonces bij = CjiA para cualesquiera
i, j ∈ {1, . . . , n}.
En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz
cuadrada y nos va a permitir conocer, a priori, si una matriz es o no invertible antes de usar Observación 2.5. Si C = (CijA )n×n , es decir, si C es la matriz real cuadrada cuya
el procedimiento, ya antes expuesto, del cálculo de la inversa de una matriz. ij-ésima componente es el ij-ésimo cofactor de A para cualesquiera i, j ∈ {1, . . . , n}, en-
tonces adj(A) = C T .
Teorema 2.15. Sea A ∈ Mn×n (R). Entonces A es invertible si y sólo si det(A) �= 0.
Ejemplo 2.16. Calcular la adjunta de
Demostración. Sea B ∈ Mn×n (R) la FERF A. Entonces existen matrices elementales
E1 , E2 , . . . , Er ∈ Mn×n (R) tales que B = E1 E2 · · · Er A. Sabemos, en virtud del teorema
2 −1 3
2.12, que det(Ei ) �= 0 para cada i ∈ {1, . . . , r}, entonces det(A) �= 0 si y sólo si det(B) �= 0;
A= 1 0 2
y usando el teorema 2.14 se tiene que B = In . Por lo tanto det(A) �= 0 si y sólo si la FERF 4 −1 7
de A es In , lo cual concluye la prueba.
Solución. Necesitamos calcular cada uno de los cofactores de A. Veamos
� � � �
Teorema 2.16. Sean A, B ∈ Mn×n (R). Entonces det(AB) = det(A) det(B). � 0 2 � � 1 2 �
A
C1,1 = (−1)1+1 �� � = 2; C1,2
�
A
= (−1)1+2 �� � = 1;
−1 7 4 7 �
Demostración. � � � �
� 1 0 �� � −1 3 �
A
C1,3 = (−1)1+3 �� = −1; C2,1 A
= (−1)2+1 �� � = 4;
Caso 1. det(A) = 0. Ası́ que, en virtud del teorema 2.15, A no es invertible. Luego, 4 −1 � −1 7 �
usando el teorema 1.25, se tiene que AB no es invertible, y nuevamente por el � � � �
� 2 3 � � 2 −1 �
teorema 2.15 se tiene que det(AB) = 0. Por lo tanto A
C2,2 = (−1)2+2 �� � = 2; C2,3 A
= (−1)2+3 �� � = −2;
4 7 � 4 −1 �
det(AB) = 0 = 0 det(B) = det(A) det(B) � � � �
� −1 3 � � 2 3 �
A
C3,1 = (−1)3+1 �� � = −2; C3,2 A
= (−1)3+2 �� � = −1;
0 2 � 1 2 �
Caso 2. det(A) �= 0. Luego A es invertible, en virtud del teorema 2.15. Ası́ que, al usar el � �
teorema 1.23, tenemos que existen matrices elementales E1 , E2 , . . . , Er ∈ Mn×n (R) � 2 −1 �
A
C3,3 = (−1)3+3 �� � = 1;
tales que A = E1 E2 · · · Er . Luego, por el corolario 2.13 1 0 �
Ası́ que A
det(A) = det(E1 E2 · · · Er ) = det(E1 ) det(E2 ) · · · det(Er ) y A A
C1,1 C2,1 C3,1 2 4 −2
adj(A) = C1,2
A A
C2,2 A
C3,2 = 1 2 −1
A A A
det(AB) = det(E1 E2 · · · Er B) C1,3 C2,3 C3,3 −1 −2 1
= det(E1 ) det(E2 ) · · · det(Er ) det(B) = det(A) det(B)
Demostración. Hagamos adj(A) = (bjk )n×n . Ası́ que para cada j, k ∈ {1, . . . , n}, se tiene
A
2.2. Matriz Adjunta. Regla de Cramer que bjk = Ckj .
Si hacemos A adj(A) = D = (dik )n×n , entonces, para cada i, k ∈ {1, . . . , n}, tenemos que
En esta sección definiremos la adjunta de una matriz y enunciaremos la regla de Cra- n n
� �
mer , que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante dik = aij bjk = A
aij Ckj .
aplicación de los determinantes. j=1 j=1
Pero n
Consideremos la ecuación matricial Ax = b, donde A ∈ Mn×n (R). Si A es invertible,
� entonces la única solución de dicha ecuación está dada por x = A−1 b, ası́ que, una forma de
aij CijA = det(A)
j=1
hallar la solución de la ecuación en cuestión, es calcular la inversa de A y multiplicarla por b,
pero quizás esto es mucho más complicado y costoso (en términos de cálculos) que calcular
y según el teorema 2.11, si i �= k, entonces la FERF de la matriz [A|b].
n
� En el siguiente teorema presentaremos una herramienta que permite resolver la ecuación
A
aij Ckj =0 anterior usando determinantes, sin necesidad de calcular la inversa de A ni la FERF de [A|b],
j=1 dicha herramienta se conoce con el nombre de la regla de Cramer .
Por lo tanto Teorema (Regla de Cramer). Sea A ∈ Mn×n (R) una matriz invertible y b ∈ Mn×1 (R).
2.19
� x1
det(A) si i = k x2
dik =
0 si i �= k Si x = .. es la solución de la ecuación Ax = b, entonces, para cada j ∈ {1, . . . , n},
� .
1 si i = k x
= det(A) � n�
0 si i �= k
det Abj
= det(A)δik xj = , donde Abj es la matriz que se obtiene de A al reemplazar A(j) (la columna j)
det(A)
donde In = (δik )n×n . En consecuencia A adj(A) = det(A)In . De manera análoga se prueba por b, esto es, � �
que adj(A)A = det(A)In , lo cual concluye la prueba. Abj = A(1) · · · A(j−1) b A(j+1) · · · A(n)
Demostración. Como A = (aij )n×n es invertible, entonces la única solución del sistema
1 1
−1 1 Ax = b es x = A−1 b, pero A−1 = adj(A), ası́ que x = adj(A)b, por lo tanto, si
Teorema 2.18. Si A ∈ Mn×n (R) es invertible, entonces det(A ) = y det(A) det(A)
det(A)
1 b1
A−1 = adj(A). b2 1 � A
n
det(A)
b = .. , entonces xj = C bi para cada j ∈ {1, . . . , n}.
. det(A) i=1 ij
Demostración. Como A es invertible, entonces existe A−1 ∈ Mn×n (R) tal que
bn
AA−1 = In = A−1 A, y por el teorema 2.16
Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que
det(A) det(A−1 ) = det(AA−1 ) = det(In ) = 1. a1,1 · · · a1(j−1) b1 a1(j+1) ··· a1n
. . . . .
Luego .. .. .. .. ..
1 a(i−1)1 · · · a(i−1)(j−1) bi−1 a(i−1)(j+1) · · · a(i−1)n
det(A−1 ) = . b
Aj = ai1 ··· ai(j−1) bi ai(j+1) ··· ain
det(A)
Por otro lado, usando el teorema 2.17, se tiene que a(i+1)1 · · · a(i+1)(j−1) bi+1 a(i+1)(j+1) · · · a(i+1)n
� � ... ... ... ... ...
1 1 1 an1 · · · an(j−1) bn an(j+1) · · · ann
A adj(A) = A adj(A) = det(A)In = In .
det(A) det(A) det(A) Ab
Por lo tanto, para cada i ∈ {1, . . . , n}, tenemos que Mij j = MijA y ası́
De donde � Ab �
1 Ab � �
A−1 = adj(A). Cij j = (−1)i+j det Mij j = (−1)i+j det MijA = CijA
det(A)
Luego, al desarrollar el determinante de Abj por medio de la j-ésima columna, obtenemos
n
� n
�
Ejercicio 2.2.1. Sea A ∈ Mn×n (R) una matriz invertible. Pruebe que adj(A) también es det(Abj ) =
Ab
Cij j bi = CijA bi
invertible y además (adj(A))−1 = adj(A−1 ). i=1 i=1
� � � �
En consecuencia, para cada j ∈ {1, . . . , n}, tenemos que � 1 2 −1 ��
3 � 1 3 2 −1 � � �
� � � � −1 0 2 �
� � � b� � 1 22 1 �� � 0 −1 0 2 � � �
det Abj det A2 = �� = � � = � −11 −6 1 �
xj = � 4 2 −3 ��
1 � 0 −11 −6
� 1 �
�
�
�
�
�
� 1 1 4
det(A) 0 11 4 � � 0 1 1 4 �
� �
� −1 0 0 �� � �
� � −6 −21 �
= �� −11 −6 −21 �� = − �� � = −(−36 + 21) = 15.
Ejemplo 2.17. Verificar que la matriz del sistema � 1 6 �
1 1 6 �
x +2z −w = 3
x +y +2z +w = 2 � � � �
4x +2y +2z −3w = 1 � 1 03 −1 �� � 1 0 2 −1 �� � �
� � � 1 −1 2 �
� � � 1 12 1 �� � 0 1 −1 2 �� � �
2y +z +4w = 1 det A3 b
= �� = �� = �� 2 −11 1 �
4 21 −3 �� 2 −11 � �
� � 0 1 � � 2 1 4 �
es invertible y usar la regla de Cramer para hallar la solución del sistema. � 0 21 4 � � 0 2 1 4 �
� �
Solución. La matriz del sistema es � 1 −1 �
2 � � �
� � −9 −3 ��
1 0 2 −1 = �� 0 −9 −3 �� = �� = 9.
� 3 0 �
1 1 2 1 0 3 0 �
A=
4 2 2 −3
0 2 1 4 � � � �
� 1 0 �2 3� 1 0 2 3 �� � �
� � � � 1 0 −1 �
� � � 1 1 �2 2� 0 −1 �� � �
hallemos su determinante
� � � � det Ab4 = �� � = � 0 1 = � 2 −6 −11 �
� 1 0 2 −1 � � 1 0 4 2 �2 1� 0 2 −6 −11 � � �
� � � 2 −1 �� �
� 1
�
�
�
� 1
� � � � � � 2 1 1 �
� 1 1 2 � � 0 1 � � 0 2 � � 0 0 �� � 0 2 �1 1� 0 2 1 1 �
1 0 2 � �
det(A) = �� � = �
� � 0 2 −6
� = � 2 −6 1
� �
� = � 2 −6 −3 �
� � � � 1 0 0 �� � �
� 4 2 2 −3 � � 1 � � 2 � � 2 � � −6 −9 �
1 4 1 0 �
� 0 2 1 4 � � 0 2 1 4 � = �� 2 −6 −9 �� = �� � = −18 + 9 = −9.
�
� � � 1 3
� −6 −3 � 2 1 3 �
= �� � = 3 �= 0.
1 0 � � � � � � �
det Ab1 −18 det Ab2 15 det Ab3 9
Por lo tanto la matriz del sistema es invertible, ası́ que podemos aplicar la regla de Cramer En consecuencia x = = = −6; y = = = 5; z = = = 3;
� b� det(A) 3 det(A) 3 det(A) 3
para resolverlo. En este caso la matriz de términos independientes es det A4 −9
w= = = −3, es decir, la solución del sistema dado es:
3 det(A) 3
2
b=
1 x −6
y 5
1
z = 3
Luego w −3
� � � �
�
3 0 2 −1 �� � 0 −6 −1 −13 �� � �
� � � −6 −1 −13 �
� � �
2 1 2 1 �� � 0 −3 0 −7 �� � �
det A1 b
= �� � = �
� 0 = − � −3 0 −7 �
1
� 2 2 −3 � � 0 1 −7 �� �
� 0
� Ejemplo 2.18. Una fábrica produce tres tipos de productos, mezclando para ello tres materias
� � � 1 � 1 −7 �
1 2 1 4 2 1 4 primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la
� �
� −6 0 −20 �� � � materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3;
� � −6 −20 ��
= − �� −3 0 −7 �� = �� = 42 − 60 = −18. para fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y
� � −3 −7 � tres de la materia prima 2; finalmente, para fabricar una unidad del producto 3, se necesitan,
0 1 −7
tres unidades de la materia prima 1, tres de la materia prima 2 y dos de la materia prima −24 −12 −12
Por lo tanto x1 = = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de
3. Si este mes la fábrica cuenta con seis millones de unidades de la materia prima 1, doce −12 −12 −12
la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un millón de
millones de unidades de la materia prima 2 y seis millones de la materia prima 3 ¿cuántas
unidades de cada uno de los productos 2 y 3.
unidades de cada producto puede producir la fábrica usando el total de las materias primas?
Solución. Para cada i ∈ {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede
producir la fábrica.
Por lo tanto, la cantidad de unidades (en millones) que se usarán es: 2.3. Determinantes de Matrices Triangulares por Blo-
x1 + x2 + 3x3 de la materia 1 ques
3x1 + 3x2 + 3x3 de la materia 2 En esta última sección estamos interesados en estudiar un poco las matrices expresadas
por bloques, las cuales nos servirán para el estudio de la forma canónica de Jordan
2x1 + 2x3 de la materia 3 (ver la sección 5.3 del capı́tulo 5), no haremos un estudio muy extenso, sólo lo necesario.
Como se quiere usar el total de las materias primas, entonces
Definición 2.7. Sean m1 , m2 , . . . , mr , n1 , n2 , . . . , ns ∈ Z+ , m = m1 + m2 + · · · + mr y
x1 +x2 +3x3 = 6 n = n1 + n2 + · · · + ns . Para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s} consideremos una
3x1 +3x2 +3x3 = 12 matriz Aij ∈ Mmi ×nj (R). La matriz A ∈ Mm×n (R) dada por
2x1 +2x3 = 6
A1,1 A1,2 · · · A1s
En este caso, la matriz del sistema, la matriz de incógnitas y la matriz de términos inde- A2,1 A2,2 · · · A2s
pendientes son, respectivamente:
A = .. .. ..
. . .
1 1 3 x1 6 Ar1 Ar2 · · · Ars
A = 3 3 3 ; x = x2 y b = 12
2 0 2 x3 6 se dice que está expresada por bloques y para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s},
la matriz Aij es llamada submatriz o matriz bloque de A.
Veamos si podemos aplicar la regla de Cramer. Para ello calculemos el determinante de la
matriz del sistema. Ejemplo 2.19. Si definimos
� � � �
� 1 1 3 � � 1 1 3 � � �
� � � � � � 2 −1 0 3 5 � � � �
det(A) = �� 3 3 3 �� = �� 0 0 −6 � = − � 0 −6 � = −12 �= 0. 3 −1 3 0 4
� 2 0 2 � � 2 0
�
�
� 2 2 � A1,1 = 4 2 1 ; A1,2 = −5 2 ; A2,1 = y A2,2 = ,
2 7 −1 2 1 3
6 7 −2 9 −1
Como la matriz del sistema es invertible, podemos usar la regla de Cramer.
entonces
� � � �
� � � 3 �� � �
� b� � 6 1 3 � � 6 1 � −6 −6 � 2 −1 0 3 5 2 −1 0 3 5
� � �
det A1 = � 12 3 3 � = � −6 0 −6 �� = − �� � = −(−12 + 36) = −24.
� 6 0 2 � � 6 0 6 2 � � � 4 2 1 −5 2 4 2 1 −5 2
2 � A1,1 A1,2
A= =
6 7 −2 9 −1
= 6 7 −2 9 −1
� � � � A2,1 A2,2
� � � � � � 3 −1 3 0 4 3 −1 3 0 4
� b� � 1 6 3 � � 1 6 3 � � −6 −6 �
7 −1 2 1 3 7 −1 2 1 3
det A2 = �� 3 12 3 �� = �� 0 −6 −6 �=�
� � −6 −4
� = 24 − 36 = −12.
�
� 2 6 2 � � 0 −6 −4 �
� � � � �
� � � 6 �� � �
� b� � 1 1 6 � � 1 1 � 0 −6 ��
�
det A3 = � 3 3 12 �� = �� 0 0 −6 �� = − �� = −12. Sean A, B ∈ Mm×n (R). Si m1 , m2 , . . . , mr , n1 , n2 , . . . , ns ∈ Z+ son como en la definición
� 2 0 6 � � 2 � 2 6 � 2.7 y si para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s} definimos Aij , Bij ∈ Mmi ×nj (R) de tal
0 6
manera que donde para cada i ∈ {1, . . . , r} y cada k ∈ {1, . . . , t} se tiene que Cik ∈ Mmi ×pk (R) está dada
por
�s
A1,1 A1,2 · · · A1s B1,1 B1,2 · · · B1s
A2,1 A2,2 · · · A2s B2,1 B2,2 · · · B2s Cik = Ai1 B1k + Ai2 B2k + · · · + Ais Bsk = Aij Bjk .
A = .. .. .. y B = .. .. .. j=1
. . . . . .
A continuación daremos el resultado en el cual estamos más interesados.
Ar1 Ar2 · · · Ars Br1 Br2 · · · Brs
Teorema 2.20. Sean B ∈ Mm×m (R), C ∈ Mm×n (R) y D ∈ Mn×n (R) tales que
entonces es claro que
� �
B C
αA1,1 αA1,2 · · · αA1s A= /
0n×m D
αA2,1 αA2,2 · · · αA2s
1. αA = .. .. .. Entonces det(A) = det(B) det(D).
. . .
αAr1 αAr2 · · · αArs Demostración. Fijemos n y procedamos por inducción sobre m.
Verifiquemos que se cumple para m = 1. En este caso, B = [b] con b ∈ R y
A1,1 + B1,1 A1,2 + B1,2 · · · A1s + B1s
A2,1 + B2,1 � �
A2,2 + B2,2 · · · A2s + B2s b C
2. A + B = .. .. .. A= /
. . . 0n×1 D
Ar1 + Br1 Ar2 + Br2 · · · Ars + Brs
Al desarrollar el determinante de A mediante la primera columna se obtiene
� A�
AT1,1 AT2,1 · · · ATr1 A
det(A) = bC1,1 = b(−1)1+1 det M1,1 = b det(D) = det(B) det(D)
AT1,2 AT2,2 · · · ATr2
3. AT = .. .. ..
. . . (Hipótesis Inductiva) Supongamos que se cumple para m−1, es decir, si B ∈ M(m−1)×(m−1) (R),
AT1s AT2s · · · ATrs C ∈ M(m−1)×n (R) y D ∈ Mn×n (R) son tales que
� �
B C
Otro resultado no tan obvio como los anteriores, pero no por ello muy complicado, es el A= /
siguiente. 0n×(m−1) D
Sean A ∈ Mm×n (R) y B ∈ Mn×p (R). Si m1 , m2 , . . . , mr , n1 , n2 , . . . , ns ∈ Z+ son como entonces det(A) = det(B) det(D).
en la definición 2.7 y p1 , p2 , . . . , pt ∈ Z+ son tales que p = p1 + p2 + · · · + pt y si para Probemos que se cumple para m. Sean B ∈ Mm×m (R), C ∈ Mm×n (R) y D ∈ Mn×n (R)
cada i ∈ {1, . . . , r}, cada j ∈ {1, . . . , s} y cada k ∈ {1, . . . , t} definimos Aij ∈ Mmi ×nj (R), tales que
Bjk ∈ Mnj ×pk (R) de tal manera que � �
B C
A= /
0n×m D
A1,1 A1,2 · · · A1s B1,1 B1,2 · · · B1t
A2,1 A2,2 · · · A2s B2,1 B2,2 · · · B2t Luego, al desarrolar el determinante de A, por medio de la primera columna, obtenemos
A = .. .. .. y B = .. .. ..
. . . . . . m
� � �
Ar1 Ar2 · · · Ars Bs1 Bs2 · · · Bst det(A) = bi1 (−1)i+1 det Mi1A
i=1
entonces
C1,1 C1,2 · · · C1t donde B = (bij )m×m .
C2,1 C2,2 · · · C2t Pero para cada i ∈ {1, . . . , m} tenemos que
AB = .. .. .. � �
. . . MB Ci
Mi1A = / i1
Cr1 Cr2 · · · Crt 0n×(m−1) D
donde la matriz Ci ∈ M(m−1)×n (R) se obtiene al eliminar la i-ésima fila de C. Demostración. ¡Ejercicio!
Y usando la hipótesis inductiva, tenemos que
� � � �
det Mi1A = det Mi1B det(D) Observación 2.6. Las matrices dadas en el teorema 2.20 y el corolario 2.21 se conocen con
el nombre de matrices triangulares superior por bloques, de manera análoga se definen
Por lo tanto las matrices triangulares inferior por bloques.
m
� m
� Es claro que la transpuesta de una matriz triangular superior por bloques es una matriz
� � � � � �
det(A) = bi1 (−1)i+1 det Mi1B det(D) = bi1 (−1)i+1 det Mi1B det(D) triangular inferior por bloques (y viceversa), en consecuencia, el teorema 2.20 y el corolario
i=1 i=1 2.21, siguen siendo válidos para matrices triangulares inferior por bloques.
= det(B) det(D) Una matriz que sea triangular superior e inferior por bloques, simultáneamente, es llamada
matriz diagonal por bloques.
lo cual concluye la prueba.
Ejemplo 2.21. Si
Ejemplo 2.20. Si 4 5 −3 0 −1 0 0 0 0
2 −1 3 10 1 2 3 −1 1 2 0 0 0 0
−1
0 4 2 12
0 0 3 1 4 0 0 0 0
A = −4 1 2 4 6 0 0 1 2 −1 0 0 0 0
0
0 0 3 5 A= 0 0 2 4 −1 0 0 0 0
0 0 0 1 2 1 5 −3 4 1 7 −2 4 1
entonces A puede expresarse por bloques como sigue 0 −2 8 6 −5 1 0 5 7
4 9 5 12 3 0 0 −3 6
2 −1 3 10 1 1 −2 3 8 −6 0 0 2 −5
−1 0 4 2 12
A= −4 1 2 4 6
entonces
0 0 0 3 5 � �
� 4 5 −3 0 −1 0 0 0 0 �
0 0 0 1 2 � �
� 2 3 −1 1 2 0 0 0 0 �
� �
� 0 0 3 1 4 0 0 0 0 �
Ası́ que al usar el teorema 2.20 tenemos que � �
� 0 0 1 2 −1 0 0 0 0 �
� � � �
� 2 −1 3 � � � det(A) = �� 0 0 2 4 −1 0 0 0 0 �
� �� 3 5 � �
det(A) = �� −1 0 4 �� �� �=3·1=3
�
�
� 1 5 −3 4 1 7 −2 4 1 �
�
� −4 1 2
1 2 � �
� 0 −2 8 6 −5 1 0 5 7 �
�
� 4 9 5 12 3 0 0 −3 6 �
� � �
� 1 −2 3 8 −6 0 0 2 −5 �
� �
Corolario 2.21. Sean n1 , n2 , . . . , ns ∈ Z+ , A ∈ Mn×n (R) y Aij ∈ Mni ×nj (R) para � 4 5 −3 0 −1 0 0 0 0 �
� �
i, j ∈ {1, . . . , s} con i ≤ j tales que n1 + n2 + · · · + ns = n y � 2 3 −1 1 2 0 0 0 0 �
� �
� 0 0 3 1 4 0 0 0 0 �
A1,1 A1,2 ··· A1s � �
� 0 0 1 2 −1 0 0 0 0 �
0/n ×n A2,2 � �
2 1 ··· A2s
= �� 0 0 2 4 −1 0 0 0 0 �
A= .. .. .. .. �
. . . . � 1 5 −3 4 1 7 −2 4 1 �
� �
0/ns ×n1 ··· 0/ns ×ns−1 Ass � 0 −2 8 6 −5 1 0 5 7 �
� �
� 4 9 5 12 3 0 0 −3 6 �
� �
Entonces det(A) = det(A1,1 ) det(A2,2 ) · · · det(Ass ). � 1 −2 3 8 −6 0 0 2 −5 �
� � � �
� 4 5 −3 0 −1 �� � � −2 1 3 0 0 0 0 0 �
� �� 7 −2 4 1 � � �
� 2 3 −1 1 2 �� � � −1 2 4 0 0 0 0 0 �
� �� 1 0 5 7 � � �
det(A) = �� 0 0 3 1 4 ��
��
�
�
�
� −5 0 3 0 0 0 0 0 �
�
� �� 0 0 −3 6 � � �
� 0 0 1 2 −1 �� � 4 7 2 6 −3 0 0 0
� � 0 0 2 −5 det(A) = �� �
�
0 0 2 4 −1 � −2 −6 11 5 −2 0 0 0 �
� � � �
� 45 −3 0 −1 �� � � −2 4 1 −1 3 4 1 0 �
� ��
7 −2 4 1 �� � �
� 23 −1 1 2 �� � 1 8 −6 3 7 2 −4 5 �
� ��
1 0 5 7 �� � �
= �� 00 3 1 4 �� −1 0 3 5 4 3 −1 2
��
0 0 −3 6 �� � � � �
� 00 1 2 −1 �� � −2 1 3 �� �� �� 4 1 0 ��
� ��
0 0 2 −5 � � 6 −3 ��
� 00 2 4 −1 � = �� −1 2 4 �� �� � � 2 −4 5 �
� � � 5 −2 � �� �
� �� �� �� � −5 0 3 � 3 −1 2 �
� 4 5 �� 3 1 4
7 −2 �� �� −3
�� 6 ��
= �� � � 1 2 −1 �� = (−12 − 20 + 0 + 30 − 0 + 3)(−12 + 15)(−32 + 15 + 0 − 0 + 20 − 4)
2 3 � �� ��
�1 0 � � 2 −5 �
2 4 −1 = 1 · 3(−1) = −3
= (12 − 10)(−6 + 16 − 2 − 16 + 12 + 1)(0 + 2)(15 − 12) = 2 · 5 · 2 · 3 = 60
−2 1 3 0 0 0 0 0
−1 2 4 0 0 0 0 0
−5 0 3 0 0 0 0 0
4 7 2 6 −3 0 0 0
A=
−2 −6 11 5 −2 0 0 0
−2 4 1 −1 3 4 1 0
1 8 −6 3 7 2 −4 5
−1 0 3 5 4 3 −1 2
Solución.
� �
� −2 1 3 0 0 0 0 0 �
� �
� −1 2 4 0 0 0 0 0 �
� �
� −5 0 3 0 0 0 0 0 �
� �
� 4 7 2 6 −3 0 0 0 �
det(A) = �� �
�
� −2 −6 11 5 −2 0 0 0 �
� −2 4 1 −1 3 4 1 0 �
� �
� 1 8 −6 3 7 2 −4 5 �
� �
� −1 0 3 5 4 3 −1 2 �
Espacios Vectoriales. Bases y Observación 3.1. Es de hacer notar que las expresiones a la derecha de las igualdades en
M1 y M2 no son ambiguas pues, a pesar de no haberlo dicho, la operación + tiene mayor
Dimensión jerarquı́a que la operación ·, esto es, (α · u) + v puede ser escrito como α · u + v, pero en la
expresión α · (u + v) no pueden suprimirse los paréntesis.
Definición 3.1. Un espacio vectorial real es una terna (V, +, ·) formada por un conjunto Observación 3.3. En adelante, siempre que no haya error a confusión, en lugar de escribir
no vacı́o V, cuyos elementos llamaremos vectores, y dos operaciones binarias α · v escribiremos αv.
+ : V × V −→ V, llamada adición vectorial, y · : R × V −→ V, llamada multiplica-
ción por escalar, satisfaciendo las siguientes condiciones Observación 3.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no
se tienda a confusión, en lugar de la terna (V, +, ·), sobrentendiendo las operaciones + y ·.
A0. u + v ∈ V para cualesquiera u, v ∈ V (cerradura de la adición vectorial).
Ejemplo 3.1.
A1. u + v = v + u para cualesquiera u, v ∈ V (conmutatividad de la adición
vectorial).
1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi ∈ R para cada i ∈ {1, . . . , n}} junto con las
A2. (u + v) + w = u + (v + w) para cualesquiera u, v, w ∈ V (asociatividad de la operaciones + y · dadas como sigue
adición vectorial).
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )
A3. Existe 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia de un elemento
neutro para la adición vectorial). α · (x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn )
A4. Para cada v ∈ V existe v � ∈ V tal que v + v � = 0/V (existencia de un elemento donde α ∈ R y (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) ∈ Rn , es un espacio vectorial (¡verifı́que-
opuesto para la adición vectorial). lo!).
M0. α · v ∈ V para cualesquiera α ∈ R y v ∈ V (cerradura de la multiplicación �
por escalar).
2. El conjunto Mm×n (R) junto con las operaciones + y ·, dadas en las definiciones 1.5
M1. (α + β) · v = α · v + β · v para cualesquiera α, β ∈ R y v ∈ V (distributividad y 1.6 respectivamente del capı́tulo 1, es un espacio vectorial (ver el teorema 1.2 en el
de la multiplicación por escalar respecto a la adición escalar). capı́tulo 1). �
83 84 Jorge Campos
3.1. Espacios Vectoriales Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión
3. Consideremos una matriz A ∈ Mm×n (R). Los conjuntos pues 4 �= 3 = 2 + 1, es decir, la adición no es cerrada en V o V no es cerrado bajo la
adición.
S = {x ∈ Mn×1 (R) : Ax = 0/m×1 }
Sin embargo, si definimos sobre V las operaciones
R = {y ∈ Mm×1 (R) : Ax = y para algún x ∈ Mn×1 (R)}
(x, y) + (z, w) = (x + z, y + w − 1)
junto con las operaciones + y · definidas en el capı́tulo 1, son espacios vectoriales
(¡pruébelo!). α · (x, y) = (αx, α(y − 1) + 1)
El espacio S es llamado espacio solución del sistema homogéneo Ax = 0m×1 / entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) ∈ V y α, β ∈ R
o espacio nulo de A, y el espacio R es llamado el espacio imagen de A. Estos cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.
espacios serán tratados formalmente y en detalle en la sección 6.3. � De donde
y + w − 1 = x + 1 + z + 1 − 1 = (x + z) + 1
4. Sea n ∈ N. Definamos
y por lo tanto
Pn [x] = {a0 + a1 x + · · · + an xn : a0 , a1 , . . . , an ∈ R} (x, y) + (z, w) = (x + z, y + w − 1) ∈ V
Es decir, Pn [x] está formado por todos los polinomios con coeficientes reales en la varia- cumpliéndose A0.
ble x de grado menor o igual a n incluyendo al polinomio nulo. Sobre Pn [x] consideremos (x, y) + (z, w) = (x + z, y + w − 1) = (z + x, w + y − 1) = (z, w) + (x, y)
las operaciones usuales de adición de polinomios y multiplicación de un número real
por un polinomio. Entonces Pn [x], junto con estas operaciones, es un espacio vectorial por lo que A1 es satisfecha.
(¡pruébelo!).
((x, y) + (z, w)) + (a, b) = (x + z, y + w − 1) + (a, b)
En general, si definimos el conjunto
= ((x + z) + a, (y + w − 1) + b − 1)
P[x] = {p(x) : p(x) es un polinomio en la variable x} = (x + (z + a), y + (w + b − 1) − 1)
= (x, y) + (z + a, w + b − 1)
entonces P[x], junto con las operaciones antes mencionadas, es un espacio vectorial
(¡pruébelo!). = (x, y) + ((z, w) + (a, b))
Es de hacer notar que el polinomio nulo O(x) = 0 ¡no tiene grado!1 (¿por qué?). ası́ que A2 se cumple.
Además, para cada n ∈ N se tiene que Pn [x] �= ∅ (¿por qué?) y Pn [x] ⊂ Pn+1 [x] ⊂ P[x] Definamos 0/V = (0, 1). Entonces 0/V ∈ V (¿por qué?) y además
(¿por qué?).
� (x, y) + (0, 1) = (x + 0, y + 1 − 1) = (x, y)
luego se satisface A3.
5. Sean a, b ∈ R con a < b. Definamos el conjunto F [ a , b ] de todas las funciones reales
definidas sobre el intervalo [ a , b ] y consideremos las operaciones usuales de adición Si (x, y) ∈ V, entonces (−x, −y + 2) ∈ V ya que
de funciones y multiplicación de una función por un número real. Entonces F [ a , b ],
−y + 2 = −(x + 1) + 2 (¿por qué?)
junto con estas operaciones, es un espacio vectorial (¡pruébelo!). �
= −x − 1 + 2 = −x + 1
6. El conjunto
V = {(x, y) ∈ R2 : y = x + 1} Además
junto con las operaciones definidas en la parte 1 de este ejemplo, no es un espacio (x, y) + (−x, −y + 2) = (x + (−x), y + (−y + 2) − 1) = (0, 1) = 0/V
vectorial ya que (2, 3), (0, 1) ∈ V (¿por qué?) pero
en consecuencia se cumple A4.
/V
(2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4) ∈ Verifique que se cumple el resto de la propiedades en la definición 3.1.
1
En algunos textos, por razones de convención, el polinimio nulo tiene grado -1. ¿Qué podrı́a concluir a partir de este ejemplo? �
7. Dado un espacio vectorial V. Es fácil probar que el conjunto {0/V }, junto con las opera- Definición 3.2. Sean V un espacio vectorial y u, v ∈ V cualesquiera. Definiremos el vector
ciones + y · definidas sobre V, es un espacio vectorial. � u − v, vector diferencia de u con v, como u − v = u + (−v).
Teorema 3.1. Los elementos 0/V y v � dados en A3 y A4, respectivamente, son los únicos Ejercicio 3.1.1. Sean V un espacio vectorial, v1 , v2 , . . . , vn , v ∈ V y α1 , α2 , . . . , αn , α ∈ R
elementos de V que satisfacen dichas propiedades. cualesquiera. Pruebe que
Demostración. Supongamos que existe x ∈ V tal que v + x = v para cada v ∈ V. Luego, 1. (α1 + α2 + · · · + αn )v = α1 v + α2 v + · · · + αn v.
para v = 0/V ∈ V, se tiene que 2. α(v1 + v2 + · · · + vn ) = αv1 + αv2 + · · · + αvn .
0/V +x = 0/V . (3.1)
Teorema 3.2 (Ley de Cancelación). Sean V un espacio vectorial y u, v, w ∈ V tales que
Por lo tanto
u + v = u + w. Entonces v = w.
x = x + 0/V (por A3) Teorema 3.3. Sea V un espacio vectorial. Entonces
= 0/V +x (por A1)
1. α 0/V = 0/V para cada α ∈ R.
= 0/V (por 3.1)
2. 0v = 0/V para cada v ∈ V.
Lo que prueba la unicidad de 0/V .
Supongamos ahora que para algún v ∈ V existen v � , v� ∈ V tales que 3. Si αv = 0/V , entonces α = 0 o v = 0/V .
v + v � = 0/V (3.2) 4. (−α)v = α(−v) = −(αv) para cualesquiera α ∈ R y v ∈ V y, en consecuencia,
v + v� = 0/V (3.3) (−1)v = −v.
Luego Demostración.
1. Sea α ∈ R cualquiera. Entonces
v� = v� + 0/V (por A3)
= v� + (v + v � ) (por 3.2) α 0/V +α 0/V = α(0/V + 0/V ) (por M2)
= (�v + v) + v � (por A2) = α 0/V (por A3)
= (v + v�) + v � (por A1) = α 0/V + 0/V (por A3)
= 0/V +v � (por 3.3) y por la ley de cancelación (teorema 3.2) se tiene que α 0/V = 0/V .
= v � + 0/V (por A1)
2. ¡Ejercicio!
= v � (por A3)
3. Supongamos que αv = 0/V .
con lo cual se obtiene la unicidad del opuesto aditivo.
Si α = 0, no hay nada que probar, supongamos entonces que α �= 0 y probemos que
v = 0/V .
Observación 3.5. Al vector 0/V se le denomina vector nulo de V y el vector v � es llamado
Por ser α �= 0, existe α−1 ∈ R tal que α−1 α = 1 = αα−1 . Por lo tanto
opuesto (aditivo) de v y es denotado por −v.
Debido al teorema 3.1, las propiedades A3 y A4 pueden reescribirse, respectivamente, como v = 1v (por M4)
sigue = (α−1 α)v
A’3. Existe un único 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia y = α−1 (αv) (por M3)
unicidad del elemento neutro para la adición vectorial). = α−1 0/V (por hipótesis)
= 0/V (por la parte 1)
A’4. Para cada v ∈ V existe un único −v ∈ V tal que v + (−v) = 0/V (existencia y
unicidad del elemento opuesto para la adición vectorial). Con lo que culmina la prueba de la parte 3.
4. Sean α ∈ R y v ∈ V cualesquiera. Entonces 5. El conjunto C 0 [ a , b ] formado por todas las funciones reales continuas sobre el intervalo
cerrado [ a , b ], es un subespacio de F [ a , b ].
αv + (−α)v = (α + (−α))v (por M1)
En efecto, es claro que C 0 [ a , b ] ⊂ F [ a , b ] (¿por qué?) y además, la función nula está
= 0v
en C 0 [ a , b ] (¿por qué?), por lo tanto C 0 [ a , b ] es un subconjunto no vacı́o de F [ a , b ].
= 0/V (por la parte 2)
Si f, g ∈ C 0 [ a , b ] y α ∈ R, entonces, por un conocido resultado del Cálculo, se tiene
Luego, por A’4. (unicidad del opuesto aditivo), se tiene que (−α)v = −(αv). De que f + g, αf ∈ C 0 [ a , b ], cumpliéndose A0 y M0.
manera análoga se prueba que α(−v) = −(αv). Finalmente, haciendo α = 1 y por
Finalmente, no es difı́cil probar que el resto de las propiedades en la definición 3.1 son
M4., obtenemos
satisfechas, con lo cual se obtiene que C 0 [ a , b ] es un subespacio de F [ a , b ]. �
(−1)v = −(1v) = −v.
Antes de dar algún otro ejemplo de subespacio vectorial, debemos hacer notar que en
realidad, para probar que un subconjunto no vacı́o de un espacio vectorial es un subespacio
Observación 3.6. En virtud de las igualdades en la parte 4 del teorema 3.3, podemos escribir de este último, sólo es necesario probar que satisface las propiedades A0 y M0, como veremos
−αv en lugar de −(αv) sin error a confusión. en el siguiente teorema.
si sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector Ejercicio 3.2.1. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de
opuesto aditivo, de cualquier vector en un subespacio de V, es también un vector de dicho V y V es un subespacio de U, entonces W es un subespacio de U.
subespacio.
Veamos cómo se aplica el teorema 3.4 o bien su corolario (coroloario 3.5) en el siguiente
ejemplo.
Observación 3.7. Según la demostración del teorema 3.4, si W es un subespacio vectorial
de un espacio vectorial V, entonces 0/V ∈ W. Ejemplo 3.3. Pruebe que
Ası́ que para probar que un subconjunto W de un espacio vectorial V es un subespacio de W = {a + bx + cx2 + dx3 ∈ P3 [x] : 2a − b + 3c − d = 0; a + b − 4c − 2d = 0}
éste último, lo primero que debemos probar es que 0/V ∈ W, esto, a su vez, garantiza que
W �= ∅. Si 0/V ∈ / W, entonces W no es un subespacio de V. es un subespacio de P3 [x].
El teorema 3.4 permite probar que un subconjunto de un espacio vectorial V es un subes- Solución. Es claro que W ⊂ P3 [x].
pacio de éste sólo con probar tres condiciones, sin embargo, el corolario siguiente nos permite Por otro lado, el polinomio nulo O(x) = 0 = 0 + 0x + 0x2 + 0x3 (vector nulo de P3 [x])
hacer la misma prueba con sólo verificar dos condiciones. pertenece a W ya que �
Corolario 3.5. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V 2 · 0 −0 +3 · 0 −0 = 0
si y sólo si 0 +0 −4 · 0 −2 · 0 = 0
Sean p(x) = a1 + b1 x + c1 x2 + d1 x3 y q(x) = a2 + b2 x + c2 x2 + d2 x3 polinomios cualesquiera
1. W �= ∅.
en W y α ∈ R cualquiera. Entonces
2. u + αv ∈ W para cualesquiera α ∈ R y u, v ∈ W. � �
2a1 −b1 +3c1 −d1 = 0 2a2 −b2 +3c2 −d2 = 0
Demostración. Supongamos primero que W es un subespacio vectorial de V y probemos y
a1 +b1 −4c1 −2d1 = 0 a2 +b2 −4c2 −2d2 = 0
que las condiciones 1 y 2 se cumplen. En primer lugar W �= ∅, por definición 3.3. Sean α ∈ R
En virtud del corolario 3.5, y según la observación 3.8, sólo falta probar que
y u, v ∈ W cualesquiera. Entonces, por la parte 3 del teorema 3.4, tenemos que αv ∈ W,
p(x) + αq(x) ∈ W. Pero
luego, por la parte 2 del mismo teorema, se tiene que u + αv ∈ W.
Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio p(x) + αq(x) = (a1 + b1 x + c1 x2 + d1 x3 ) + α(a2 + b2 x + c2 x2 + d2 x3 )
vectorial de V. Como W �= ∅, sólo debemos probar que se satisfacen las condiciones 2 y 3 del = (a1 + αa2 ) + (b1 + αb2 )x + (c1 + αc2 )x2 + (d1 + αd2 )x3
teorema 3.4.
Sean u, v ∈ W cualesquiera. Entonces u + v = u + 1v ∈ W (tomando α = 1 en la condición Además
2 de la hipótesis).
Por otro lado, sean α ∈ R y v ∈ W cualesquiera. Entonces 0/V = v + (−v) = v + (−1)v ∈ W 2(a1 + αa2 ) − (b1 + αb2 ) + 3(c1 + αc2 ) − (d1 + αd2 )
(tomando α = −1 y u = v en la condición 2 de la hipótesis) ası́ que αv = 0/V +αv ∈ W = 2a1 + 2αa2 − b1 − αb2 + 3c1 + 3αc2 − d1 − αd2
(tomando u = 0/V en la condición 2 de la hipótesis). Lo cual concluye la prueba. = (2a1 − b1 + 3c1 − d1 ) + α(2a2 − b2 + 3c2 − d2 ) = 0 (¿por qué?)
y
Observación 3.8. Según la observación 3.7, la condición 1 en el teorema 3.4 y la condición
1 en el corolario 3.5, pueden ser sustituidas por la siguiente condición:
(a1 + αa2 ) + (b1 + αb2 ) − 4(c1 + αc2 ) − 2(d1 + αd2 )
1. 0/V ∈ W. = a1 + αa2 + b1 + αb2 − 4c1 − 4αc2 − 2d1 − 2αd2
Observación 3.9. Recordemos que para probar que los conjuntos S y R, definidos en la = (a1 + b1 − 4c1 − 2d1 ) + α(a2 + b2 − 4c2 − 2d2 ) = 0 (¿por qué?)
parte 3 del ejemplo 3.1, son subespacios de Mn×1 (R) y Mm×1 (R), respectivamente (ver la
Por lo tanto p(x) + αq(x) ∈ W y en consecuencia, W es un subespacio de P3 [x].
parte 2 del ejemplo 3.2), fue necesario probar que son espacios vectoriales (en realidad se
dejó como ejercicio), sin embargo, al usar el teorema 3.4 o el corolario 3.5, vemos que no es
necesario. En la sección 6.3 del capı́tulo 6 se dará una demostración de este hecho usando el Teorema 3.6. Sean W1 y W2 subespacios de un espacio vectorial V. Entonces W1 ∩ W2 es
corolario 3.5. un subespacio de V.
Demostración. Dado que W1 , W2 ⊂ V (ya que W1 y W2 son subespacios de V), entonces Entonces � � � � � � � � � �
W1 ∩ W2 ⊂ V, además, debido a la observación 3.7, se tiene que 0/V ∈ W1 y 0/V ∈ W2 y por a b 1 0 0 1 0 0 0 0
=a +b +c +d
lo tanto 0/V ∈ W1 ∩ W2 . c d 0 0 0 0 1 0 0 1
Sean α ∈ R y u, v ∈ W1 ∩ W2 cualesquiera. Entonces u, v ∈ W1 y u, v ∈ W2 y dado que Esta expresión es llamada combinación lineal , definamos formalmente este concepto.
W1 y W2 son subespacios de V, tenemos que u + αv ∈ W1 y u + αv ∈ W2 , por lo tanto
u + αv ∈ W1 ∩ W2 . Definición 3.4. Sean V un espacio vectorial y v1 , v2 , . . . , vn , v ∈ V. Diremos que el vector v
Luego, en virtud del corolario 3.5 y la observación 3.8, tenemos que W1 ∩ W2 es un subes- es combinación lineal de los vectores v1 , v2 , . . . , vn si existen escalares α1 , α2 , . . . , αn ∈ R
pacio de V. tales que
v = α 1 v 1 + α 2 v 2 + · · · + αn v n .
Ejercicio 3.2.2. Dados dos subconjuntos A y B de un espacio vectorial V, definamos el Observación 3.11. En la definición 3.4 se define lo que es una combinación lineal de una
conjunto cantidad finita de vectores en V, sin embargo, podemos definir combinación lineal de una
A + B = {a + b : a ∈ A y b ∈ B} cantidad infinita de vectores en V (ver apéndice B), pero nuestro interés no va más allá del
concepto dado en la definición 3.4.
Pruebe que si W1 y W2 son subespacios de V, entonces W1 + W2 es un subespacio de V.
Ejemplo 3.4.
Ejercicio 3.2.3. Sean W1 y W2 dos subespacios de un espacio vectorial V. Supongamos
que W1 ∩ W2 = {0/V } y V = W1 + W2 . Pruebe que para cada v ∈ V existen únicos vectores
1. El ejemplo hecho al comienzo de la sección nos dice que cualquier matriz real cuadrada
w1 ∈ W1 y w2 ∈ W2 tales que v = w1 + w2 .
de orden 2 es combinación lineal de las matrices
Ejercicio 3.2.4. Sean W1 , W2 , . . . , Wn subespacios de un espacio vectorial V. Demuestre � � � � � � � �
1 0 0 1 0 0 0 0
que , , ,
0 0 0 0 1 0 0 1
1. W1 ∩ W2 ∩ · · · ∩ Wn es un subespacio de V.
En general, si para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} definimos Eij ∈ Mm×n (R)
2. W1 + W2 + · · · + Wn es un subespacio de V. como aquella matriz cuya ij-ésima componente es igual a 1 y el resto es 0, entonces
toda matriz A ∈ Mm×n (R) es combinación lineal de las matrices
3. Si Wi ∩ Wj = {0/V } para cualesquiera i, j ∈ {1, . . . , n}, con i �= j, y además
V = W1 + W2 + · · · + Wn , entonces, para cada v ∈ V y para cada i ∈ {1, . . . , n}, E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn
existen únicos vectores wi ∈ Wi tales que v = w1 + w2 + · · · + wn .
(¡verifı́quelo!). �
Sugerencia: En cada caso proceda por inducción matemática sobre n, luego use el teorema
3.6 para la parte 1, el ejercicio 3.2.2 para la parte 2 y el ejercicio 3.2.3 para la parte 3. 2. Cualquier vector p(x) ∈ Pn [x] es combinación lineal de 1, x, . . . , x (¿por qué?). n
�
Observación 3.10. Cuando dos subespacios W1 y W2 de un espacio vectorial V cumplen 3. Cualquier vector (x1 , x2 , . . . , xn ) ∈ R es combinación lineal de los vectores de R
n n
por lo tanto, el sistema original no tiene solución (¿por qué?), en consecuencia, p no es Solución. Nótese primero que a + bx + cx2 ∈ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }) si y
combinación lineal de p1 , p2 y p3 . sólo si existen escalares α1 , α2 , α3 ∈ R tales que, para cada x ∈ R,
Si consideramos el polinomio p4 (x) = 1 − 2x + 3x2 ¿Es p combinación lineal de p1 , p2 , p3
y p4 ? a + bx + cx2 = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) + α3 (x − 4x2 )
= (2α1 + 2α2 ) + (−α1 − 2α2 + α3 )x + (2α1 + 6α2 − 4α3 )x2
Finalmente, sean α ∈ R y u, v ∈ gen(S) cualesquiera. Entonces, por definición de gen(S), Por lo tanto, a + bx + cx2 + dx3 ∈ W si y sólo si
existen β1 , β2 , . . . , βn , α1 , α2 , . . . , αn ∈ R tales que �
a − 13 c −d = 0
u = α1 v 1 + α 2 v 2 + · · · + α n v n y v = β1 v1 + β2 v2 + · · · + βn vn . b − 113
c −d = 0
3. Dados un espacio vectorial V y v1 , v2 , . . . , vn ∈ V, entonces {v1 , v2 , . . . , vn , 0/V } es lineal- Ejemplo 3.13. Consideremos los polinomios p1 (x), p2 (x) y p4 (x) del ejemplo anterior ¿son
mente dependiente pues linealmente independientes?
0/V = 0v1 + 0v2 + · · · + 0vn + 1 0/V Solución. Como en el ejemplo anterior, debemos plantearnos la ecuación
es decir, en un espacio vectorial, cualquier conjunto finito de vectores que contenga al α1 p1 (x) + α2 p2 (x) + α4 p4 (x) = 0 (para todo x ∈ R) (3.6)
vector nulo, es linealmente dependiente. �
Obteniendo el sistema
4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v} es lineal- 2α1 +2α2 +α4 = 0
mente independiente ya que si αv = 0/V y dado que v �= 0/V , entonces α = 0 (en virtud −α1 −2α2 −2α4 = 0
de la parte 3 del teorema 3.3). � 2α1 +6α2 +3α4 = 0
La matriz de este sistema es
Antes de dar algún otro ejemplo, debemos hacer notar que para determinar si un conjunto 2 2 1
de vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o depen- −1 −2 −2
diente, debemos plantearnos la ecuación α1 v1 + α2 v2 + · · · + αn vn = 0/V , la cual conduce, en 2 6 3
general, a un sistema de ecuaciones homogéneo con n incógnitas, a saber, α1 , α2 , . . . , αn . Si
la solución de este sistema es única, y en consecuencia α1 = α2 = · · · = αn = 0, entonces Calculemos su FERF.
{v1 , v2 , . . . , vn } es un conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn }
2 2 1 1 0 −1 1 0 −1
es un conjunto linealmente dependiente. −1 −2 −2 F1 → F1 + F2 −1 −2 −2 F2 → F2 + F1→ 0 −2 −3
→ F3 → F3 − 2F1
Ejemplo 3.12. Consideremos los vectores p1 (x), p2 (x), p3 (x), p4 (x) ∈ P2 [x] dados en el ejem- 2 6 3 2 6 3 0 6 5
plo 3.6. Decidir si estos vectores son o no linealmente independientes. 1 0 −1 1 0 −1 1 0 −1
F2 → − 12 F2 0 1 3
F3 → F3 − 6F2 0 1 3
F3 → − 14 F3 0 1 3
→ 0 6 2 → 2
→ 0 2
Solución. Como se comentó antes del ejemplo, debemos estudiar la ecuación 5 0 0 −4 0 1
1 0 0
α1 p1 (x) + α2 p2 (x) + α3 p3 (x) + α4 p4 (x) = 0 (para todo x ∈ R) F 1 → F1 + F3
→ 0 1 0
F2 → F2 − 32 F3
0 0 1
Pero
De donde
α1 p1 (x) + α2 p2 (x) + α3 p3 (x) + α4 p4 (x) = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) α1 = α2 = α4 = 0.
+α3 (x − 4x2 ) + α4 (1 − 2x + 3x2 ) En consecuencia la ecuación 3.6 tiene como única solución la trivial y por lo tanto p1 (x),
= (2α1 + 2α2 + α4 ) p2 (x) y p4 (x) son linealmente independientes.
+(−α1 − 2α2 + α3 − 2α4 )x
+(2α1 + 6α2 − 4α3 + 3α4 )x2 Ejemplo 3.14. Consideremos las matrices
Obteniendo el siguiente sistema de ecuaciones homogéneo � � � � � �
5 4 3 −1 1 −1
A1 = , A2 = y A3 = .
2 −1 1 3 −4 5
2α1 +2α2 +α4 = 0
−α1 −2α2 +α3 −2α4 = 0 ¿Es {A1 , A2 , A3 } un conjunto linealmente independiente?
2α1 +6α2 −4α3 +3α4 = 0
Solución. Sean α1 , α2 , α3 ∈ R tales que α1 A1 + α2 A2 + α3 A3 = 0/2 . Entonces
El cual sabemos tiene infinitas soluciones (¿por qué?) y en consecuencia los polinomios p1 (x),
� � � �
p2 (x), p3 (x) y p4 (x) son linealmente dependientes. 5α1 + 3α2 + α3 4α1 − α2 − α3 0 0
=
2α1 + α2 − 4α3 −α1 + 3α2 + 5α3 0 0
De donde
5α1 +3α2 +α3 = 0
Teorema 3.10. Sea A ∈ Mm×n (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
4α1 −α2 −α3 = 0
2α1 +α2 −4α3 = 0 dependientes en Mm×1 (R) si y sólo si el sistema Ax = 0/m×1 tiene soluciones no triviales.
−α1 +3α2 +5α3 = 0
Demostración. Sea A ∈ Mm×n (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente depen-
Resolvamos este sistema. La matriz del sistema es dientes si y sólo si existen escalares α1 , α2 , . . . , αn ∈ R, no todos nulos, tales que
5 3 1
4 −1 −1 α1 A(1) + α2 A(2) + · · · + αn A(n) = 0/m×1
.
2 1 −4 Por la observación 1.22
−1 3 5
α1
Calculemos su FERF. α2
α1 A(1) + α2 A(2) + · · · + αn A(n) = A ..
5 3 1 1 4 2 1 4 2 .
4 −1 −1 4 −1 −1 F2 → F2 − 4F1→ 0 −17 −9 αn
F → F1 − F 2 F3 → F3 − 2F1
2 1 −4 1 → 2 1 −4 0 −7 −8
F 4 → F4 + F1 Ası́ que A(1) , A(2) , . . . , A(n) son linealmente dependientes si y sólo si el sistema Ax = 0/m×1
−1 3 5 −1 3 5 0 7 7
1 4 2 1 4 2 tiene soluciones no triviales.
0 7
7 0 1 1
F 2 ↔ F4 F → 17 F2
→ 0 −7 −8 2 → 0 −7 −8 Como consecuencia del teorema 3.10 obtenemos el siguiente corolario.
0 −17 −9 0 −17 −9
1 0 −2 1 0 −2 Corolario 3.11. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.
F1 → F1 − 4F2
→ 0 1 1 0 1 1
F3 → F3 + 7F2
0 0 −1 F3 → −F3→ 0 0
1. det(A) �= 0.
1
F4 → F4 + 17F2
0 0 8 0 0 8
2. Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.
1 0 0
F1 → F1 + 2F3
→ 0 1 0 3. Las filas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.
F 2 → F2 − F 3 0 0 1
F4 → F4 − 8F3 Demostración. ¡Ejercicio!
0 0 0
Por lo tanto α1 = α2 = α3 = 0 y en consecuencia {A1 , A2 , A3 } es linealmente independiente.
Recordemos que det(A) �= 0 equivale a que A es invertible (ver teorema 2.15), por lo tanto,
Teorema 3.9. Sean V un espacio vectorial y u, v ∈ V. Los vectores u y v son linealmente el corolario 3.11 nos da dos nuevas equivalencias acerca de la inversibilidad de una matriz A.
dependientes si y sólo si existe α ∈ R tal que u = αv o v = αu. Teorema 3.12. Sean A, F ∈ Mm×n (R) tales que F es la FERF de A. Supongamos que
Demostración. Supongamos que u, v son linealmente dependientes. Entonces existen j1 , j2 , . . . , jr ∈ {1, . . . , n} son tales que F (j1 ) , F (j2 ) , . . . , F (jr ) son las distintas columnas pivo-
λ, β ∈ R, no ambos nulos, tales que λu + βv = 0/V . tes de F . Entonces A(j1 ) , A(j2 ) , . . . , A(jr ) son linealmente independientes. Además, para cada
β β j ∈ {1, . . . , n}, se tiene que
Si λ �= 0, entonces u = − v. Haciendo α = − , obtenemos que u = αv.
λ λ r
Si λ = 0, entonces βv = 0/V y además, por hipótesis, β �= 0 y en consecuencia v = 0/V = 0u. �
A(j) = f1j A(j1 ) + f2j A(j2 ) + · · · + frj A(jr ) = fij A(ji ) .
Haciendo α = 0, obtenemos v = αu.
i=1
Supongamos ahora que existe α ∈ R tal que u = αv o v = αu. En consecuencia
1u + (−α)v = 0/V o αu + (−1)v = 0/V , en cualquier caso, concluimos que u y v son linealmente Demostración. Ver Apéndice D.
dependientes.
Teorema 3.13. Sean {v1 , v2 , . . . , vn } un subconjunto linealmente independiente de un es- 2. {e1 , e2 , . . . , en } es una base de Rn . �
pacio vectorial V y u ∈ V tal que u ∈ / gen({v1 , v2 , . . . , vn }). Entonces {v1 , v2 , . . . , vn , u} es
linealmente independiente. 3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mm×n (R).
�
Demostración. Sean α1 , α2 , . . . , αn , α ∈ R tales que
Cada una de estas bases es llamada base canónica o estándar del correspondiente es-
α1 v1 + α2 v2 + · · · + αn vn + αu = 0/V pacio.
Si α �= 0, entonces � α � � α � � α � Ejemplo 3.16. Ningún conjunto finito de polinomios en x es una base de P[x], en efecto, con-
u= −
1
v1 + −
2
v2 + · · · + −
n
vn sideremos un conjunto finito cualquiera de polinomios, digamos P = {p1 (x), p2 (x), . . . , pn (x)}.
α α α Entonces para cualesquiera α1 , α2 , . . . , αn ∈ R tenemos que α1 p1 (x) + α2 p2 (x) + · · · + αn pn (x)
lo que contradice la hipótesis de que u ∈
/ gen({v1 , v2 , . . . , vn }). Por lo tanto α = 0, de donde es un polinomio, a lo sumo, de grado k, donde k es el máximo entre los grados de los poli-
nomios p1 , p2 , . . . , pn , es decir, cualquier combinación lineal de los polinomios p1 , p2 , . . . , pn
α1 v1 + α2 v2 + · · · + αn vn = 0/V es un polinomio a lo sumo de grado k. En consecuencia, el polinimio p(x) = xk+1 es tal que
p(x) ∈/ gen(P ) pero p(x) ∈ P[x], de donde gen(P ) �= P[x]. Lo cual prueba que P[x] no posee
y dado que {v1 , v2 , . . . , vn } es linealmente independiente, se tiene que α1 = α2 = · · · = αn = 0.
una base finita, por lo tanto concluimos lo afirmado al principio.
En consecuencia {v1 , v2 , . . . , vn , u} es linealmente independiente.
�
Observación 3.14. Aunque en este capı́tulo no trataremos las bases infinitas (ver apéndice
B), afirmamos que una base2 para P[x] es
3.5. Bases y Dimensión
{1, x, x2 , . . . , xn , . . .}.
Según el ejemplo 3.9 y la parte 2 del ejemplo 3.11 tenemos que:
Ejemplo 3.17. Hallar una base del subespacio
1. {1, x, . . . , xn } es un conjunto generador de Pn [x] y además es linealmente independiente. �� � �
a b
W= : −5a + 6b + 4c − 2d = 0
2. {e1 , e2 , . . . , en } es un conjunto linealmente independiente y genera a Rn . c d
� �
3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es un conjunto generador a b
Solución. Notemos primero que ∈ W si y sólo si −5a + 6b + 4c − 2d = 0 o bien,
de Mm×n (R) y es linealmente independiente. c d
5
si y sólo si d = − a + 3b + 2c. Ası́ que
Conjuntos con estas caracterı́sticas nos son de mucha utilidad en el estudio de los espacios � � 2
vectoriales y dan pie a la siguiente definición. a b
∈ W si y sólo si
c d
Definición 3.8. Sea V un espacio vectorial. Un conjunto {v1 , v2 , . . . , vn } ⊂ V es una base � � � � � � � � � �
de V si a b
=
a b
=a
1 0
+b
0 1
+c
0 0
5 5
c d c − 2 a + 3b + 2c 0 −2 0 3 1 2
1. gen({v1 , v2 , . . . , vn }) = V, es decir, {v1 , v2 , . . . , vn } es un conjunto generador de V.
Por lo tanto ��� � � � � ���
2. {v1 , v2 , . . . , vn } es linealmente independiente. 1 0 0 1 0 0
W = gen , ,
0 − 52 0 3 1 2
Observación 3.13. Si V = {0/V } es el espacio nulo, entonces una base de V, de hecho la No es difı́cil probar que �� � � � � ��
única base de V, es el conjunto vacı́o ∅ = {} 1 0 0 1 0 0
, ,
0 − 52 0 3 1 2
Ejemplo 3.15.
2
Este tipo de base se conoce con el nombre de bases de Hamel . Todo espacio vectorial no nulo posee
1. {1, x, . . . , xn } es una base de Pn [x]. � una base de Hamel, en el apéndice B tratamos un poco sobre éste tipo de bases.
es linealmente independiente y, en consecuencia, es una base de W. Como β = {v1 , v2 , . . . , vn } es una base, entonces β es linealmente independiente, por lo tanto
α 1 − λ1 = α 2 − λ2 = · · · = α n − λn = 0
Ejemplo 3.18. Considere los polinomios p1 (x), p2 (x), p4 (x) ∈ P2 [x] del ejemplo 3.13. Pruebe
que β = {p1 (x), p2 (x), p4 (x)} es una base de P2 [x]. es decir,
Solución. Sabemos que el conjunto β = {p1 (x), p2 (x), p4 (x)} es linealmente independiente, α 1 = λ1 , α 2 = λ2 , . . . , α n = λn
en virtud del ejemplo 3.13, ası́ que sólo falta probar que dicho conjunto genera a P2 [x]. Sea con lo cual obtenemos la unicidad de los escalares.
p(x) = a + bx + cx2 ∈ P2 [x] cualquiera, queremos probar que, para todo x ∈ R, la ecuación
α1 p1 (x) + α2 p2 (x) + α4 p4 (x) = p(x) tiene solución para α1 , α2 , α4 ∈ R. Pero dicha ecuación
es equivalente al sistema de ecuaciones Nótese que hemos hallado dos bases de P2 [x], a saber la base canónica βc = {1, x, x2 }
y la base β = {p1 (x), p2 (x), p4 (x)} del ejemplo 3.18, y ambas tienen la misma cantidad de
2α1 +2α2 +α4 = a
−α1 −2α2 −2α4 = b (¡verifı́quelo!) vectores, en este caso tres (3), esta situación no es para nada casual, como veremos en el
siguiente teorema.
2α1 +6α2 +3α4 = c
La matriz de este sistema es Teorema 3.15. 4 Sean β1 = {u1 , u2 , . . . , un } y β2 = {v1 , v2 , . . . , vm } dos bases de un espacio
2 2 1 vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base finita, entonces
−1 −2 −2 todas sus bases tienen la misma cantidad de elementos.
2 6 3
y por el ejemplo 3.13, sabemos que es equivalente por filas a I3 , en consecuencia, el sistema Demostración. Supongamos que m < n. Dado que β2 es una base de V, entonces, para
en cuestión, tiene solución (única), lo cual concluye la prueba. cada j ∈ {1, . . . , n}, existen escalares α1j , α2j , . . . , αmj ∈ R tales que
es decir, β1 = {u1 , u2 , . . . , un } es linealmente dependiente, lo que contradice el hecho de que 1. Si S genera a V, entonces S es una base de V.
β1 es una base de V. Análogamente se obtiene una contradicción si se supone que m > n. En
2. Si S es linealmente independiente, entonces S es una base de V.
consecuencia m = n.
Demostración. ¡Ejercicio!
El teorema 3.15 da pie a la siguiente definición. Sugerencia: En ambos casos suponga que S no es una base, luego, para la parte 1, use el
teorema 3.8 y, para la parte 2, use el teorema 3.13.
Definición 3.9. Sea V un espacio vectorial. Diremos que V tiene dimensión cero o di-
mensión nula si V = {0/V }, diremos que la dimensión de V es n si V tiene una base con n
elementos, en ambos casos diremos que V tiene dimensión finita. Si V no posee una base Teorema 3.18. 5 Sea W un subespacio de un espacio vectorial de dimensión finita V. En-
finita, diremos que V tiene dimensión infinita. En todos los casos la dimensión de V se tonces dim(W) ≤ dim(V). Además, si dim(W) = dim(V), entonces W = V.
denota por dim(V).
Demostración. Sean dim(V) = n y βW una base de W. Entonces βW es linealmente inde-
Ejemplo 3.20. pendiente en W, luego βW es linealmente independiente en V (¿por qué?). Por lo tanto, por
la parte 1 el teorema 3.16, βW tiene a lo sumo n elementos, esto es, dim(W) ≤ n = dim(V).
1. Del ejemplo 3.15 podemos garantizar que Además, si dim(W) = dim(V), entonces βW es un conjunto linealmente independiente con n
elementos. Por lo tanto βW es una base de V (¿por qué?). En consecuencia W = gen(βW ) = V.
dim(Pn [x]) = n + 1, dim(Mm×n (R)) = mn y dim(Rn ) = n.
�
Observación 3.16. Todo espacio vectorial que contenga un subespacio de dimensión infini-
2. Si W es el subespacio de M2×2 (R) del ejemplo 3.17, entonces dim(W) = 3. Nótese que ta, es también de dimensión infinita.
en éste caso dim(W) < dim(M2×2 (R)). �
Ejemplo 3.21. Sean a, b ∈ R cualesquiera. Entonces P[x] puede verse como un subespacio
3. El espacio vectorial P[x] es un espacio de dimensión infinita (ver ejemplo 3.16). � de C 0 [ a , b ] (¿por qué?) y como P[x] tiene dimensión infinita (ver parte 3 de ejemplo 3.20),
entonces, por la observación 3.16, C 0 [ a , b ] es de dimensión infinita. Además, en este caso6
Observación 3.15. El problema de encontrar la dimensión de un espacio vectorial está dim(P[x]) < dim(C 0 [ a , b ]). �
relacionado con la búsqueda de una base de dicho espacio, como vimos en el ejemplo 3.20.
Teorema 3.19. 7 Sea S = {v1 , v2 , . . . , vm } un subconjunto de un espacio vectorial V de
Teorema 3.16. Sean v1 , v2 , . . . , vm ∈ V vectores en un espacio vectorial V de dimensión n. dimensión n.
1. Si {v1 , v2 , . . . , vm } es linealmente independiente, entonces m ≤ n. 1. Si S es linealmente independiente, entonces existe una base β de V tal que S ⊂ β.
2. Si {v1 , v2 , . . . , vm } genera a V, entonces m ≥ n. 2. Si S genera a V, entonces existe una base β de V tal que β ⊂ S.
Demostración. Sea β = {u1 , u2 , . . . , un } una base de V. 5
En el caso de dimensión infinita, la desigualdad sigue siendo válida, en contraste, se pueden encontrar un
espacio vectorial de dimensión infinita y un subespacio propio de éste los cuales tienen la misma dimensión
1. Suponga que m > n y haga una prueba análoga a la del teorema 3.15. (ver el ejemplo B.13).
6
La dimensión de P[x] es el cardinal de N y la dimensión de C 0 [ a , b ] es el cardinal del continuo, el cardinal
2. ¡Ejercicio! de R.
7
Existe una versión de éste teorema para el caso de dimensión infinita, tal versión se puede encontrar en
Sugerencia: Use el ejercicio 1.3.1. el apéndice B.
1. Dado que S es linealmente independiente, entonces m ≤ n, según la parte 1 del teorema βc = {(1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1)}
3.16.
y
Si S genera a V, entonces S es una base de V, ası́ que β = S es una base de V que contie- β = {(0, . . . , 0, 1), (0, . . . , 0, 1, 0), . . . , (1, 0, . . . , 0)}
ne a S. De lo contrario, existe un vector vm+1 ∈ V tal que vm+1 ∈ / gen({v1 , v2 , . . . , vm }).
Luego {v1 , v2 , . . . , vm , vm+1 } es linealmente independiente, en virtud del teorema 3.13. son distintas, pero como bases son iguales. Al igual que en el caso de R2 , βc es llamada
base canónica ordenada o simplemente base canónica de Rn . �
Si {v1 , v2 , . . . , vm , vm+1 } genera a V, entonces β = {v1 , v2 , . . . , vm , vm+1 } es una base de
V tal que S ⊂ β, por el contrario, podemos escoger vm+2 ∈ V tal que 3. En Pn [x] las siguientes bases βc = {1, x, . . . , xn } y β = {xn , . . . , x, 1} son bases orde-
vm+2 ∈ / gen({v1 , v2 , . . . , vm , vm+1 }) y, al igual que antes, se tiene que el conjunto nadas distintas, pero como bases iguales. βc es llamada base canónica ordenada o
{v1 , v2 , . . . , vm , vm+1 , vm+2 } es linealmente independiente. simplemente base canónica de Pn [x]. �
Continuamos con este proceso hasta completar un conjunto linealmente independiente 4. En el espacio de las matrices Mm×n (R), para cada i ∈ {1, . . . , n} y j ∈ {1, . . . , m},
β = {v1 , v2 , . . . , vm , vm+1 , . . . , vn }, el cual es, por lo tanto, una base de V y además consideremos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales
S ⊂ β. a 0 (cero). La base
2. ¡Ejercicio! βc = {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn }
Sugerencia: Si S es linealmente independiente, entonces β = S es la base buscada,
de lo contrario, existe k ∈ {1, . . . , m} tal que vk ∈ gen({v1 , v2 , . . . , vk−1 , vk+1 , . . . , vm }). es llamada la base canónica ordenada o simplemente base canónica de Mm×n (R).
Continuar este proceso hasta obtener la base β buscada. Las siguientes son bases ordenadas de Mm×n (R), distintas entre sı́ y distintas de βc :
� tal que v = α1 v1 + α2 v2 + · · · + αn vn .
De donde Como su nombre lo indica, la matriz Mβ1 ,β2 permite calcular la matriz de coordenadas de
α1,1 α1,2 · · · α1n un vector v ∈ V, respecto a la base β2 , conociendo la matriz de coordenadas de v respecto
α2,1 α2,2 · · · α2n
a la base β1 . Nótese además que por su definición, la columna j-ésima de Mβ1 ,β2 , repre-
[v]β2 = .. ... .. [v]β1
. . senta la matriz de coordenadas del j-ésimo vector de β1 respecto a la base β2 , esto es, si
αn1 αn2 · · · αnn β1 = {v1 , v2 , . . . , vn }, entonces
� �
Haciendo Mβ1 ,β2 = [v1 ]β2 [v2 ]β2 · · · [vn ]β2
α1,1 α1,2 · · · α1n Ejemplo 3.24. Sea β la base ordenada de P2 [x] dada en el ejemplo 3.23. Entonces, según
α2,1 α2,2 · · · α2n � �
el ejemplo en cuestión, tenemos que
A = [αij ]n×n = .. .. .. = [v1 ]β2 [v2 ]β2 · · · [vn ]β2
. . .
1 1 −1
αn1 αn2 · · · αnn 1
Mβc ,β = −1 1 1 (¿por qué?)
2
obtenemos la existencia de la matriz A que satisface (3.7). 1 −1 1
Para probar la unicidad de A, notemos primero que la j-ésima columna de A está dada
donde βc es la base canónica ordenada de P2 [x]. �
por
α1j Antes de dar algún otro ejemplo, enunciaremos un primer resultado que involucra matrices
α2j de transición.
(j)
A = .. = [vj ]β2
. Teorema 3.22. Si V es un espacio vectorial de dimensión n y β1 y β2 son dos bases orde-
αnj nadas de V, entonces la matriz Mβ1 ,β2 es invertible y su inversa es Mβ2 ,β1 .
Supongamos que B ∈ Mn×n (R) es tal que
Demostración. Sea v ∈ V cualquiera. Entonces
[v]β2 = B[v]β1 para cada v ∈ V [v]β2 = Mβ1 ,β2 [v]β1 y [v]β1 = Mβ2 ,β1 [v]β2
Ası́ que, para cada j ∈ {1, . . . , n}, tenemos que Por lo tanto, si β2 = {v1 , v2 , . . . , vn } y C = Mβ1 ,β2 Mβ2 ,β1 , entonces, para cada j ∈ {1, . . . , n},
[vj ]β2 = B[vj ]β1 se tiene que
Pero In(j) = [vj ]β2 = Mβ1 ,β2 [vj ]β1 = Mβ1 ,β2 Mβ2 ,β1 [vj ]β2 = CIn(j) = C (j)
0
.. En consecuencia Mβ1 ,β2 Mβ2 ,β1 = In y por lo tanto (Mβ1 ,β2 )−1 = Mβ2 ,β1 .
.
0
Ejemplo 3.25. Consideremos las siguientes bases ordenadas de R3
[vj ]β1 = In(j) = 1 −→ j-ésima fila
0
. β1 = {(1, −2, 0), (3, −1, 1), (0, 1, 3)}; β2 = {(0, 2, 1), (−1, 0, 1), (3, −1, 2)}
..
0 y βc la base canónica.
Luego Calcular Mβ1 ,β2 , Mβc ,β2 y Mβ2 ,β1 .
A(j) = [vj ]β2 = B[vj ]β1 = BIn(j) = B (j)
Solución. Para calcular Mβ1 ,β2 debemos calcular las matrices de coordenadas de cada uno
Por lo tanto B = A. de los vectores de β1 respecto a la base β2 . Sean
α1,1 α1,2 α1,3
Definición 3.12. La matriz A en el teorema anterior es llamada matriz de transición o
[(1, −2, 0)]β2 = α2,1 , [(3, −1, 1)]β2 = α2,2
y [(0, 1, 3)]β2 = α2,3
matriz de cambio de base de β1 a β2 y se denota por Mβ1 ,β2 . α3,1 α3,2 α3,3
Entonces 1 1 2 0 1 3 1 1 2 0 1 3
F2 ↔ F3 0 −1 3 1 3 0 F2 → −F2 0 1 −3 −1 −3 0
(1, −2, 0) = α1,1 (0, 2, 1) + α2,1 (−1, 0, 1) + α3,1 (3, −1, 2) → →
0 −2 −5 −2 −3 −5 0 −2 −5 −2 −3 −5
= (−α2,1 + 3α3,1 , 2α1,1 − α3,1 , α1,1 + α2,1 + 2α3,1 ) 1 0 5 1 4 3
F 1 → F1 − F 2
→ 0 1 −3 −1 −3 0
F3 → F3 + 2F2
0 0 −11 −4 −9 −5
(3, −1, 1) = α1,2 (0, 2, 1) + α2,2 (−1, 0, 1) + α3,2 (3, −1, 2) 9 1 8
1 0 5 1 4 3 1 0 0 − 11 − 11
= (−α2,2 + 3α3,2 , 2α1,2 − α3,2 , α1,2 + α2,2 + 2α3,2 ) F1 → F1 − 5F3 11
F3 → − 111
F3 0 1 −3 −1 −3 0 → 0 1 0 1
11
6
− 11 15
11
→ 0 0 4 9 5 F2 → F2 + 3F3 4 9 5
1 11 11 11
0 0 1 11 11 11
(0, 1, 3) = α1,3 (0, 2, 1) + α2,3 (−1, 0, 1) + α3,3 (3, −1, 2) Ası́ que 9
1 8
= (−α2,3 + 3α3,3 , 2α1,3 − α3,3 , α1,3 + α2,3 + 2α3,3 ) − 11 − 11 11 −9 −1 8
1
Mβ1 ,β2 = 11 1 6
− 11 15
11
= 1 −6 15
4 9 5 11
De donde 11 11 11
4 9 5
−α2,1 +3α3,1 = 1 −α2,2 +3α3,2 = 3 Calculemos ahora Mβc ,β2 . En este caso la matriz aumentada que obtenemos es
2α1,1 −α3,1 = −2 , 2α1,2 −α3,2 = −1
0 −1 3 1 0 0
α1,1 +α2,1 +2α3,1 = 0 α1,2 +α2,2 +2α3,2 = 1
[Mβ2 ,βc |Mβc ,βc ] = 2 0 −1 0 1 0
−α2,3 +3α3,3 = 0 1 1 2 0 0 1
y 2α1,3 −α3,3 = 1
Vemos que para obtener Mβc ,β2 necesitamos aplicar, en el mismo orden, las mismas OEF
α1,3 +α2,3 +2α3,3 = 3
que aplicamos anteriormente (¿por qué?), y obtenemos
Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de
manera simultánea considerando la siguiente matriz tres veces ampliada 1 0 0 1 5 1
11 11 11
0 1 0 −5 −3 6
11 11 11
0 −1 3 1 3 0 0 0 1 2 1
− 11 2
2 0 −1 −2 −1 1 11 11
1 1 2 0 1 3 Por lo tanto
Nótese que las tres primeras columnas de ésta matriz, son las matrices de coordenadas de 1 5 1
1 5 1
= 1 −5 −3 6
cada uno de los vectores de la base β2 respecto a la base canónica, y las tres últimas columnas, 11 11 11
Mβc ,β2 = − 11
5 3
− 11 6
11
son las matrices de coordenadas de cada uno de los vectores de la base β1 respecto a la base 2 1 2 11
11
− 11 11
2 −1 2
canónica, es decir,
Nótese que la matriz obtenida no es mas que la inversa de
0 −1 3 1 3 0
[Mβ2 ,βc |Mβ1 ,βc ] = 2 0 −1 −2 −1 1 0 −1 3
1 1 2 0 1 3 Mβ2 ,βc = 2 0 −1
Este procedimiento es estándar cada vez que busquemos una matriz de cambio de base. 1 1 2
Finalmente (¡verifı́quelo!)
0 −1 3 1 3 0 1 1 2 0 1 3
2 0 −1 −2 −1 1 F1 ↔ F3 2 0 −1 −2 −1 1
→ − 15 1 3
−15 7 3
= 1
1 1 2 0 1 3 0 −1 3 1 3 0 14 2 14
Mβ2 ,β1 = (Mβ1 ,β2 )−1 = 5
14
− 12 13
14
5 −7 13
1 1 2 0 1 3 3 1 5 14
3 7 5
F2 → F2 − 2F1 0 −2 −5 −2 −3 −5 14 2 14
→
0 −1 3 1 3 0
Ejemplo 3.26. Sean β1 , β2 y βc como en el ejemplo 3.25. Dado cualquier (x, y, z) ∈ R3 , En el capı́tulo 1, se explicó la resolución del problema de hallar una solución a la ecuación
calcular [(x, y, z)]β2 y [(x, y, z)]β1 . matricial AX = B, donde A ∈ Mm×n (R) y B ∈ Mm×p (R) son matrices conocidas, en
particular, cuando A es invertible, tal resolución nos permite obtener la única solución posible
x
que es X = A−1 B.
Solución. Sabemos que [(x, y, z)]βc = y por lo tanto
Por otro lado, si consideramos tres bases ordenadas de un espacio vectorial V de dimensión
z
finita, digamos β1 , β2 y β3 , al resolver la ecuación matricial Mβ3 ,β2 X = Mβ1 ,β2 , según lo co-
1 5 1 x x + 5y + z mentado anteriormente, y en virtud de los teoremas 3.22 y 3.23, obtenemos que la solución a
1 1 esta ecuación está dada por X = (Mβ3 ,β2 )−1 Mβ1 ,β2 = Mβ2 ,β3 Mβ1 ,β2 = Mβ1 ,β3 , por lo tanto, sa-
[(x, y, z)]β2 = Mβc ,β2 [(x, y, z)]βc = −5 −3 6 y = −5x − 3y + 6z
11 11 biendo que tal ecuación se resuelve al calcular la FERF de la matriz [Mβ3 ,β2 |Mβ1 ,β2 ], entonces,
2 −1 2 z 2x − y + 2z
cuando las matrices Mβ3 ,β2 y Mβ1 ,β2 son conocidas o bien fáciles de calcular, el problema se
reduce al cálculo antes mencionado. En relación a esto último, si β2 es la base canónica de V,
−15 7 3 x + 5y + z siendo V uno de los espacios Rn , Mm×n (R) o Pn [x], entonces las matrices Mβ3 ,β2 y Mβ1 ,β2 se
1 1
[(x, y, z)]β1 = Mβ2 ,β1 [(x, y, z)]β2 = 5 −7 13 −5x − 3y + 6z pueden calcular fácilmente, en consecuencia, dadas dos bases ordenadas β1 y β3 cualesquiera
14 11
3 7 5 2x − y + 2z de alguno de estos espacios vectoriales, el cálculo de la matriz de transición entre estas bases,
se reduce a calcular la FERF de una matriz adecuada, a saber la matriz [Mβ3 ,β2 |Mβ1 ,β2 ].
−4x − 9y + 3z
1
[(x, y, z)]β1 = 6x + 3y − z Teorema 3.24. Sea β una base ordenada de un espacio vectorial V de dimensión n. Entonces
14
−2x − y + 5z {v1 , v2 , . . . , vn } es una base de V si y sólo si la matriz cuadrada de orden n, cuya j-ésima
columna es [vj ]β , tiene determinante distinto de cero.
En este último ejemplo se verifica que Demostración. Sea A ∈ Mn×n (R) la matriz cuya j-ésima columna es [vj ]β . Sean, además,
α1 , α2 , . . . , αn ∈ R tales que
−15 7 3 1 5 1
1 1
Mβc ,β1 = Mβ2 ,β1 Mβc ,β2 = 5 −7 13 −5 −3 6 α1 v1 + α2 v2 + · · · + αn vn = 0/V .
14 11
3 7 5 2 −1 2
Ası́ que
−4 −9 3
1
Mβc ,β1 = 6 3 −1
14 0/n×1 = [0/V ]β = [α1 v1 + α2 v2 + · · · + αn vn ]β = α1 [v1 ]β + α2 [v2 ]β + · · · + αn [vn ]β
−2 −1 5
Este resultado no es casual, como se puede ver en elsiguiente teorema. α1 α1
α2 α2
Teorema 3.23. Sean β1 , β2 y β3 bases ordenadas de un espacio vectorial V de dimensión = [[v1 ]β [v2 ]β · · · [vn ]β ] .. = A .. .
. .
n. Entonces
αn αn
Mβ1 ,β3 = Mβ2 ,β3 Mβ1 ,β2 .
Demostración. Sea v ∈ V cualquiera. Entonces α1
α2
/
[v]β3 = Mβ2 ,β3 [v]β2 y [v]β2 = Mβ1 ,β2 [v]β1 . Pero det(A) �= 0 si y sólo si el sistema A .. = 0n×1 tiene como única solución la trivial,
.
Luego αn
[v]β3 = Mβ2 ,β3 [v]β2 = Mβ2 ,β3 Mβ1 ,β2 [v]β1 . es decir, si y sólo si {v1 , v2 , . . . , vn } es linealmente independiente que a su vez, dado que
Por unicidad de la matriz Mβ1 ,β3 , concluimos que dim(V) = n, equivale a que {v1 , v2 , . . . , vn } es una base de V.
En este capı́tulo y en el siguiente, los espacios vectoriales considerados, son espacios vec-
toriales reales, salvo que se indique lo contrario, sin embargo, muchas de las definiciones
y teoremas expuestos en ellos, pueden generalizarse para el caso en que no se consideren
espacios vectoriales reales.1
1. �u , v� = �v , u�.
2. �u + v , w� = �u , w� + �v , w�.
3. �αu , v� = α �u , v�.
n
� Ejemplo 4.3. En el espacio de las funciones reales continuas en el intervalo [ a , b ], C 0 [ a , b ],
1. �u , v� = ui vi donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ).
la función �
i=1 b
En efecto, sean u, v, w ∈ Rn y α ∈ R con u = (u1 , u2 , . . . , un ); v = (v1 , v2 , . . . , vn ) y �f , g� = f (x)g(x)dx
a
w = (w1 , w2 , . . . , wn ). Entonces
es un producto interno (mientras no se diga lo contrario, éste es el producto interno usual
n
� n
� en C 0 [ a , b ]), en efecto, sean f, g, h ∈ C 0 [ a , b ] y α ∈ R. Entonces
�u , v� = ui v i = vi ui = �v , u� .
� b � b
i=1 i=1
�f , g� = f (x)g(x)dx = g(x)f (x)dx = �g , f � .
a a
u + v = (u1 , u2 , . . . , un ) + (v1 , v2 , . . . , vn ) = (u1 + v1 , u2 + v2 , . . . , un + vn ), ası́ que
n
� n
� n
� n
� � b � b
�u + v , w� = (ui + vi )wi = (ui wi + vi wi ) = ui w i + vi w i �f + g , h� = (f (x) + g(x))h(x)dx = (f (x)h(x) + g(x)h(x))dx
i=1 i=1 i=1 i=1 a a
� b � b
= �u , w� + �v , w� .
= f (x)h(x)dx + g(x)h(x)dx = �f , h� + �g , h� .
a a
αu = α(u1 , u2 , . . . , un ) = (αu1 , αu2 , . . . , αun ), luego � �
b b
n
� n
� �αf , g� = αf (x)g(x)dx = α f (x)g(x)dx = α �f , g� .
�αu , v� = αui vi = α ui vi = α �u , v� . a a
i=1 i=1 � b � b
�f , f � = f (x)f (x)dx = [f (x)]2 dx ≥ 0.
Finalmente n n
a a
� � Además �f , f � = 0 si y sólo si f (x) = 0 para cada x ∈ [ a , b ] (¿por qué?), es decir,
�u , u� = u i ui = u2i ≥ 0.
si y sólo si f = O, donde O es la función nula sobre [ a , b ], esto es, O(x) = 0 para todo
i=1 i=1
x ∈ [ a , b ].
Además, �u , u� = 0 si y sólo si u2i = 0 para cada i ∈ {1, . . . , n} (¿por qué?), esto es, si Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre
y sólo si u = 0/Rn . C 0 [ a , b ]. �
Este producto interno es llamado producto interno euclidiano, usual o estándar
Ejemplo 4.4. En Pn [x] las siguientes funciones son productos internos.
de Rn , salvo que se indique lo contrario, este es el producto interno que usualmente
consideraremos sobre Rn . � 1. Como Pn [x] es un subespacio de C 0 [ a , b ], entonces el producto interno definido en el
n
� ejemplo anterior, es un producto interno sobre Pn [x]. Éste producto es el producto
2. �u , v� = pi ui vi donde p1 , p2 , . . . , pn ∈ R+ son números fijos, u y v son como antes. interno usual en Pn [x] cuando a = −1 y b = 1. �
i=1
n
�
Este producto interno es lo que se denomina producto interno euclidiano ponde-
rado, si p1 = · · · = pn = 1, este producto interno coincide con el producto interno 2. �p , q� = p(i)q(i). En Efecto, sean p, q, r ∈ Pn [x] y α ∈ R. Entonces
i=0
euclidiano. Pruebe que esta función es un producto interno. �
n
� n
�
Ejemplo 4.2. En Mm×n (R) la siguiente función define un producto interno (¡pruébelo!), el �p , q� = p(i)q(i) = q(i)p(i) = �q , p� .
cual se conoce como producto interno euclidiano, usual o estándar, al igual que en el i=0 i=0
caso de Rn , salvo que se indique otra cosa, este es el producto interno que consideraremos
n
� n
�
sobre Mm×n (R).
m � n �p + q , r� = [p(i) + q(i)]r(i) = [p(i)r(i) + q(i)r(i)]
� � �
�A , B� = tr AB T = aij bij i=0 i=0
�n n
�
i=1 j=1
= p(i)r(i) + q(i)r(i) = �p , r� + �q , r� .
donde A = (aij )m×n y B = (bij )m×n (ver definición 1.11). � i=0 i=0
n
� n
� 5. Sea v ∈ V cualquiera. Entonces
�p , p� = p(i)p(i) = [p(i)]2 ≥ 0.
i=0 i=0
�v , 0/V � = �v , 0/V + 0/V � = �v , 0/V � + �v , 0/V � .
Además, �p , p� = 0 si y sólo si p(i) = 0 para cada i ∈ {0, . . . , n}.
Pero el único polinomio en Pn [x], que tiene más de n raı́ces, es el polinomio nulo (¿por Ası́ que �v , 0/V � = 0 y además �0/V , v� = �v , 0/V � = 0.
qué?), es decir, �p , p� = 0 si y sólo si p es el polinomio nulo. �
6. Como �u , v� = 0 para cada v ∈ V, entonces �u , u� = 0 (tomando v = u), luego u = 0/V
n
� (¿por qué?).
3. �p , q� = ai bi , con p(x) = a0 + a1 x + · · · + an xn y q(x) = b0 + b1 x + · · · + bn xn
i=0
(¡pruébelo!). �
1. Sean u, v, w ∈ V cualesquiera. Entonces 1. Sean x = (2, −1, −3) e y = (3, 3, 1). Entonces
�u , αv� = �αv , u� = α �v , u� = α �u , v� . 2. La parte 5 del teorema 4.1 nos dice que en cualquier espacio vectorial V con producto
interno, el vector nulo 0/V es ortogonal a cualquier vector v ∈ V, además, la parte 6 de
este mismo teorema, nos dice que el único vector que es ortogonal a todo vector v ∈ V,
3. Sean u, v, w ∈ V cualesquiera. Luego
es el vector nulo. �
�u − v , w� = �u + (−v) , w� = �u , w� + �−v , w� = �u , w� + �(−1)v , w�
3. Las funciones f (x) = sen(x) y g(x) = cos(x), en C 0 [ −π , π ], son ortogonales. �
= �u , w� + (−1) �v , w� = �u , w� − �v , w� .
4. En P2 [x], los polinomios p(x) = 1 + 2x y q(x) = −2 + x son ortogonales si consi-
2 2
4. Sean u, v, w ∈ V cualesquiera. Ası́ que deramos el producto interno definido en la parte 3 del ejemplo 4.4 (¡verifı́quelo!), pero
si consideramos el producto interno definido en la parte 2 del mismo ejemplo, estos
�u , v − w� = �v − w , u� = �v , u� − �w , u� = �u , v� − �u , w� . polinomios no son ortogonales (¡verifı́quelo!). �
Definición 4.3. Sea � , � un producto interno sobre el espacio vectorial V. Definiremos la Teorema 4.2. Sea V un EPI. Entonces, para cada α ∈ R y cualesquiera u, v ∈ V, se cumple
norma, magnitud, módulo o longitud de v ∈ V (inducida por el producto interno2 ), que:
como el número real �v� dado por
� 1. �u� ≥ 0 y �u� = 0 si y sólo si u = 0/V .
�v� = �v , v�
2. �αu� = |α| · �u�.
Diremos que v ∈ V es unitario si �v� = 1.
3. �u ± v�2 = �u�2 ± 2 �u , v� + �v�2 .
Observación 4.3. Dado que �v , v� ≥ 0 para cada v ∈ V, entonces la definición anterior
está bien fundada. Demostración. ¡Ejercicio!
1. Si u = 0/V o v = 0/V , entonces | �u , v� | = 0 = �u� · �v�. Definición 4.5. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } ⊂ V. Diremos que S es un con-
u v junto ortogonal si vi ⊥ vj para cualesquiera i, j ∈ {1, . . . , k} con i �= j. Si adicionalmente
En caso contrario, u �= 0/V �= v y por lo tanto los vectores u
�= y v� = son
�u� �v� vi es unitario para cada i ∈ {1, . . . , k}, diremos que S es un conjunto ortonormal.
unitarios, y por el teorema 4.3
| ��
u , v�� | ≤ 1. Ejemplo 4.9. Consideremos las siguientes matrices en M2×2 (R)
� � � � � �
Pero � � 1 0 0 2 0 1
u v 1 A1 = ; A2 = y A3 =
��
u , v�� = , = �u , v� . 0 0 −2 0 1 3
�u� �v� �u� · �v�
¿Es S = {A1 , A2 , A3 } un conjunto ortogonal? ¿Es S ortonormal?
1
Por lo tanto �u , v� ≤ 1, es decir, �u , v� ≤ �u� · �v�.
�u� · �v� Solución.
�A1 , A2 � = 1 · 0 + 0 · 2 + 0(−2) + 0 · 0 = 0.
2. Por la parte 3 del teorema 4.2 tenemos que
2 2 2 �A1 , A3 � = 1 · 0 + 0 · 1 + 0 · 1 + 0 · 3 = 0.
�u + v� = �u� + 2 �u , v� + �v�
�A2 , A3 � = 0 · 0 + 2 · 1 + (−2)1 + 0 · 3 = 0.
y por la parte 1 (desigualdad de Cauchy-Schwarz)
Ası́ que S es ortogonal. Pero
�u , v� ≤ | �u , v� | ≤ �u� · �v�. � √
�A2 � = 02 + 22 + (−2)2 + 02 = 2 2 �= 1.
Ası́ que
�u + v�2 ≤ �u�2 + 2�u� · �v� + �v�2 = (�u� + �v�)2 . Por lo tanto S no es ortonormal, sin embargo, S0 = {B1 , B2 , B3 }, donde
Luego �u + v� ≤ �u� + �v�.
1 1 1 1 1
B1 = A1 = A1 , B2 = A2 = √ A2 y B3 = A3 = √ A3
Se deja como ejercicio probar la última parte del teorema. �A1 � �A2 � 2 2 �A3 � 11
sı́ es un conjunto ortonormal (¡verifı́quelo!).
Definición 4.4. Sea V un EPI y sean u, v ∈ V vectores no nulos. Definiremos el ángulo
entre u y v como el número real �(u, v) ∈ [ 0 , π ] tal que
�u , v� Teorema 4.5. Todo conjunto ortogonal finito de vectores no nulos en un EPI es linealmente
cos(�(u, v)) = independiente.
�u� · �v�
es decir � � Demostración. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } ⊂ V un conjunto ortogonal de
�u , v� vectores no nulos.
�(u, v) = arc cos .
�u� · �v� Sean α1 , α2 , . . . , αk ∈ R tales que
Ejemplo 4.8. Calcular el ángulo entre los vectores u = (0, −3, 3) y v = (2, 2, −1). α1 v1 + α2 v2 + · · · + αk vk = 0/V .
Solución.
�u , v� = 0 · 2 + (−3)2 + 3(−1) = −9; Entonces, para cada j ∈ {1, . . . , k}, se tiene que
� √ √ � √
�u� = 02 + (−3)2 + 32 = 18 = 3 2 y �v� 22 + 22 + (−1)2 = 9 = 3. k
� k
�
Ası́ que 0 = �vj , 0/V � = �vj , α1 v1 + α2 v2 + · · · + αk vk � = �vj , αi vi � = αi �vj , vi �
� √ � i=1 i=1
� � � �
�u , v� −9 − 2 3π = αj �vj , vj � = αj �vj �2
�(u, v) = arc cos = arc cos √ = arc cos = .
�u� · �v� 3 2·3 2 4
y dado que vj es no nulo, entonces αj = 0. Por lo tanto S es linealmente independiente.
2. Una base ortogonal de M2×2 (R) es: Para finalizar esta sección, nos plantearemos y solucionaremos el probleorema de hallar
�� � � � � � � �� una base ortonormal para un EPI de dimensión finita3 o para un subespacio de dimensión
1 0 0 2 0 1 0 3
β= ; ; ; finita de un EPI, comenzaremos con un ejemplo el cual ilustrará un procedimiento, conocido
0 0 −2 0 1 3 3 −2
como proceso de ortonormalización de Gram-Schmidt, que nos permite encontrar
pero no es ortonormal. � tal base.
3. Una base ortonormal de P2 [x], considerando el producto interno usual (ver la parte 1 Ejemplo 4.11. En P2 [x] consideremos el producto interno usual y consideremos la base de
del ejemplo 4.4), es: P2 [x] β = {1 , x , x2 }. Calcular una base ortonormal de P2 [x] partiendo de la base β.
� � √ �
1 3 5 � � Solución. Hagamos
β= √ , x , √ −1 + 3x2 .
2 2 2 2 v1 = 1 , v2 = x y v3 = x2 .
En efecto, Entonces ��
� � � �2 � 1 √
� 1 �2 1 1
� √ � = √1 �1�2 = dx =
1
2 = 1; �v1 � = dx = 2.
� 2� 2 2 −1 2 −1
�� �2 �� �2 � �1 Sea
� 3 � 3 3 1 2 3 x3 ��
� � 1 1
� x� = �x�2 = x dx = =1 u1 = v1 = √ .
� 2 � 2 2 −1 2 3 �−1 �v1 � 2
y Ası́ que �u1 � = 1.
�√ �2 � √ �2 � 1 Ahora hagamos
� 5 � �� 5 � � � �2
� �
� √ −1 + 3x2 � = √ �−1 + 3x2 �2 = 5 −1 + 3x2 dx w2 = v2 − �v2 , u1 � u1 .
�2 2 � 2 2 8 −1
� Pero � � � 1
5 1� � 1 1 1
= 1 − 6x2 + 9x4 dx �v2 , u1 � = x, √ = √ �x , 1� = √ xdx = 0.
8 −1 2 2 2 −1
� ��1
5 9 � Luego w2 = v2 = x, además
= x − 2x3 + x5 �� dx = 1
8 5 −1 �� � �1 �
1
x3 �� 2
�w2 � = x2 dx = = .
Además � � � � √ � 1 −1 3 �−1 3
1 3 1 3 3
√ , x =√ �1 , x� = xdx = 0;
2 2 2 2 2 −1 Si hacemos �
1 3
� √ � √ √ � 1 u2 = w2 = x
1 5 � � 1 5 � � 5 � � �w2 � 2
√ , √ −1 + 3x2 = √ √ 1 , −1 + 3x2 = −1 + 3x2 dx
2 2 2 22 2 4 −1 entonces �u2 � = 1 y u1 ⊥ u2 (ver ejemplo 4.10).
√
5� ��1 3
También es posible hallar una base ortonormal para un EPI de dimensión infinita, tales bases son llamadas
= −x + x3 �0 = 0 bases de Hilbert.
2
Jorge Campos 131 132 Jorge Campos
4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt
Paso 4. Sea producto4 A = QR, donde la primera de estas matrices, Q ∈ Mm×n (R), tiene columnas or-
tonormales5 , y la segunda matriz, R ∈ Mn×n (R), es una matriz tirangular superior. Veamos
wk+1 = vk+1 − �vk+1 , u1 � u1 − �vk+1 , u2 � u2 − · · · − �vk+1 , uk � uk cómo hacerlo, pero primero enunciaremos un lema en el que presentamos dos resultados que
�k necesitaremos más adelante y que se derivan directamente de la demostración del teorema
= vk+1 − �vk+1 , ui � ui . 4.6.
i=1
Lema 4.7. Sean {v1 , v2 , . . . , vn }, {u1 , u2 , . . . , un } y {w1 , w2 , . . . , wn } como en la demostra-
Entonces wk+1 ∈ W, wk+1 �= 0/V y para cada j ∈ {1, . . . , k} tenemos que ción del teorema 4.6, con w1 = v1 . Entonces
� k
� 1. �uj , vj � uj = wj para todo j ∈ {1, . . . , n}.
�
�wk+1 , uj � = vk+1 − �vk+1 , ui � ui , uj
2. �ui , vj � = 0 para cualesquiera i, j ∈ {1, . . . , n} con i > j.
i=1
� k
�
� Demostración.
= �vk+1 , uj � − �vk+1 , ui � ui , uj (¿por qué?)
i=1 1. En primer lugar
k
� 1
= �vk+1 , uj � − ��vk+1 , ui � ui , uj � (¿por qué?) �u1 , v1 � u1 = �v1 , v1 � v1 (¿por qué?)
i=1
�v1 �2
�k = v1 (¿por qué?)
= �vk+1 , uj � − �vk+1 , ui � �ui , uj � (¿por qué?) = w1 (por definición de w1 )
i=1
= �vk+1 , uj � − �vk+1 , uj � �uj , uj � (¿por qué?) es decir, hemos comprobado la primera parte para j = 1.
= �vk+1 , uj � − �vk+1 , uj � �uj �2 (¿por qué?) Por otro lado, sea j ∈ {2, . . . , n} cualquiera. Recordemos que en este caso
= �vk+1 , uj � − �vk+1 , uj � (¿por qué?) j−1
� j−1
�
= 0 wj = vj − �vj , ui � ui = vj − �ui , vj � ui
i=1 i=1
es decir, wk+1 ⊥ uj para cada j ∈ {1, . . . , k}. Teniendo en cuenta este hecho, se tiene que
� j−1
�
1 wk+1 �
Paso 5. Hagamos uk+1 = wk+1 = . Entonces �uj , vj � = uj , w j + �ui , vj � ui (¿por qué?)
�wk+1 � �wk+1 �
i=1
� j−1
�
{u1 , u2 , . . . , uk , uk+1 } �
= �uj , wj � + uj , �ui , vj � ui (¿por qué?)
es un conjunto ortonormal y i=1
j−1
�
gen({u1 , u2 , . . . , uk , uk+1 }) = gen({v1 , v2 , . . . , vk , vk+1 }) = �uj , wj � + �ui , vj � �uj , ui � (¿por qué?)
i=1
(¿por qué?). = �uj , wj � (¿por qué?)
1
Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos = �wj , wj � (¿por qué?)
�wj �
{u1 , u2 , . . . , um } en W, y por lo tanto, una base ortonormal de W.
= �wj � (¿por qué?)
4
Una expresión como ésta es llamada factorización QR de A.
Una de las consecuencias directas del teorema de ortonormalización de G-S es que per- 5
Una matriz cuadrada Q ∈ Mn×n (R) es llamada matriz ortogonal si Q−1 = QT , en éste caso, se puede
mite escribir una matriz A ∈ Mm×n (R), con columnas linealmente independientes, como un probar que, las columnas de Q son ortonormales.
(QR) (j)
= QR (j)
(¿por qué?) Solución. Dado que
�n � � � �
� −1 −2 2 � � −2 −2 2 �
= rij Q(i) (¿por qué?) �
� 1
� �
�=� 0
�
� = −4 �= 0,
i=1 � 1 2 � � 1 2 �
n � 1 0 2 � � 0 0 2 �
�
= �ui , vj � ui (por definición de las matrices R y Q)
i=1
entonces las columnas de A son linealmente independientes y por lo tanto, según el teorema
j 4.8, existen matrices Q, con columnas ortonormales, y R, triangular superior e invertible,
�
= �ui , vj � ui (por la parte 2 del lema 4.7) tales que A = QR. Calculemos tales matrices. Definamos v1 = A(1) , v2 = A(2) , v3 = A(3) y
i=1 apliquemos el proceso de ortonormalización de G-S para calcular los vectores ortonormales
u1 , u2 y u3 a partir de las columnas de A.
Para j = 1 obtenemos
√
w1 = v1 , �w1 � = �v1 � = 1 + 1 + 1 + 1 = 2,
(QR)(1) = �u1 , v1 � u1
−1 −1/2
= w1 (por la parte 1 del lema 4.7)
1 1 1 1 1/2
= v1 (¿por qué?) u1 = w 1 = v1 = =
�w1 � 2 2 1 1/2
= A(1) . 1 1/2
−1 −1 4.3. Complemento Ortogonal
1 1 1
= 1 = v1
�v2 , u1 � = (2 + 1 + 0 + 1) = 2, �v2 , u1 � u1 = 2
2 2 1 1 Finalizaremos este capı́tulo estudiando el complemento ortogonal de un subespacio
1 1 vectorial de un EPI.
−2 −1 −1 Teorema 4.9. Sea {v1 , v2 , . . . , vn } una base ortonormal de un EPI V. Entonces para cada
1 1 0 v ∈ V se tiene que
w2 = v2 − �v2 , u1 � u1 = v2 − v1 =
0 − 1 = −1
n
�
1 1 0 v = �v , v1 � v1 + �v , v2 � v2 + · · · + �v , vn � vn = �v , vi � vi .
√
−1 −1/ 2 i=1
√ √ 1 1
0
�w2 � = 1 + 0 + 1 + 0 = 2, u2 = w2 = √ = √0 Demostración. ¡Ejercicio!
�w2 � 2 −1 −1/ 2
0 0
Teorema 4.10. Sean W un subespacio de un EPI de dimensión finita V y {w1 , w2 , . . . , wm }
1 1 4
�v3 , u1 � = (−2 + 2 + 2 + 2) = 2, �v3 , u2 � = √ (−2 + 0 − 2 + 0) = − √ y {w
�1 , w �m } bases ortonormales de W. Entonces para cada v ∈ V se tiene que
�2 , . . . , w
2 2 2
m
� m
�
−1 −1 −1 2 1 �v , wi � wi = �v , w
�i � w
�i .
1 1
− √4 √1 0 = 1 + 0 = 1
�v3 , u1 � u1 + �v3 , u2 � u2 = 2 i=1 i=1
2 1 2 2 −1 1 2 3
1 0 1 0 1 Demostración. Por teorema, podemos escoger vectores um+1 , . . . , un tales que
2 1 1 β1 = {w1 , w2 , . . . , wm , um+1 , . . . , un }
2 1 1
w3 = v3 − (�v3 , u1 � u1 + �v3 , u2 � u2 ) =
2 − 3 = −1
es una base de V. El proceso de ortonormalización de Gram-Schmidt nos permite suponer,
sin perder generalidad, que β1 es una base ortonormal de V.
2 1 1
Para cada j ∈ {m + 1, . . . , n},
1 1/2
√ 1 1 1 1/2
/ gen ({w1 , w2 , . . . , wm }) = W = gen ({w
uj ∈ �1 , w �m })
�2 , . . . , w
�w3 � = 1 + 1 + 1 + 1 = 2, u3 = w3 = =
�w3 � 2 −1 −1/2 por lo tanto β2 = {w
�1 , w �m , um+1 , . . . , un } también es una base ortonormal de V.
�2 , . . . , w
1 1/2 Entonces, por el teorema 4.9, tenemos que
Por lo tanto
√ √ v = �v , w1 � w1 + · · · + �v , wm � wm + �v , um+1 � um+1 + · · · + �v , un � un
−1/2 −1/ 2 1/2 −1 − 2 1 m n
� � 1/2 1 1 � �
0 1/2 0 1
Q = u1 u 2 u3 = √
1/2 −1/ 2 −1/2 = 2 1 − 2 −1 y
√ = �v , wi � wi + �v , ui � ui
i=1 i=m+1
1/2 0 1/2 1 0 1
y
�u1 , v1 � �u1 , v2 � �u1 , v3 � �w1 � �u1 , v2 � �u1 , v3 � v = �v , w�1 � w
�1 + · · · + �v , w
�m � w
�m + �v , um+1 � um+1 + · · · + �v , un � un
R = 0 �u2 , v2 � �u2 , v3 � = 0 �w2 � �u2 , v3 � m n
� �
0 0 �u3 , v3 � 0 0 �w3 � = �v , w�i � w
�i + �v , ui � ui .
i=1 i=m+1
2 √2 2 2 √2 2
√
= 0 2 − √42 = 0 2 −2 2 En consecuencia m m
0 0 2 � �
0 0 2 �v , wi � wi = �v , w
�i � w
�i .
son tales que A = QR (¡verifı́quelo!). i=1 i=1
Claramente proyW v ∈ W.
Definición 4.8. Sea W un subespacio de un EPI V. Definiremos el complemento orto-
Ejemplo 4.13. Consideremos el EPI P2 [x], con el producto interno usual. Calcular la pro- gonal de W como el conjunto
yección ortogonal de p(x) = 3 + 2x − x2 sobre el subespacio de P2 [x]
W⊥ = {v ∈ V : v ⊥ w para cada w ∈ W} = {v ∈ V : �v , w� = 0 para cada w ∈ W}.
W = {a + bx + cx2 : c = −3a}.
Antes de dar algún ejemplo, enunciaremos un teorema que nos permitirá calcular con mayor
Solución. Una base ortonormal de W es facilidad el complemento ortogonal.
�� √ �
3 5 � � Teorema 4.11. Sea W un subespacio vectorial de un EPI V. Sea βW = {w1 , w2 , . . . , wn }
x , √ −1 + 3x2 (¡verifı́quelo!).
2 2 2 una base de W. Entonces v ∈ W⊥ si y sólo si v ⊥ wi para cada i ∈ {1, . . . , n}.
Por lo tanto, en virtud del teorema 4.11, se tiene que a0 + a1 x + a2 x2 ∈ W⊥ si y sólo si 2. Por definición, W⊥ ⊂ V. Además, por la parte 5 del teorema 4.1, se tiene que 0/V ∈ W⊥ .
Sean u, v ∈ W⊥ y α ∈ R. entonces, para cada w ∈ W, �u , w� = 0 = �v , w�, ası́ que
(a0 + a1 x + a2 x2 ) ⊥ x y (a0 + a1 x + a2 x2 ) ⊥ (−1 + 3x2 )
�u + αv , w� = �u , w� + �αv , w� = �u , w� + α �v , w� = 0
es decir, si y sólo si �a0 + a1 x + a2 x2 , x� = 0 y �a0 + a1 x + a2 x2 , −1 + 3x2 � = 0, pero
� � 1 es decir, u + αv ∈ W⊥ , y por lo tanto W⊥ es un subespacio de V.
� � 1
a0 + a1 x + a2 x2 , x = (a0 + a1 x + a2 x2 )xdx = (a0 x + a1 x2 + a2 x3 )dx 3. Sea v ∈ W ∩ W⊥ cualquiera. Entonces v ∈ W y v ∈ W⊥ , es decir, v ∈ W y �v , w� = 0
−1 −1
� 1 � 1 para cada w ∈ W. Por lo tanto �v�2 = �v , v� = 0, y por la parte 1 del teorema 4.2, se
x3 � 2
= a1 x2 dx = a1 �� = a1 tiene que v = 0/V . En consecuencia W ∩ W⊥ = {0/V }.
−1 3 −1 3
4. Si W = V, entonces dim V = n y W⊥ = V⊥ = {0/V } (por la parte 1). Por lo tanto
Ası́ que �a0 + a1 x + a2 x2 , x� = 0 si y sólo si a1 = 0. Luego dim(W) + dim(W⊥ ) = n + 0 = n = dim(V).
� 1 Supongamos que W �= V. Sea {w1 , w2 , . . . , wm } una base ortonormal de W y conside-
� � � �
a0 + a1 x + a2 x2 , −1 + 3x2 = a0 + a2 x2 , −1 + 3x2 = (a0 + a2 x2 )(−1 + 3x2 )dx remos vectores wm+1 , . . . , wn ∈ V tales que
−1
� 1
β = {w1 , w2 , . . . , wm , wm+1 , . . . , wn }
= (−a0 − a2 x2 + 3a0 x2 + 3a2 x4 )dx
−1
� 1 sea una base de V, sin perdida de generalidad, podemos suponer que β es ortonormal
= 2 (−a0 − a2 x2 + 3a0 x2 + 3a2 x4 )dx (¿por qué?).
0
� ��1 Probaremos que {wm+1 , . . . , wn } es una base de W⊥ . Dado que {wm+1 , . . . , wn } es
x3 x5 �� ortonormal (¿por qué?), entonces es linealmente independiente, ası́ que sólo es necesario
= 2 −a0 x − a2 + a0 x3 + 3a2
3 5 �0 probar que {wm+1 , . . . , wn } genera a W⊥ .
� �
1 3 8 Sea w ∈ W⊥ cualquiera. Entonces, por el teorema 4.9
= 2 −a0 − a2 + a0 + a2 = a2 .
3 5 15
w = �w , w1 � w1 + · · · + �w , wm � wm + �w , wm+1 � wm+1 + · · · + �w , wn � wn
En consecuencia, a0 + a1 x + a2 x2 ∈ W⊥ si y sólo si a1 = 0 = a2 . Por lo tanto
Pero, por el teorema 4.11, �w , wi � = 0 para cada i ∈ {1, . . . , m}. Luego
W⊥ = gen({1}).
w = �w , wm+1 � wm+1 + · · · + �w , wn � wn
� �
Teorema 5.1. Sea A ∈ Mn×n (R). Entonces λ ∈ R es un autovalor de A si y sólo si 2 −3
Ejemplo 5.2. Calcular el autoespacio de A = correspondiente a los autovalores
pA (λ) = det(A − λIn ) = 0. 1 6
λ = 5 y λ = 3.
Demostración. Notemos primero que Ax = λx es equivalente a (A − λIn )x = 0/n×1 ya que
Solución. Sabemos que E5 es el espacio solución del sistema
(A − λIn )x = Ax − λIn x = Ax − λx. � � � �
x 0
(A − 5I2 ) =
y 0
Por definición, λ es un autovalor de A si y sólo si existe x �= 0/n×1 tal que Ax = λx, es
decir, según el comentario inicial, si y sólo si existe x �= 0/n×1 tal que (A − λIn )x = 0/n×1 , lo Calculemos la FERF de A − 5I2
cual a su vez es equivalente a decir que la matriz A − λIn no es invertible, que sabemos es � � � � � �
equivalente a det(A − λIn ) = 0. −3 −3 1 1 1 1
A − 5I2 = F1 → − 13 F1 F 2 → F2 − F 1
1 1 → 1 1 → 0 0
Corolario 5.2. Si D ∈ Mn×n (R) es triangular (superior o inferior), entonces sus autovalores Ası́ que x + y = 0, o bien y = −x, por lo tanto
� � � � � �
son precisamente las componentes de su diagonal principal. En particular se cumple si D es x x 1
diagonal. = =x
y −x −1
��� ���
Demostración. ¡Ejercicio! 1
En consecuencia E5 = gen
−1
Para hallar E3 , debemos proceder de manera análoga, obteniendo
Observación 5.1. Se puede probar que pA (t) = det(A − tIn ) es un polinomio grado n con ��� ���
término dominante (−1)n tn . 3
E3 = gen
Según el teorema precedente, λ es un autovalor de A si y sólo si es raı́z del polinomio pA (t), −1
en consecuencia, una matriz A de orden n, tiene a lo sumo n autovalores distintos.
y 1 −5 −7 1 −5 −7
F2 → F2 + 2F1 0 3 9 F 2 ↔ F3 0 1 3
→ →
0
0 1 3 0 3 9
E−1 = gen 1 1 0 8
F1 → F1 + 5F2
0 → 0 1 3
F3 → F3 − 3F2
Cualquier vector no nulo perteneciente a E−1 es un autovector de B a λ1 = −1.
asociado 0 0 0
x 0 De donde �
Ahora hallemos E−2 , esto es, resolvamos el sistema (B + 2I3 ) y = 0 x = −8z
z 0 y = −3z
1 0 −1 1 0 −1 Ası́ que
B + 2I3 = 1 1 1 F 2 → F2 − F 1 0 1 2 x −8z −8
→ y = −3z = z −3
0 0 0 0 0 0
z z 1
Luego x = z y y = −2z, es decir
En consecuencia
x z 1 −8
y = −2z = z −2 E1 = gen −3
z z 1 1
y y como antes, cualquier vector no nulo en E1 es un autovector de C asociado a λ = 1.
Las multiplicidades algebraica y geométrica de λ = 1 son iguales a 1, coinciden.
1
E−2 = gen −2
1 Teorema 5.4. Sean λ1 , λ2 , . . . , λm ∈ R distintos autovalores de A ∈ Mn×n (R) y x1 , x2 , . . . , xm
Cualquier vector no nulo perteneciente a E−2 es un autovector de B asociado a λ2 = −2. autovectores de A asociados a λ1 , λ2 , . . . , λm , respectivamente. Entonces x1 , x2 , . . . , xm son li-
Vemos que la multiplicidad geométrica de cada uno de los autovalores de B es 1. nealmente independientes.
Demostración. Para cada i ∈ {1, . . . , m}, dado que xi es un autovector de A asociado a
Ejemplo 5.6. Idem para λi , tenemos que Axi = λi xi y xi �= 0/n×1 .
−1 13 23 Sean α1 , α2 , . . . , αm ∈ R tales que
C = −1 6 7
0 −1 −2 α1 x1 + α2 x2 + · · · + αm xm = 0/n×1 (5.1)
� �
� −1 − t 13 23 �� Para probar que αi = 0 para cada i ∈ {1, . . . , m}, procederemos por inducción sobre m.
�
�
Solución. pC (t) = det(C − tI3 ) = � −1 6 − t 7 �� = −(t − 1)(t2 − 2t + 2). Verifiquemos que se cumple para m = 2. En este caso la ecuación (5.1) se convierte en
� 0 −1 −2 − t �
α1 x1 + α2 x2 = 0/n×1 . (5.2)
Como t2 −2t+2 �= 0 para todo t ∈ R, entonces el único autovalor de C es λ = 1. Calculemos
el autoespacio E1 de C asociado a λ = 1. Como en el ejemplo precedente, debemos resolver Luego
el sistema A(α1 x1 + α2 x2 ) = A 0/n×1 = 0/n×1 .
x 0
(C − I3 ) y = 0 Pero
z 0 A(α1 x1 + α2 x2 ) = α1 Ax1 + α2 Ax2 = α1 λ1 x1 + α2 λ2 x2 .
−2 13 23 −2 13 23 1 −5 −7 De donde
C − I3 = −1 5
7 F2 → −F2
1 −5 −7 F1 ↔ F2 −2 13 23
→ →
0 −1 −3 0 −1 −3 0 −1 −3 α1 λ1 x1 + α2 λ2 x2 = 0/n×1 . (5.3)
� � � �
Al multiplicar a ambos lados de (5.2) por λ2 , obtenemos 1 3
Ejemplo 5.7. Los vectores y , son linealmente independientes, ya que son
−1 −1
α1 λ2 x1 + α2 λ2 x2 = 0/n×1 . (5.4) autovectores de la matriz
A delejemplo 5.3, correspondientes a distintos autovalores.
1 −1
Restando (5.3) de (5.4) nos queda Los vectores 1 y 1 , son linealmente independientes, pues son autovectores de
0 1
α1 (λ2 − λ1 )x1 = α1 λ2 x1 − α1 λ1 x1 = 0/n×1 . la matriz A del ejemplo 5.4, correspondientes a distintos autovalores.
0 1
Como λ1 �= λ2 y x1 �= 0/n×1 , entonces α1 = 0. Sustituyendo este valor en la ecuación (5.2), Un razonamiento análogo, nos garantiza que los vectores 1 y −2 , los cuales son
se tiene α2 x2 = 0/n×1 , pero x2 �= 0/n×1 , ası́ que α2 = 0, por lo tanto x1 y x2 son linealmente 0 1
independientes. autovectores de la matriz B del ejemplo 5.5, son linealmente independientes. �
Supongamos que x1 , x2 , . . . , xm−1 son linealmente independientes (hipótesis inductiva).
Teorema 5.5. A ∈ Mn×n (R) es invertible si y sólo si 0 (cero) no es un autovalor de A.
Probemos que x1 , x2 , . . . , xm−1 , xm son linealmente independientes. De (5.1) obtenemos
Demostración. A es invertible si y sólo si det(A) �= 0. Pero
A(α1 x1 + α2 x2 + · · · + αm−1 xm−1 + αm xm ) = A 0/n×1 = 0/n×1 .
pA (0) = det(A − 0In ) = det(A)
Pero Ası́ que A es invertible si y sólo si 0 no es raı́z del polinomio pA (λ), es decir, A es invertible
si y sólo si 0 no es un autovalor de A.
A(α1 x1 + α2 x2 + · · · +αm−1 xm−1 + αm xm )
= α1 Ax1 + α2 Ax2 + · · · + αm−1 Axm−1 + αm Axm
= α1 λ1 x1 + α2 λ2 x2 + · · · + αm−1 λm−1 xm−1 + αm λm xm .
5.2. Diagonalización
De donde
En esta sección estudiaremos las matrices similares y las matrices diagonalizables y hare-
α1 λ1 x1 + α2 λ2 x2 + · · · + αm−1 λm−1 xm−1 + αm λm xm = 0/n×1 . (5.5)
mos uso de los teoremas de la sección anterior para el estudio de las últimas.
Multiplicando (5.1) por λm obtenemos Definición 5.5. Sean A, B ∈ Mn×n (R), Diremos que B es similar a A si existe una matriz
invertible P ∈ Mn×n (R) tal que B = P −1 AP .
α1 λm x1 + α2 λm x2 + · · · + αm−1 λm xm−1 + αm λm xm = 0/n×1 . (5.6)
Observación 5.5. Nótese que si B = P −1 AP , entonces A = P BP −1 = (P −1 )−1 BP −1 . Por
Restando (5.5) de (5.6) nos queda lo tanto, si B es similar a A, entonces A es similar a B. En consecuencia, en lugar de decir
B es similar a A o A es similar a B, diremos simplemente que A y B son similares.
α1 (λm − λ1 )x1 + α2 (λm − λ2 )x2 + · · · + αm−1 (λm − λm−1 )xm−1 = 0/n×1 .
Teorema 5.6. Sean A, B ∈ Mn×n (R) dos matrices similares. Entonces pA (t) = pB (t), es
Como x1 , x2 , . . . , xm−1 son linealmente independientes (por hipótesis inductiva), entonces, decir, A y B tienen los mismos polinomios caracterı́sticos, y en consecuencia, los mismos
para cada i ∈ {1, . . . , m − 1} autovalores.
αi (λm − λi ) = 0. Demostración. Como A y B son similares, existe una matriz invertible P ∈ Mn×n (R) tal
que A = P −1 BP . De donde
Pero λm �= λi para i ∈ {1, . . . , m − 1} (por hipótesis), luego αi = 0 para cada
i ∈ {1, . . . , m − 1}. Por lo tanto, (5.1) queda expresado por αm xm = 0/n×1 , y dado que pA (t) = det(A − tIn ) = det(P −1 BP − P −1 (tIn )P ) = det(P −1 (B − tIn )P )
xm �= 0/n×1 , obtenemos αm = 0. En consecuencia x1 , x2 , . . . , xm son linealmente independien- 1
tes. = det(P −1 ) det(B − tIn ) det(P ) = det(B − tIn ) det(P ) = det(B − tIn )
det(P )
= pB (t)
Observación 5.4. Según el teorema 5.4, �
se puede garantizar que si λ1 y λ2 son distintos En consecuencia, A y B tienen los mismos autovalores.
autovalores de A ∈ Mn×n (R), entonces Eλ1 Eλ2 = {0/n×1 }
Teorema 5.9. A ∈ Mn×n (R) tiene n autovectores linealmente independientes si y sólo si que son autovectores de A asociados a λ1 = 2, el cual está ubicado, como ya comentamos, en
pA (t) tiene sólo raı́ces reales y la multiplicidad algebraica, de cada uno de los autovalores de la segunda y la tercera componente de la diagonal principal de D.
A, es igual a su multiplicidad geométrica. En particular, si A tiene n autovalores distintos, Esta situación no es nada casual, como veremos en el siguiente teorema, más precisamente
entonces A tiene n autovectores linealmente independientes. en su demostración.
Demostración. Ver Apéndice D. Teorema 5.10. Una matriz A ∈ Mn×n (R) es diagonalizable si y sólo si tiene n autovectores
linealmente independientes.
Ejemplo 5.11. El polinomio caracterı́stico de la matriz A del ejemplo 5.4, tiene sólo raı́ces Demostración. Supongamos primero que A tiene n autovectores linealmente independien-
reales, además, cada uno de los autovalores de A tiene multiplicidades algebraica y geométrica tes, digamos x1 , x2 , . . . , xn , correspondientes a los autovalores λ1 , λ2 , . . . , λn (no necesaria-
iguales, por lo tanto A tiene tres autovectores linealmente independientes, a saber mente distintos) respectivamente, es decir, Axi = λi xi para cada i ∈ {1, . . . , n}.
Sea P ∈ Mn×n (R) la matriz cuya i-ésima columna es xi , para cada i ∈ {1, . . . , n}, es decir
1 1 −1 � �
1 , 0 , 1 P = x1 x2 · · · xn
0 1 1
Dado que x1 , x2 , . . . , xn son linealmente independientes, entonces P es invertible, además,
Nótese que los dos primeros autovectores corresponden al autovalor λ1 = 2 y el último para cada i ∈ {1, . . . , n}, la i-ésima columna de AP es Axi (ver ejercicio 1.1.1 parte 1), pero
corresponde al autovalor λ2 = −1. Axi = λi xi , por lo tanto, la i-ésima columna de AP es λi xi , eso es (AP )(i) = λi xi .
Por el contrario, para la matriz B del ejemplo 5.5, sabemos que el polinomio caracterı́stico Por otro lado, sea D = diag(λ1 , λ2 , . . . , λn ) ∈ Mn×n (R). Ası́ que, para cada i ∈ {1, . . . , n},
de B tiene sólo raı́ces reales, pero el autovalor λ1 = −1 tiene multiplicidad algebraica 2 y la i-ésima columna de P D es
multiplicidad geométrica 1, por lo tanto B no tiene 3 autovectores linealmente independientes.
La matriz C del ejemplo 5.6 tiene sólo un autovalor, a saber λ = 1, y las multiplicidades
0
algebraica y geométrica de éste son iguales, sin embargo pC (λ) no tiene sólo raı́ces reales, por ..
lo tanto C no tiene tres autovectores linealmente independientes. � .
0
Definición 5.6. Una matriz A ∈ Mn×n (R) es diagonalizable si existe una matriz diagonal
(P D)(i) = P D(i) = P λi −→ i-ésima fila
D ∈ Mn×n (R) la cual es similar a A.
0
.
Ejemplo 5.12. La matriz A del ejemplo 5.9 es diagonalizable, ası́ como la matriz A del ..
ejemplo 5.10. � 0
En el ejemplo 5.10, nótese que la primera componente de la diagonal principal de D es 0
−1, que es un autovalor de A con multiplicidad geométrica 1, las veces que aparece en D, la ..
.
segunda y la tercera componente de la diagonal principal de D son iguales a 2, que es el otro
0
autovalor de A y tiene multiplicidad geométrica 2, las veces que aparece en D.
= λi P 1 −→ i-ésima fila
Además, nótese que la primera columna de P es
0
.
−1 ..
1 0
1 = λi P In(i) = λi P (i) = λi xi
el cual es un autovector de A asociado a λ2 = −1, que está ubicado, como dijimos antes, en En resumen (AP )(i) = λi xi = (P D)(i) para cada i ∈ {1, . . . , n}. Por lo tanto AP = P D,
la primera componente de la diagonal principal de D. Las segunda y tercera columnas de P de donde D = P −1 AP , es decir, A es diagonalizable.
son, respectivamente Supongamos ahora que A es diagonalizable. Entonces existen una matriz diagonal
1 1 D ∈ Mn×n (R) y una matriz invertible P ∈ Mn×n (R) tales que
1 y 0
0 1 D = P −1 AP (5.7)
Para cada i ∈ {1, . . . , n} sea xi = P (i) . Entonces x1 , x2 , . . . , xn son linealmente indepen- Pasemos ahora a definir las matrices de Jordan y las cajas o bloques elementales
dientes, pues P es invertible. Para cada i ∈ {1, . . . , n}, sea λi la i-ésima componente de la de Jordan. Sea Nk ∈ Mk×k (R) dada por
diagonal principal de D. De (5.7) obtenemos AP = P D, pero para cada i ∈ {1, . . . , n}, la
i-ésima columna de AP es Axi (usando nuevamente la parte 1 del ejercicio 1.1.1) y la i-ésima 0 1 0 ··· 0
columna de P D es λi xi (usando el razonamiento anterior), ası́ que Axi = λi xi . . . . ..
0 0 1 .
En consecuencia, x1 , x2 , . . . , xn son autovectores de A linealmente independientes. .. .. . . ..
Nk = . . . . 0
0 0 ··· 0 1
Corolario 5.11. A ∈ Mn×n (R) es diagonalizable si y sólo si pA (t) tiene sólo raices reales y 0 0 0··· 0 0
la multiplicidad algebraica, de cada uno de los autovalores de A, es igual a su multiplicidad
geométrica. En particular, si A tiene n autovalores distintos, entonces A es diagonalizable. Note que Nk es una matriz nilpotente con orden de nilpotencia k (máximo orden de nilpo-
tencia posible para una matriz de orden k).
Demostración. ¡Ejercicio!
Definición 5.8. Una caja o bloque elemental de Jordan es una matriz Jk,λ ∈ Mk×k (R)
dada por
Ejemplo 5.13. La matriz B del ejemplo 5.5 no es diagonalizable, pues λ1 = −1 es un λ 1 0 ··· 0
autovalor de B de multiplicidad algebraica 2 y multiplicidad geométrica 1. . . ..
La matriz C del ejemplo 5.6 no es diagonalizable, ya que el polinomio pC (t) tiene raı́ces 0 λ 1 . .
complejas que no son reales. � Jk,λ = λIk + Nk = ... . . . ... ...
0
0 ··· 0 λ 1
Ejercicio 5.2.1. Pruebe que si A ∈ Mn×n (R) es diagonalizable y λ1 , λ2 , . . . , λp ∈ R son los
0 0 ··· 0 λ
distintos autovalores de A, entonces Mn×1 (R) = Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλp (ver observación 3.10).
donde λ ∈ R.
5.3. Autovectores y Autoespacios Generalizados. For- Ejemplo 5.15. Las siguientes son bloques elementales de Jordan
ma Canónica de Jordan −2 1 0 0 0
3 1 0 0 0 −2
0 3 1 0 1 0 0
Las demostraciones de los teoremas dados en la presente sección escapan al objetivo del J4,3 = 0 −2
curso, en consecuencia sólo los enunciaremos, para una demostración de estos puede verse el 0 0 3 1 ; J5,−2 = 0 1 0
0 0 0 −2 1
apéndice D, no obstante, las aplicaciones de dichos teoremas nos interesan de manera especial. 0 0 0 3
0 0 0 0 −2
Comenzaremos por definir un tipo de matrices conocidas como matrices nilpotentes.
�
Definición 5.7. Una matriz N ∈ Mn×n (R) es llamada nilpotente si existe p ∈ N tal que
N p = 0/n , además, si p es tal que N p−1 �= 0/n , diremos que N tiene orden de nilpotencia p Definición 5.9. Una matriz de Jordan es una matriz J ∈ Mn×n (R) la cual es una matriz
o que es nilpotente de orden p. diagonal por bloques y cada bloque en la diagonal es un bloque elemental de Jordan.
Observación 5.7. La matriz nula de orden n es nilpotente y conveninos en que tiene orden Ejemplo 5.16. Las siguientes son matrices de Jordan
de nilpotencia 1.
1 1 0 0 0 0
Ejemplo 5.14. Las siguientes matrices son nilpotentes −2 1 0 0 0 0
0 −2 1 1 0 0 0
0 0 0 0
0 1 0 0 0
−1 1 0 0 0 1 0 0 J1 =
0 0 −2 0 0
; J2 = 0
−1 0 1 0 0 8 0 0
0 0 0 1 0 0 0 0 5 1
N1 = −1 0 1
; N2 = 0 0 0 0 −3 1
0 0 0 0 1 0 0 0 0 5
−1 0 1 0 0 0 0 0 0 0 0 0 0 −3
Es claro que toda matriz diagonal es una matriz de Jordan. Teorema 5.12. Sea λ ∈ R un autovalor de multiplicidad algebraica k de una matriz
Seguidamente daremos un ejemplo en el cual se ilustra un poco el objetivo de la presente A ∈ Mn×n (R). Entonces existe p ∈ {1, . . . , k} tal que2
sección, calcular la forma canónica de Jordan de una matriz.
{0/n×1 } � Eλ = N(A − λIn ) � · · · � N ((A − λIn )p ) = N ((A − λIn )m )
Ejemplo 5.17. Consideremos la matriz
para todo m ≥ p. � �
5 −1 3 En particular N ((A − λIn )p ) = N (A − λIn )k y en consecuencia
A= 9 −4 0 � � ��
−3 1 −1 dim N (A − λIn )k ≤ k.
Una pregunta que surge de manera inmediata es ¿cómo calcular las matrices P y J? en son las formas canónicas de la matriz A del ejemplo 5.17, basta considerar las matrices
primer lugar, note que la matriz J es una matriz de Jordan y invertibles
−1 0 2 2 −1 0
2 0 1 P1 = −3 1 3 y P2 = 3 −3 1
3 ∈ E2 ; v1 = 1 ∈ E−1 y v2 = 0 ∈ E−1 1 0 −1 −1 1 0
−1 0 −1
y verificar que P1 J1 = AP1 y P2 J2 = AP2 .
además En la demostración del teorema 5.14 se obtienen las formas que deben tener la matriz de
−1 3 Jordan J y la matriz invertible P de tal manera que J = P −1 AP . Daremos cuatro ejemplos
(A + I3 )v1 = −3 ∈ K−1 y (A + I3 )v2 = 9 ∈ K−1 que ilustran este hecho.
1 −3
Ejemplo 5.19. Dada la matriz
es decir, la matriz P obedece a cierto comportamiento, ası́ como la matriz J (¿cuál es el
comportamiento de esta última?). Antes de responder de manera más general la primera de 2 1 1 2
estas preguntas, daremos algunos resultados que nos lo permitirán. 2 1 −1 0
A=
1
0 0 −1
Teorema 5.13. Sea A ∈ Mn×n (R). Supongamos que pA (t) tiene sólo raı́ces reales, digamos 1 −2 0 1
que λ1 , λ2 , . . . , λp ∈ R son las distintas raı́ces de pA (t), es decir, λ1 , λ2 , . . . , λp son los dis-
tintos autovalores de A. Sean k1 , k2 , . . . , kp las multiplicidades algebraicas de λ1 , λ2 , . . . , λp , Decidir si existe una matriz de Jordan J que sea similar a ésta, en caso afirmativo halle una
respectivamente. Entonces k1 + k2 + · · · + kp = n y además matriz de Jordan J y una matriz invertible P tal que J = P −1 AP .
dim(Kλi ) = ki Solución. pA (t) = (t − 2)3 (t + 2), ası́ que, usando el teorema 5.14, existe una matriz de
Jordan J la cual es similar a A.
para cada i ∈ {1, . . . , p}. Veamos como calcular la matriz J y la matriz invertible P tal que J = P −1 AP . Los pasos
que seguiremos a continuación son estándares a la hora de encontrar dichas matrices.
Demostración. Ver apéndice D. Los autovalores de A son λ1 = 2, con multiplicidad algebraica 3, y λ2 = −2, con multipli-
cidad algebraica 1. Además
Teorema 5.14. A ∈ Mn×n (R) es similar a una matriz de Jordan si y sólo si pA (t) sólo tiene 0 1 1 2 4 1 1 2
raı́ces reales. 2 −1 −1 0 2 3 −1 0
A − 2I4 = 1 y A + 2I4 =
0 −2 −1 1 0 2 −1
Demostración. Ver apéndice D. 1 −2 0 −1 1 −2 0 3
Luego
El teorema 5.14 da paso a la siguiente definición.
−1
−1
Definición 5.11. Cualquier matriz de Jordan J, que sea similar a A, es llamada forma −1
1
E2 = N(A−2I4 ) = gen
−1 y E−2 = K−2 = N(A+2I4 ) = gen
1
canónica de Jordan de A y cada una de estas matrices de Jordan sólo difieren en la
posición de los bloques elementales de Jordan en la diagonal. 1 1
Solución. En este caso pA (t) = (t − 2)(t − 1)3 , y como en el ejemplo anterior, en virtud del finalmente escojamos
teorema 5.14, podemos asegurar que existe una matriz de Jordan J la cual es similar a A. −1
Los autovalores de A son λ1 = 2 y λ2 = 1, con multiplicidad algebraica 1 y 3 respectiva- 0
x4 =
∈ E2 = N(A − 2I4 )
mente. Además: 0
1
−1 −1 0 1 2 −1 0 1
9 −7 0
9 9 −6 0 9 y definamos las matrices
A − 2I4 =
−3 ; A − I4 = ;
2 −1 −3 −3 2 0 −3
4 −3 0 4 4 −3 0 5 1 1 0 −1 1 1 0 0
� � 3 1 0 0 0 1 0 0
P = x2 x1 x3 x4
=
y J =
−1 0 1 0 0 0 1 0
−1
0
1
0 0 3 1 0 0 1 0 0 0 2
E2 = K2 = N(A−2I4 ) = gen
0 ;
E1 = N(A−I4 ) = gen ; ;
1 0
En consecuencia J = P −1 AP (¡verifı́quelo!).
1 0 1
Al igual que en anterior ejemplo, las matrices P y J no son únicas ¿podrı́a hallar algunos
otros ejemplos de estas matrices?
−1 1 0 −2 1
0 −2
0 0 0 0 � � 1 0
(A − I4 )2 = y N (A − I4 )2 = gen ; 0
0 0 0 0 0 ; 1 0
Daremos dos ejemplos más para afianzar el método empleado en los dos ejemplos prece-
1 −1 0 2 0 0 1 dentes, esperamos que con estos últimos ejemplos se comprenda en su totalidad el método
Como dim (N ((A − I4 )2 )) = 3 y la multiplicidad algebraica de λ2 = 1 es 3, entonces empleado para la búsqueda de las matrices P y J.
K1 = N ((A − I4 )3 ) = N ((A − I4 )2 ).
Como en el ejemplo anterior, dado que Ejemplo 5.21. Idem para la matriz
� � �� � � ��
dim(K1 ) − dim(E1 ) = dim N (A − I4 )3 − dim N (A − I4 )2 = 3 − 2 = 1 3 3 3 0
−3 9 3 0
comencemos con escoger un vector en K1 = N ((A − I4 )2 ) que no pertenezca a E1 = N(A−I4 ), A=
0 0
6 0
digamos −6 6 9 6
1
1
x1 =
0 Solución. Se puede verificar que pA (t) = (t − 6)4 , ası́ que al usar el teorema 5.14, existe una
matriz de Jordan J la cual es similar a A. El único autovalor de A es λ = 6 con multiplicidad
0
algebraica 4.
Hagamos
1
3 −3 3 3 0
x2 = (A − I4 )x1 = 1
0
−1 ∈ E1 = N(A − I4 ) −3 3 3 0 1 0
A − 6I4 =
0 0
y E6 = N(A − 6I4 ) = gen
0 ;
1 0 0 0
pero a diferencia del caso anterior, debido a que dim(E1 ) = dim (N(A − I4 )) = 2 debemos −6 6 9 0 0 1
escoger un vector en E1 no sea combinación lineal de x2 , digamos
Además
0 0 0 0 0
0 0 0 0 0
x3 =
2
(A − 6I4 ) = 04 =
/
1 0 0 0 0
0 0 0 0 0
Ahora bien, como dim(E3 ) = dim(N(A − 3I4 )) = 3, debemos escoger dos vectores linealmente
independientes x3 , x4 ∈ E3 tales que x2 , x3 y x4 sean linealmente independientes, digamos
−2 1
1
x3 = y x4 = 0
0 1
0 0 Capı́tulo 6
En consecuencia
1 1 −2 1
3 1 0 0
Transformaciones Lineales y Algunas
� � −1 0 1 0 0 3 0 0
P = x2 x1 x3 x4 =
1 0
0 1
y J =
0 0 3
0 Aplicaciones
−1 0 0 0 0 0 0 3
1. T (u + v) = T (u) + T (v).
2. T (αu) = αT (u).
Observación 6.1. Básicamente podemos decir que una transformación lineal es una función
entre espacios vectoriales la cual preserva las operaciones.
Ejemplo 6.1.
4. T : R3 −→ R2 , dada por T (x, y, z) = (2x + y, x − z), es una transformación lineal, en 8. T : R3 −→ P3 [x] dada por
efecto, dados (x, y, z), (a, b, c) ∈ R3 y α ∈ R, se tiene que
T (a, b, c) = b + (2a + c)x + (b − 3c)x3
T ((x, y, z) + (a, b, c)) = T (x + a, y + b, z + c)
es lineal. En efecto, sean u, v ∈ R3 y α ∈ R cualesquiera, con u = (a1 , b1 , c1 ) y
= (2(x + a) + (y + b), (x + a) − (z + c)) v = (a2 , b2 , c2 ). Entonces
= (2x + 2a + y + b, x + a − z − c)
T (u + v) = T ((a1 , b1 , c1 ) + (a2 , b2 , c2 )) = T (a1 + a2 , b1 + b2 , c1 + c2 )
= (2x + y, x − z) + (2a + b, a − c)
= (b1 + b2 ) + [2(a1 + a2 ) + (c1 + c2 )]x + [(b1 + b2 ) − 3(c1 + c2 )]x3
= T (x, y, z) + T (a, b, c)
= (b1 + b2 ) + (2a1 + 2a2 + c1 + c2 )x + (b1 + b2 − 3c1 − 3c2 )x3
y = [b1 + (2a1 + c1 )x + (b1 − 3c1 )x3 ] + [b2 + (2a2 + c2 )x + (b2 − 3c2 )x3 ]
= T (a1 , b1 , c1 ) + T (a2 , b2 , c2 )
T (α(x, y, z)) = T (αx, αy, αz) = (2(αx) + (αy), (αx) − (αz))
= T (u) + T (v)
= (α(2x + y), α(x − z)) = α(2x + y, x − z)
= αT (x, y, z) y además
6. T : P2 [x] −→ R2 dada por T (a + bx + cx2 ) = (2a + c + 3, b − c) no es una transformación Este último ejemplo nos dice que toda matriz define una transformación lineal, más adelante
lineal, en efecto, veremos que toda transformación lineal, entre espacios vectoriales de dimensión finita, está
T (0) = (2 · 0 + 0 + 3, 0 − 0) = (3, 0) asociada con una matriz.
El siguiente teorema nos será de gran utilidad a la hora de decidir si una función T es una
T (0) + T (0) = (3, 0) + (3, 0) = (6, 0) transformación lineal.
T (0 + 0) = T (0) = (3, 0) �= (6, 0) = T (0) + T (0) Teorema 6.1. Sean V y W dos espacios vectoriales y T : V −→ W una función. T es
� una transformación lineal si y sólo si para cualesquiera u, v ∈ V y α ∈ R se cumple que
T (u + αv) = T (u) + αT (v).
7. Consideremos T : M2×2 (R) −→ P3 [x] dada por
�� �� Demostración. Supongamos que T : V −→ W es una transformación lineal. Sean u, v ∈ V
a b y α ∈ R cualesquiera. Entonces
T = a + bx + cx2 + dx3
c d
T (u + αv) = T (u) + T (αv) (por la condición 1 de la definición 6.1)
Entonces T es lineal (¡pruébelo!). � = T (u) + αT (v) (por la condición 2 de la definición 6.1)
Supongamos ahora que T : V −→ W es tal que para cualesquiera u, v ∈ V y α ∈ R se c) Probemos que se cumple para n.
cumple que
T (u + αv) = T (u) + αT (v)
T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 + αn vn )
Sean u, v ∈ V y α ∈ R cualesquiera. Entonces = T ((α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) + αn vn )
T (u + v) = T (u + 1 · v) = T (u) + 1 · T (v) = T (u) + T (v) (por asociatividad)
= T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) + T (αn vn )
y además
(por linealidad)
T (0/V ) = T (u + (−1)u) = T (u) + (−1)T (u) = 0/W
= α1 T (v1 ) + α2 T (v2 ) + · · · + αn−1 T (vn−1 ) + αn T (vn )
luego
(por Hipótesis Inductiva y linealidad)
T (αv) = T (0/V +αv) = T (0/V ) + αT (v) = 0/W +αT (v) = αT (v)
Por lo tanto T es lineal.
De ahora en adelante, gracias a este último teorema, cuando queramos probar que una
Teorema 6.3. Sean U, V y W espacios vectoriales y L : U −→ V y T : V −→ W dos
función T, entre espacios vectoriales, es una transformación lineal, no será necesario probar
transformaciones lineales. Entonces T ◦ L : U −→ W es también una transformación lineal.
las dos condiciones en la definición 6.1, sólo bastará probar la condición en el teorema anterior.
Teorema 6.2. Sean V y W dos espacios vectoriales y T : V −→ W una transformación Demostración. Sean u1 , u2 ∈ U y α ∈ R cualesquiera. Entonces
lineal. Entonces, para cualesquiera α1 , α2 , . . . , αn ∈ R y u, v, v1 , v2 , . . . , vn ∈ V, se cumple que
Demostración.
Por lo tanto T ◦ L es lineal.
1. Sea v0 ∈ V cualquiera pero fijo. Entonces
Demostración. Sean v1 , v2 ∈ V y α ∈ R cualesquiera. Entonces Corolario 6.6. Sean V, W, T y L como en el teorema 6.5 y consideremos una base
β = {v1 , v2 , . . . , vn } de V tal que T (vi ) = L(vi ) para cada i ∈ {1, . . . , n}. Entonces T = L.
(T + λL)(v1 + αv2 ) = T (v1 + αv2 ) + (λL)(v1 + αv2 ) (por la definición 6.2)
= T (v1 + αv2 ) + λL(v1 + αv2 ) (por la definición 6.2) Demostración. ¡Ejercicio!
= T (v1 ) + αT (v2 ) + λ(L(v1 ) + αL(v2 )) (linealidad de T y L)
= T (v1 ) + αT (v2 ) + λL(v1 ) + λαL(v2 ) Ejemplo 6.2. Hallar la transformación lineal T de P2 [x] en R2 tal que
= T (v1 ) + λL(v1 ) + αT (v2 ) + λαL(v2 )
T (1) = (2, −1); T (x) = (3, 4); T (x2 ) = (−1, 5)
= T (v1 ) + λL(v1 ) + α(T (v2 ) + λL(v2 ))
= T (v1 ) + (λL)(v1 ) + α(T (v2 ) + (λL)(v2 )) (definición 6.2) Solución.
= (T + λL)(v1 ) + α(T + λL)(v2 ) (definición 6.2)
T (a0 + a1 x + a2 x2 ) = T (a0 · 1 + a1 x + a2 x2 ) = a0 T (1) + a1 T (x) + a2 T (x2 )
= a0 (2, −1) + a1 (3, 4) + a2 (−1, 5)
En consecuencia T + λL es lineal. = (2a0 + 3a1 − a2 , −a0 + 4a1 + 5a2 )
Dado dos espacios vectoriales V y W, este último teorema nos dice que el conjunto L (V, W),
formado por todas las transformaciones lineales de V en W, es cerrado bajo las operaciones Teorema 6.7 (Existencia y Unicidad de una Transformación Lineal). Sean V y W dos
dadas en la definición 6.2, se puede probar que L (V, W), junto con éstas operaciones, es un espacios vectoriales, β = {v1 , v2 , . . . , vn } una base de V y w1 , w2 , . . . , wn ∈ W. Entonces existe
espacio vectorial. una única transformación lineal T : V −→ W tal que T (vi ) = wi para cada i ∈ {1, . . . , n}.
Teorema 6.5. Sean V y W dos espacios vectoriales y G = {v1 , v2 , . . . , vk } un conjunto
Demostración. Dado v ∈ V cualquiera, existen únicos escalares, α1 , α2 , . . . , αn ∈ R, tales
generador de V. Supongamos que T y L son dos transformaciones lineales de V en W tales
que
que T (vi ) = L(vi ) para cada i ∈ {1, . . . , k}. Entonces T = L, esto es, T (v) = L(v) para cada n
�
v ∈ V. v = α 1 v 1 + α 2 v2 + · · · + αn vn = α i vi
i=1
Demostración. Sea v ∈ V cualquiera. Como G genera a V, existen α1 , α2 , . . . , αk ∈ R tales
que Definamos n
�
v = α 1 v 1 + α 2 v 2 + · · · + αk v k T (v) = α1 w1 + α2 w2 + · · · + αn wn = αi wi
i=1
ası́ que
La unicidad de los escalares α1 , α2 , . . . , αn ∈ R, garantiza que T es una función, además,
T (v) = T (α1 v1 + α2 v2 + · · · + αk vk ) dado que w1 , w2 , . . . , wn ∈ W y W es un espacio vectorial, se tiene que T (v) ∈ W, por lo
= α1 T (v1 ) + α2 T (v2 ) + · · · + αk T (vk ) (teorema 6.2 parte 3) tanto T es una función de V en W. n
�
= α1 L(v1 ) + α2 L(v2 ) + · · · + αk L(vk ) (hipótesis) Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que vj = λi vi , donde λi = 0 si i �= j y
= L(α1 v1 + α2 v2 + · · · + αk vk ) (teorema 6.2 parte 3) i=1
λj = 1, ası́ que
= L(v) n
�
T (vj ) = λi w i = λ j w j = w j
Luego T = L. i=1
Ası́ que −2 0 −2 1 −1 −3 2 0
n
� n
� 2 1 1 −1 F1 ↔ F3 2 1 1 −1
T (u) = αi wi y T (v) = βi wi →
−1 −3 2 0 −2 0 −2 1
i=1 i=1
1 3 −2 0 1 3 −2 0
Además F 2 → F 2 − 2F 1
n
� n
� n
� F1 → −F1 2 1 1 −1 → 0 −5 5 −1
→ F3 → F3 + 2F1
u + λv = α i vi + λ βi vi = (αi + λβi )vi −2 0 −2 1 0 6 −6 1
i=1 i=1 i=1 1 3 −2 0 1 0 1 0
F 1 → F1 − 3F2
Por lo tanto F2 → F2 + F3 0 1 −1 0 → 0 1 −1 0
→ F3 → F3 − 6F2
0 6 −6 1 0 0 0 1
n
� n
� n
� Dado que los pivotes se encuentran en las columnas 1, 2 y 4, y en virtud del teorema 3.25,
T (u + λv) = (αi + λβi )wi = αi wi + λ βi wi = T (u) + λT (v)
los vectores v1 , v2 y v4 son linealmente independientes, y en consecuencia, forman una base
i=1 i=1 i=1
para R3 y por el teorema 6.7, concluimos que existe una única transformación lineal tal que
En consecuencia T es lineal. � � � � � �
Finalmente, probemos que T es única. Supongamos que existe otra transformación lineal 2 0 0 −1 4 −2
T (−2, 2, −1) = ; T (0, 1, −3) = y T (1, −1, 0) =
L : V −→ W tal que L(vi ) = wi para cada i ∈ {1, . . . , n}. 1 −2 4 3 1 0
Luego, por el corolario 6.6, se tiene que L = T .
La matriz anterior también nos garantiza, en virtud del teorema 3.25, que
v3 = 1 · v1 + (−1) · v2 + 0 · v3 = v1 − v2 . Ası́ que T debe satisfacer:
Como consecuencia del teorema 6.7 tenemos el siguiente resultado cuya demostración se � � � �
deja como ejercicio. 2 0 0 −1
T (−2, 1, 2) = T (v3 ) = T (v1 − v2 ) = T (v1 ) − T (v2 ) = −
1 −2 4 3
Corolario 6.8. Sean V y W dos espacios vectoriales, L = {v1 , v2 , . . . , vk } ⊂ V un conjunto � �
2 1
linealmente independiente y w1 , w2 , . . . , wk ∈ W. Entonces existe una transformación lineal = .
−3 −5
T : V −→ W tal que T (vi ) = wi para cada i ∈ {1, . . . , k}.
Por lo tanto existe una transformación lineal T : R3 −→ M2×2 (R) satisfaciendo las con-
Demostración. ¡Ejercicio!
diciones requeridas. Vamos a hallar dicha transformación. Sea (x, y, z) ∈ R3 cualquiera.
Hagamos
Ejemplo 6.3. Hallar una transformación lineal T : R3 −→ M2×2 (R) (si existe) tal que β = {(−2, 2, −1), (0, 1, −3), (1, −1, 0)}
� � � � debemos calcular [(x, y, z)]β , para ello hallemos la matriz Mβc ,β .
2 0 0 −1
T (−2, 2, −1) = ; T (0, 1, −3) = ;
1 −2 4 3 −2 0 1 1 0 0 −1 −3 0 0 0 1
� � � � 2 1 −1 0 1 0 F1 ↔ F3 2 1 −1 0 1 0
2 1 4 −2 →
T (−2, 1, 2) = ; T (1, −1, 0) = −1 −3 0 0 0 1 −2 0 1 1 0 0
−3 −5 1 0
1 3 0 0 0 −1 1 3 0 0 0 −1
F2 → F2 − 2F1
Solución. Veamos cuales de los vectores v1 = (−2, 2, −1), v2 = (0, 1, −3), v3 = (−2, 1, 2), F1 → −F1 2 1 −1 0 1 0 → 0 −5 −1 0 1 2
→ F3 → F3 + 2F1
v4 = (1, −1, 0) son linealmente independientes, para ello, consideremos la matriz −2 0 1 1 0 0 0 6 1 1 0 −2
1 3 0 0 0 −1 1 0 0 −3 −3 −1
F 1 → F1 − 3F2
� � −2 0 −2 1 F 2 → F2 + F3 0 1 0 1 1 0 → 0 1 0 1 1 0
[v1 ]βc [v2 ]βc [v3 ]βc [v4 ]βc = 2 1 1 −1 → F3 → F3 − 6F2
0 6 1 1 0 −2 0 0 1 −5 −6 −2
−1 −3 2 0 Por lo tanto
−3 −3 −1
y hallemos su FERF. Mβc ,β = 1 1 0
−5 −6 −2
En consecuencia Por lo tanto, dado que los pivotes están ubicados en las columnas 1 y 2, al usar el teo-
rema 3.25, sabemos que los dos primeros vectores de S son linealmente independientes,
−3 −3 −1 x −(3x + 3y + z)
y como consecuencia del corolario 6.8, garantizamos que existe una transformación lineal
[(x, y, z)]β = Mβc ,β [(x, y, z)]βc = 1 1 0 y = x+y
T : R4 −→ P2 [x] satisfaciendo las dos primeras igualdades en el enunciado del ejercicio.
−5 −6 −2 z −(5x + 6y + 2z)
Por otro lado, de nuevo usando el teorema 3.25, esta matriz nos garantiza también que
Es decir
(0, 5, 9, 3) = −2 · (1, −2, −3, −1) + 1 · (2, 1, 3, 1)
(x, y, z) = −(3x + 3y + z)(−2, 2, −1) + (x + y)(0, 1, −3) − (5x + 6y + 2z)(1, −1, 0)
y
De donde
(1, −7, −12, −4) = 3 · (1, −2, −3, −1) + (−1) · (2, 1, 3, 1)
T (x, y, z) = −(3x + 3y + z)T (−2, 2, −1) + (x + y)T (0, 1, −3) − (5x + 6y + 2z)T (1, −1, 0) ası́ que cualquier transformación lineal T , satisfaciendo las dos primeras igualdades en el
� � � � � �
2 0 0 −1 4 −2 enunciado del ejemplo, satisface que:
= −(3x + 3y + z) + (x + y) − (5x + 6y + 2z)
1 −2 4 3 1 0
� � T (0, 5, 9, 3) = −2 · T (1, −2, −3, −1) + 1 · T (2, 1, 3, 1) = −2(1 + 2x − 3x2 ) + (−x + 2x2 )
−26x − 30y − 10z 9x + 11y + 4z
=
−4x − 5y − 3z 9x + 9y + 2z = −2 − 5x + 8x2
T (1, −7, −12, −4) = 3 · T (1, −2, −3, −1) + (−1) · T (2, 1, 3, 1)
Ejemplo 6.4. Hallar una transformación lineal (si existe) T : R4 −→ P2 [x] tal que
= 3(1 + 2x − 3x2 ) − (−x + 2x2 ) = 3 + 7x − 11x2
T (1, −2, −3, −1) = 1 + 2x − 3x2 ; T (2, 1, 3, 1) = −x + 2x2 ;
es decir, toda transformación lineal T , satisfaciendo lo dos primeras igualdades en el enunciado
T (0, 5, 9, 3) = −2 − 5x + 8x2 ; T (1, −7, −12, −4) = 3 + 7x − 11x2 del ejemplo, también satisface las dos últimas igualdades.
Solución. Veamos si el conjunto No podemos proceder como en el ejemplo anterior, sin embargo, podemos completar una
base de R4 partiendo de los dos primeros vectores linealmente independientes en S (el teorema
S = {(1, −2, −3, −1); (2, 1, 3, 1); (0, 5, 9, 3); (1, −7, −12, −4)} de completación de bases nos lo permite) ¿cómo hacerlo?, existen varias maneras de hacer
esta escogencia, veamos una de ellas.
es linealmente independiente, para ello consideremos la matriz
Escojamos los vectores entre los canónicos, para saber cuál de ellos escoger, consideremos
1 2 0 1 la siguiente matriz
−2 1 5 −7 1 2
−2 1
−3 3 9 −12
−1 1 3 −4 −3 3
−1 1
y hallemos su FERF
y eliminemos dos de sus filas, por ejemplo, eliminemos las primeras dos filas, obteniendo la
1 2 0 1 1 2 0 1 1 2 0 1 matriz cuadrada de orden 2 × 2 � �
−2 1 5 −7 F2 → F2 + 2F1 −3 3
0 5 5 −5 1 0 1 1 −1
F3 → F3 + 3F1
−3 3 9 −12 → 0 9 9 −9 F2 → 5 F2→ 0 9 9 −9 −1 1
F 4 → F4 + F1
−1 1 3 −4 0 3 3 −3 0 3 3 −3 cuyo determinante es cero, por tanto no es posible agregar los dos primeros vectores canónicos
1 0 −2 3 para completar la base (¿por qué?), pero si eliminamos las dos últimas filas, nos queda la
F1 → F1 − 2F2
0 1 1 −1 matriz � �
F3 → F3 − 9F2
→ 0 0 0 0 1 2
F4 → F4 − 3F2
0 0 0 0 −2 1
cuyo determinante es no nulo, ası́ que podemos completar la base de R4 con los dos últimos Debemos hacer notar que, a diferencia del ejemplo previo, existen una infinidad de trans-
vectores canónicos, ya que formaciones lineales T satisfaciendo las condiciones requeridas en el enunciado del presente
� � � � ejemplo, dependiendo éstas de la escogencia de los vectores que completan la base de R4
� 1 2 0 0 � � 1 2 0 0 �
� � � � � � � � (espacio de partida) y de la escogencia de las imágenes de estos vectores.
� −2 1 0 0 � � −2 1 0 0 � � 1 2 � � 1 0 �
� � � �=� � � � = 5 · 1 = 5 �= 0
� −3 3 1 0 � = � −3 3 1 0 � � −2 1 � · � 0 1 �
� � � �
� −1 1 0 1 � � −1 1 0 1 �
Solución. En primer lugar, calcularemos las imágenes, a través de T , de cada uno de los
vectores de la base canónica βV .
� � � � El ejemplo 6.7 nos da un procedimiento estándar para calcular la matriz de una transfor-
1 0 0 1 mación lineal respecto a unas bases dadas.
T (E1,1 ) = T = 1 + x − x2 ; T (E1,2 ) = T = 1 + 2x − 3x2 ;
0 0 0 0
� � � � Teorema 6.10. Sean U, V y W espacios vectoriales, L : U −→ V y T : V −→ W dos
0 0 0 0
T (E2,1 ) = T = −1 + x − 3x2 y T (E2,2 ) = T = x − 2x2 transformaciones lineales y βU , βV y βW bases ordenadas de U, V y W respectivamente.
1 0 0 1
Entonces
Al igual que en ejemplo 6.6, por definición de la matriz [T ]βV ,βW
[T ◦ L]βU ,βW = [T ]βV ,βW [L]βU ,βV
� �
[T ]βV ,βW = [T (E1,1 )]βW [T (E1,2 )]βW [T (E2,1 )]βW [T (E2,2 )]βW
�� Demostración. Sea u ∈ U cualquiera. Entonces
� � � � � � � �
= 1 + x − x2 β 1 + 2x − 3x2 β −1 + x − 3x2 β x − 2x2 β
W W W W
([T ]βV ,βW [L]βU ,βV ) [u]βU = [T ]βV ,βW ([L]βU ,βV [u]βU ) = [T ]βV ,βW [L(u)]βV = [T (L(u))]βW
1 1 −1 0 = [(T ◦ L)(u)]βW .
= 1 2 1 1
−1 −3 −3 −2 Luego, por unicidad de la matriz [T ◦ L]βU ,βW , se tiene que
Análogamente, para calcular [T ]β�V ,β�W , hallemos primero las imágenes, a través de T , de
[T ◦ L]βU ,βW = [T ]βV ,βW [L]βU ,βV
cada uno de los vectores de la base β�V .
� � � �
1 2 −1 0
T = 4 + 4x − 4x2 ; T = −2 + x − 4x2 ;
−1 0 1 1
� � � � Teorema 6.11. Sean V y W dos espacios vectoriales de dimensión finita; βV y β�V bases
T
2 3
= 4 + 8x − 12x2 y T
−2 1
= −4 + 5x − 14x2 ordenadas de V; βW y β�W bases ordenadas de W y T : V −→ W una transformación lineal.
1 −1 3 2 Entonces
Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la [T ]β�V ,β�W = MβW ,β�W [T ]βV ,βW Mβ�V ,βV
base β�W . Para ello consideremos la siguiente matriz cuatro veces ampliada (¿por qué?).
Demostración. Sea v ∈ V cualquiera. Entonces
1 0 1 4 −2 4 −4
1 1 0 4 1 8 5 [T (v)]βW = [T ]βV ,βW [v]βV
0 1 −2 −4 −4 −12 −14
[v]βV = Mβ�V ,βV [v]β�V
las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base β�W ,
respecto a la base canónica βW , el resto de las columnas, son las coordenadas de los vectores, Luego
hallados previamente, respecto a la base canónica βW , esto es, las tres primeras columnas de
esta matriz representan la matriz Mβ�W ,βW y las últimas 4 columnas reperesentan la matriz [T (v)]β�W = MβW ,β�W [T (v)]βW = MβW ,β�W [T ]βV ,βW [v]βV = MβW ,β�W [T ]βV ,βW Mβ�V ,βV [v]β�V
[T ]β�V ,βW . La FERF de esta matriz es
Por unicidad de la matriz [T ]β�V ,β�W , se tiene que
1 0 0 0 −9 −12 −27
0 1 0 4 10 20 32 [T ]β�V ,β�W = MβW ,β�W [T ]βV ,βW Mβ�V ,βV
0 0 1 4 7 16 23
Por lo tanto
0 −9 −12 −27
[T ]β�V ,β�W
= 4 10 20 32 Ejemplo 6.8. Consideremos T , βV , βW , β�V y β�W como en el ejemplo 6.7. Verificar el teorema
4 7 16 23 6.11.
Solución. Sabemos que Rn , Pn [x] o Mm×n (R) y β�W es la base canónica de W, estas matrices A y B son fáciles de
calcular), entonces, en virtud del corolario 6.13, el problema se reduce a resolver la ecuación
0 −9 −12 −27 1 1 −1 0 matricial �AX = B, � el cual � ya sabemos que se resuelve calculando la FERF de la matriz
[T ]β�V ,β�W = 4 10 20 32 y [T ]βV ,βW = 1 2 1 1 �
[A|B] = MβW ,β�W � [T ]βV ,β�W . Dado que en este caso A = MβW ,β�W es invertible, entonces la
4 7 16 23 −1 −3 −3 −2
solución a dicha ecuación está dada por:
Por otro lado, fácilmente obtenemos que
[T ]βV ,βW = X = A−1 B = Mβ�W ,βW [T ]βV ,β�W
1 −1 2 −2
2 0 3 1
Mβ�V ,βV =
−1
6.3. Rango, Nulidad, Espacio Fila y Espacio Columna
1 1 3
0 1 −1 2 de una Matriz
y haciendo algunos cálculos (no muchos ni muy complicados) obtenemos En la observación 3.9 se afirmó que en la presente sección se probarı́a formalmente, usando
el corolario 3.5, que los conjuntos S y R, definidos en la parte 3 del ejemplo 3.1, son subespa-
2 −1 1 cios de Mn×1 (R) y Mm×1 (R), respectivamente. Antes que nada definiremos más formalmente
MβW ,β�W , = −2 2 −1 dichos conjuntos.
−1 1 −1
Definición 6.4. Consideremos una matriz A ∈ Mm×n (R). El conjunto
Al sustituir, se obtiene que
N(A) = Ker(A) = {x ∈ Mn×1 (R) : Ax = 0/m×1 }
[T ]β�V ,β�W = MβW ,β�W [T ]βV ,βW Mβ�V ,βV
es llamado espacio nulo, núcleo o kernel de A; y el conjunto
[T ]β�V = MβV ,β�V [T ]βV Mβ�V ,βV Observación 6.3. Notemos que por definición y ∈ Im(A) si y sólo si existe x ∈ Mn×1 (R)
tal que Ax = y.
Demostración. ¡Ejercicio!
Antes de dar algún ejemplo enunciaremos el teorema que permite garantizar que N(A) e
Im(A) son subespacios.
Corolario 6.13. Sean V y W dos espacios vectoriales de dimensión finita; βV una base
ordenada de V; βW y β�W dos bases ordenadas de W y T : V −→ W una transformación Teorema 6.14. Sea A ∈ Mm×n (R) cualquiera. Entonces N(A) es un subespacio de Mn×1 (R)
lineal. Entonces e Im(A) es un subespacio de Mm×1 (R).
[T ]βV ,β�W = MβW ,β�W [T ]βV ,βW
Demostración. Sólo probaremos que Im(A) es un subespacio de Mm×1 (R), se deja como
Demostración. ¡Ejercicio! ejercicio probar que N(A) es un subespacio de Mn×1 (R).
Notemos primero que por definición Im(A) ⊂ Mm×1 (R). Por otro lado, como A 0/n×1 = 0/m×1 ,
entonces 0/m×1 ∈ Im(A).
Nuevamente, el problema de hallar la matriz de transición de una transformación lineal Finalmente, sean α ∈ R y y1 , y2 ∈ Im(A) cualesquiera. Entonces existen x1 , x2 ∈ Mn×1 (R)
T : V −→ W, respecto a ciertas bases ordenadas βV y βW de V y W, respectivamente, tales que Ax1 = y1 y Ax2 = y2 . Queremos probar que y1 + αy2 ∈ Im(A).
obedece a la resolución de una ecuación matricial de la forma AX = B. En efecto, sean V, Escojamos x = x1 + αx2 . Entonces x ∈ Mn×1 (R) (¿por qué?) y además
W, T , βV , βW y β�W como en el corolario 6.13. Si conocemos, o bien si podemos calcular de
manera sencilla, las matrices A = MβW ,β�W y B = [T ]βV ,β�W (cuando W es uno de los espacios Ax = A(x1 + αx2 ) = Ax1 + αAx2 = y1 + αy2
2. Como A y B son equivalentes por filas, entonces cada fila de B es combinación lineal Solución. Sólo hace falta calcular la FERF de A.
de las filas de A y viceversa (ver ejercicio 3.3.1), es decir, para cada i ∈ {1, . . . , m}
se tiene que B(i) ∈ gen({A(1) , A(2) , . . . , A(m) }) y A(i) ∈ gen({B(1) , B(2) , . . . , B(m) }). En 2 2 −6 1 8 1 1 −3 1 6
consecuencia −4 −1 −3 −2 −19 −4 −1 −3 −2 −19
A= 1
F ↔ F3
R(A) = R(B) 1 −3 1 6 1 → 2 2 −6 1 8
2 4 −16 3 14 2 4 −16 3 14
3. Sea F ∈ Mm×n (R) la FERF de A. Entonces las filas no nulas de F son linealmente
1 1 −3 1 6 1 1 −3 1 6
independientes (¿por qué?) y en consecuencia forman una base para R(F ), por lo tanto, F2 → F2 + 4F1
→ 0 3 −15 5 3
si k es el número de filas no nulas de F , entonces dim(R(F )) = k, pero por la parte 2 F3 → F3 − 2F1
2 F ↔ F2 − F4 0 1 −5 1
0 0 0 −1 −4 2 → 0 0 0 −1 −4
R(A) = R(F ), ası́ que dim(R(A)) = dim(R(F )) = k. F4 → F4 − 2F1
0 2 −10 1 2 0 2 −10 1 2
Por otro lado, las columnas pivotes de F representan las columnas de A que son
1 0 2 0 3 1 0 2 0 3
linealmente independientes (en virtud del teorema 3.12) y que en consecuencia for- F 1 → F1 − F 2 0 1 −5 1 3 F2 → F2 + F3 0 1 −5 0 −1
man una base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto → →
F4 → F4 − 2F2 0 0 0 −1 −4 F4 → F4 − F3 0 0 0 −1 −4
dim(C(A)) = k = dim(R(A)) y, por la parte 1, tenemos que 0 0 0 −1 −4 0 0 0 0 0
dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A) 1 0 2 0 3
0 1 −5 0 −1
F3 → −F3
→ 0 0 0 1 4
4. ¡Ejercicio! 0 0 0 0 0
5. ¡Ejercicio! x1
x2
Ası́ que
x3 ∈ N(A) si y sólo si
x4
Corolario 6.16. A ∈ Mn×n (R) es invertible si y sólo si r(A) = n. x5
Demostración. ¡Ejercicio!
x1 +2x3 +3x5 = 0
x2 −5x3 −x5 = 0
Corolario 6.17. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R). Entonces el sistema Ax = b tiene al
x4 +4x5 = 0
menos una solución si y sólo si r([A|b]) = r(A).
Ejemplo 6.10. Calcular el espacio fila, el espacio columna, el espacio nulo, la imagen, y Luego
una base para cada uno de estos espacios; y la nulidad y el rango de la matriz
x1 −2x3 − 3x5 −2 −3
2 2 −6 1 8 x2 5x3 + x5 5 1
−4 −1 −3 −2 −19 x3 = x3 = x3 1 + x5 0
A=
1 1 −3 1 6 x4 −4x5 0 −4
2 4 −16 3 14 x5 x5 0 1
Por lo tanto, una base para el espacio nulo de A es: 6.4. Núcleo e Imagen de una Transformación Lineal
−2 −3 Definición 6.6. Sean V y W dos espacios vectoriales y T : V −→ W una transformación
5 1
lineal. Definiremos
1 , 0
0 −4
1. El núcleo o kernel de T como el conjunto
0 1
y ası́ N(T ) = Ker(T ) = {v ∈ V : T (v) = 0/W }
−2
−3
5 1
2. La imagen o recorrido de T como el conjunto
N(A) = gen
1 , 0
0 −4
Im(T ) = T (V) = {w ∈ W : T (v) = w para algún v ∈ V}
0 1
Además, una base para el espacio fila de A es: Observación 6.4. w ∈ Im(T ) si y sólo si existe v ∈ V tal que T (v) = w.
�� � � � � ��
1 0 2 0 3 , 0 1 −5 0 −1 , 0 0 0 1 4 Teorema 6.18. Sean V y W dos espacios vectoriales y T : V −→ W una transformación
lineal. Entonces N(T ) es un subespacio vectorial de V e Im(T ) es un subespacio vectorial de
luego W.
��� � � � � ���
R(A) = gen 1 0 2 0 3 , 0 1 −5 0 −1 , 0 0 0 1 4
Demostración. Es claro que N(T ) ⊂ V e Im(T ) ⊂ W.
Como los pivotes de la FERF de A están en las columnas 1,2 y 4, entonces las columnas Por la parte 1 del teorema 6.2, se tiene que T (0/V ) = 0/W , ası́ que 0/V ∈ N(T ) y 0/W ∈ Im(T ),
1,2 y 4 de A forman una base para el espacio imagen o espacio columna de A, es decir, de donde, N(T ) �= ∅ e Im(T ) �= ∅.
Por otro lado, sean v1 , v2 ∈ N(T ) y α ∈ R cualesquiera. Entonces
2 2 1
−4 , −1 , −2 T (v1 ) = 0/W = T (v2 )
1 1
1
2 4 3 Ası́ que
es una base para C(A) = Im(A) y en consecuencia T (v1 + αv2 ) = T (v1 ) + αT (v2 ) = 0/W +α 0/W = 0/W
Por lo tanto v1 + αv2 ∈ N(T ), en consecuencia, N(T ) es un subespacio de V.
2 2 1
−4 −1 −2
Finalmente, sean w1 , w2 ∈ Im(T ) y α ∈ R cualesquiera. Entonces, existen v1 , v2 ∈ V tales
C(A) = Im(A) = gen
1 , 1 , 1 que T (v1 ) = w1 y T (v2 ) = w2 .
Consideremos v = v1 + αv2 . Ası́ que v ∈ V y
2 4 3
Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y T (v) = T (v1 + αv2 ) = T (v1 ) + αT (v2 ) = w1 + αw2
r(A) = dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.
De donde w1 + αw2 ∈ Im(T ), luego Im(T ) es un subespacio de W.
Ejercicio 6.3.1. Pruebe que si A ∈ Mn×n (R), entonces existe k ≤ n tal que para cada r ≥ k
se cumple Definición 6.7. Sean V y W dos espacios vectoriales y T : V −→ W una transformación
� � � � lineal. Definiremos
1. N (Ar ) = N Ak y {0/n×1 } ⊂ N(A) ⊂ N(A2 ) ⊂ · · · ⊂ N Ak .
� � � �
2. Im (Ar ) = Im Ak e Im Ak ⊂ · · · ⊂ Im(A2 ) ⊂ Im(A) ⊂ Mn×1 (R). 1. La nulidad de T , denotada por n(T ), como n(T ) = dim(N(T )).
Además, si A no es invertible, entonces todas las contenciones en 1 y 2 son propias. 2. El rango de T , denotado por r(T ), como r(T ) = dim(Im(T )).
v ∈ V. Entonces N(O) = V e Im(O) = {0/W } (¡pruébelo!). � Por otro lado, la imagen de T es:
� � � � � �
2. Para la transformación identidad sobre V, esto es, la transformación IV : V −→ V x y x y
Im(T ) = (a, b, c) ∈ R3 : T = (a, b, c) para algún ∈ M2×2 (R)
dada por IV (v) = v para todo v ∈ V, se puede probar que Im(IV ) = V y N(IV ) = {0/V } z w z w
(¡pruébelo!). � � �
x y
Pero T = (a, b, c) si y sólo si
Ejemplo 6.12. Sea T la transformación dada en el ejemplo 6.6. Calcular n(T ) y r(T ). z w
2y −z = a
Solución. Por definición
�� � � � � x −y +w = b (6.2)
x y x y
3x −y −z +w = c
N(T ) = ∈ M2×2 (R) : T = (0, 0, 0)
z w z w
En consecuencia (a, b, c) ∈ Im(T ) si y sólo si el sistema (6.2) tiene solución. Al resolver
� � este sistema, obtenemos
x y
Pero T = (0, 0, 0) si y sólo si
z w
x − 12 z = − 12 b + 12 c x = 1
2
z − 12 b + 12 c
2y −z = 0 y − 12 z = 1
a ; o bien y = 1
z + 12 a
2 2
x −y +w = 0 (6.1) w = 1
a + 3
b − 1
c w = 1
a + 3
b − 12 c
2 2 2 2 2
3x −y −z +w = 0
� � Por lo tanto, el sistema (6.2) tiene solución para cada (a, b, c) ∈ R3 , en consecuencia
x y Im(T ) = R3 y el rango de T es r(T ) = 3.
Es decir ∈ N(T ) si y sólo si se satisface el sistema (6.1). Resolvamos este sistema.
z w
0 2 −1 0 1 −1 0 1 1 −1 0 1
1 −1 0 1 F 1 ↔ F2 0 2 −1 0 F3 → F3 − 3F1 0 2 −1 0 Observación 6.5. Nótese que la matriz de los sistemas (6.2) y (6.1) no es otra que la matriz
→ → [T ]βV ,βW , donde βV y βW son las bases canónicas de los espacios M2×2 (R) y R3 , respectivamente
3 −1 −1 1 3 −1 −1 1 0
2 −1 −2
1 (verifı́quelo).
1 −1 0 1 1 0 −2 1
F 1 → F1 + F2 Al igual que en el caso matricial, no hace falta resolver el sistema (6.2), la FERF de la
F2 → 2 F2 0
1
1 −2 1
0 → 0 1 −2 1
0
→ 0 F3 → F3 − 2F2 matriz de este sistema nos da toda la información, pero a diferencia del caso matricial, los
2 −1 −2 0 0 0 −2
pivotes de esta matriz nos dan las coordenadas, respecto a la base canónica de R3 , de los
1 0 − 12 1 1 0 − 12 0
vectores que forman una base para Im(T ). Para entender bien este comentario, consideremos
F3 → − 12 F3 0 1 − 12 0 F1 → F1 − F3 0 1 − 12 0
→ 0 0 → el siguiente ejemplo.
0 1 0 0 0 1
De donde Ejemplo 6.13. Calcular el núcleo, la nulidad, la imagen y el rango de la transformación
lineal T dada en el ejemplo 6.7.
x − 12 z = 0 x = 12 z � �
y −2z 1
= 0 ; o bien y = 12 z a b
Solución. ∈ N(T ) si y sólo si
w = 0 w = 0 c d
Haciendo z = 2α, con α ∈ R, obtenemos a +b −c = 0
� � � � � � a +2b +c +d = 0 (6.3)
x y α α 1 1 −a −3b −3c −2d = 0
= =α
z w 2α 0 2 0 La matriz de este sistema es
Por lo tanto el núcleo de T es:
��� ��� 1 1 −1 0
1 1 [T ]βV ,βW = 1 2 1 1
N(T ) = gen
2 0 −1 −3 −3 −2
donde βV y βW son las bases canónicas de M2×2 (R) y P2 [x] respectivamente. Su FERF es Demostración. Ver Apéndice D.
1 0 −3 −1
0 1 2 1 Corolario 6.20. Sean V, W, βV , βW y T como en el teorema 6.19. Entonces
0 0 0 0 1. n(T ) = n ([T ]βV ,βW )
Por lo tanto
2. r(T ) = r ([T ]βV ,βW )
� �
a −3c −d = 0 a = 3c + d 3. n(T ) + r(T ) = n = dim(V)
; o bien
b +2c +d = 0 b = −2c − d
Demostración. ¡Ejercicio!
Ası́ que
� � � � � � � �
a b 3c + d −2c − d 3 −2 1 −1 El siguiente ejemplo ilustra estos resultados.
= =c +d
c d c d 1 0 0 1
Ejemplo 6.14. Sean T , β�V y β�W como en el ejemplo 6.7. Usar la matriz [T ]β�V ,β�W para hallar
En consecuencia ��� � � ��� el núcleo, la nulidad, la imagen y el rango de la transformación lineal T .
3 −2 1 −1
N(T ) = gen ; Solución. En primer lugar, recordemos que
1 0 0 1
�� � � � � � � ��
y una base para N(T ) es 1 2 −1 0 2 3 −2 1
�� � � �� β�V = ; ; ;
3 −2 1 −1 −1 0 1 1 1 −1 3 2
;
1 0 0 1 � �
β�W = 1 + x; x + x2 ; 1 − 2x2
luego n(T ) = dim(N(T )) = 2. Los pivotes de la FERF de la matriz del sistema, están en
las columnas 1 y 2, ası́ que las columnas 1 y 2 de la matriz original, son las matrices de Sabemos que
coordenadas, respecto a βW , de dos vectores que forman una base para Im(T ), por lo tanto 0 −9 −12 −27
[T ]β�V ,β�W
= 4 10 20 32
r(T ) = dim(Im(T )) = 2, además
4 7 16 23
�� ��
Im(T ) = gen 1 + x − x2 ; 1 + 2x − 3x2 Sin mucha dificultad, obtenemos que la FERF de esta matriz es
y una base para Im(T ) es 1 0 53 21
� � 0 1 4 3
1 + x − x2 ; 1 + 2x − 3x2 3
0 0 0 0
� �
Luego una base para N [T ]β�V ,β�W es
La observación 6.5 puede ser generalizada de la siguiente manera.
Teorema 6.19. Sean V y W dos espacios vectoriales, βV = {v1 , v2 , . . . , vn } una base ordena- −5
−1
−4 −6
da de V, βW = {w1 , w2 , . . . , wm } una base ordenada de W y T : V −→ W una transformación
3 ; 0
lineal. Entonces
0 2
1. {u1 , u2 , . . . , uk } es una base para N(T ) si y sólo si {[u1 ]βV , [u2 ]βV , . . . , [uk ]βV } es una base y usando el teorema 6.19, tenemos que estas dos matrices son las matrices de coordenadas
para N([T ]βV ,βW ) respecto a la base β�V de dos vectores que forman una base para N(T ), hallemos estos vectores.
� � � � � � � � � �
2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y sólo si {[z1 ]βW , [z2 ]βW , . . . , [zr ]βW } es una base 1 2 −1 0 2 3 −2 1 5 −1
para Im([T ]βV ,βW ) (−5) + (−4) +3 +0 =
−1 0 1 1 1 −1 3 2 4 −7
� � � � � � � � � �
1 2 −1 0 2 3 −2 1 1 0 Ejemplo 6.15 (Reflexiones en R2 ). En R2 consideremos una recta L que pasa por el origen.
(−1) + (−6) +0 +2 =
−1 0 1 1 1 −1 3 2 1 −2 Nuestra intención es definir una transformación lineal TL : R2 −→ R2 de tal manera que
Luego, una base para N(T ) es todo punto sobre el plano sea reflejado respecto a la recta L.
�� � � �� Solución. En primer lugar, sean a, b ∈ R tales que L = {(x, y) ∈ R2 : ax+by = 0}. Dado que
5 −1 1 0
; L es una recta, debe ser a2 + b2 �= 0. Sea (u, v) ∈ R2 cualquiera y hagamos TL (u, v) = (z, w).
4 −7 1 −2
Como queremos que TL sea una reflexión respecto a la recta L, debe ocurrir que (u, v) y
y ası́ (z, w) deben estar ambos sobre una misma recta L� la cual es perpendicular a L. Siendo
��� � � ���
5 −1 1 0 L� perpendicular a L, existe c ∈ R tal que L� = {(x, y) ∈ R2 : bx − ay = c}. Dado que
N(T ) = gen ; (u, v), (z, w) ∈ L� , entonces bz − aw = c = bu − av o bien
4 −7 1 −2
y n(T ) = 2. bz − aw = bu − av (6.4)
Por otro lado, dado que los pivotes en la FERF de la matriz [T ]β�V ,β�W se encuentran en las
� �
Por otro lado, el punto medio entre (u, v) y (z, w), que es 12 (u + z, v + w), debe estar sobre
columnas 1 y 2, entonces una base para Im [T ]β�V ,β�W es
la recta L (también sobre la recta L� ), de donde a2 (u + z) + 2b (v + w) = 0 o bien
0 −9 az + bw = −au − bv (6.5)
4 ; 10
Con las ecuaciones (6.4) y (6.5) obtenemos el siguiente sistema de ecuaciones
4 7
�
y como antes, usando el teorema 6.19, tenemos que estas dos matrices son las matrices de bz −aw = bu − av
coordenadas respecto a la base β�W de dos vectores que forman una base para Im(T ), veamos az +bw = −au − bv
cuales son estos vectores.
La matriz de éste sistema es � �
b −a
0(1 + x) + 4(x + x2 ) + 4(1 − 2x2 ) = 4 + 4x − 4x2
a b
(−9)(1 + x) + 10(x + x2 ) + 7(1 − 2x2 ) = −2 + x − 4x2 cuyo determinante es b2 + a2 �= 0, ası́ que es invertible y por lo tanto podemos aplicar la regla
Por lo tanto una base para Im(T ) es de Cramer para resolver el sistema
� � � �
� � � bu − av −a � � 2 � � bu − av �� � �
4 + 4x − 4x2 ; −2 + x − 4x2 � � = −a + b2 u − 2abv y � b = −2abu + a2 − b2 v
� −au − bv b � � a −au − bv �
y ası́ �� �� En consecuencia
Im(T ) = gen 4 + 4x − 4x2 ; −2 + x − 4x2
(−a2 + b2 ) u − 2abv −2abu + (a2 − b2 ) v
y r(T ) = 2. z= y w=
a2 + b2 a2 + b2
Por lo tanto, la transformación TL : R2 −→ R2 que define una reflexión respecto a la recta
L : ax + by = 0, viene dada por
6.5. Algunas Aplicaciones de las Transformaciones Li- � �
(−a2 + b2 ) u − 2abv −2abu + (a2 − b2 ) v
neales TL (u, v) = ,
a2 + b2 a2 + b 2
Finalizaremos nuestro estudio sobre las transformaciones lineales abordando algunas de las
Matricialmente, esta transformación lineal puede ser representada por
aplicaciones que tienen éstas en la ingenierı́a y en otras ramas de estudio, entre estas aplica-
� �� � � �
ciones contamos con las reflexiones, expansiones, contracciones, deformaciones y rotaciones, 1 −a2 + b2 −2ab u 1 (−a2 + b2 ) u − 2abv
daremos algunos ejemplos para mostrar cada una de estas aplicaciones. 2 2 = 2 2 2
2
a +b 2 −2ab a −b v a +b 2 −2abu + (a − b ) v
Si calculamos el determinante de la matriz de la transformación se obtiene que es −1 Al igual que en el caso de las reflexiones en R2 , también se puede probar que, en este caso,
(¡verifı́quelo!), además, es claro que es una matriz simétrica cuya traza es 0. la matriz de la transformación es una matriz simétrica con determinante −1 y traza 0.
Casos particulares de éste tipo de reflexiones, son aquellas que se hacen respecto a los ejes Ahora bien, si L es una recta en R3 la cual pasa por el origen, digamos
coordenados y respecto a la recta y = x, por ejemplo. Respecto al eje x, la recta es L : y = 0,
es decir, a = 0 y b = 1, obteniendo TL (u, v) = (u, −v). Respecto al eje y, la recta es L : x = 0, L = {(x, y, z) ∈ R3 : x = at, y = bt, z = ct para algún t ∈ R}
en éste caso a = 1 y b = 0, luego TL (u, v) = (−u, v). Finalmente, respecto a la recta y = x, donde a2 + b2 + c2 �= 0, se puede probar que la transformación lineal TL : R3 −→ R3 , que nos
o bien x − y = 0, ası́ que en éste caso a = 1 y b = −1 y ası́ TL (u, v) = (v, u). En estos casos da la reflexión respecto a la recta L, viene dada por
las matrices de reflexión son, respectivamente � 2
� � � � � � (a − b2 − c2 ) u + 2abv + 2acw
1 0 −1 0 0 1 TL (u, v, w) = ,
, y a2 + b 2 + c 2
0 −1 0 1 1 0 �
2abu + (−a2 + b2 − c2 ) v + 2bcw 2acu + 2bcv + (−a2 − b2 + c2 ) w
2 2 2
, 2 2 2
Si consideramos la recta L : 2x − 3y = 0, tenemos que a = 2 y b = −3, por tanto a +b +c a +b +c
1
TL (u, v) = 13 (5u + 12v, 12u − 5v), la matriz de reflexión en este caso es
La representación matricial de ésta transformación es la siguiente
� � 2
1 5 12 a − b2 − c 2 2ab 2ac u
13 12 −5 1 1
2ab 2 2
−a + b − c 2
2bc v = 2
a2 + b 2 + c 2 a + b2 + b 2
En R2 podemos también definir una reflexión respecto al origen, la cual viene dada por 2ac 2bc −a2 − b2 + c2 w
T0 (u, v) = (−u, −v) y cuya matriz de reflexión es −I2 . La matriz de ésta reflexión no tiene (a2 − b2 − c2 ) u + 2abv + 2acw
traza 0 sino −2 ni determinante −1 sino 1 pero sigue siendo simétrica. 2abu + (−a + b − c ) v + 2bcw
2 2 2
Ejemplo 6.16 (Reflexiones en R3 ). En R3 consideremos un plano Π (o una recta L) pasando Nótese que esta transformación lineal difiere de la anterior solamente en el signo, es decir,
por el origen. Nuestra intención es definir una transformación lineal TΠ : R3 −→ R3 (o la matriz matriz de esta transformación es la opuesta de la encontrada anteriormente, siendo
TL : R3 −→ R3 ) de tal manera que todo punto sobre el espacio sea reflejado respecto al palno la matriz de la transformación una matriz cuadrada de orden 3, entonces el determinante
Π (o respecto a la recta L). sigue siendo −1 y claro que la matriz sigue teniendo traza 0 y es simétrica.
Como en el caso de R2 , estudiado antes, la reflexión respecto al origen está dada por
Solución. Haciendo un estudio análogo al que se hizo para las reflexiones en R2 , dado un T0 (u, v, w) = (−u, −v, −w) y la matriz de reflexión es −I3 . ¿Cuáles son en éste caso las
plano Π = {(x, y, z) ∈ R3 : ax + by + cz = 0}, entonces a2 + b2 + c2 �= 0 y la transformación reflexiones respecto a los planos coordenados y respecto a los ejes coordenados?.
lineal TΠ : R3 −→ R3 , que representa la reflexión respecto al palno Π, viene dada por
�
(−a2 + b2 + c2 ) u − 2abv − 2acw Ejemplo 6.17 (Expansiones y Contracciones). Consideremos números fijos a, b, c > 0, las
TΠ (u, v, w) = ,
a2 + b 2 + c 2 siguientes transformaciones son expansiones (si son mayores que 1) o contracciones (si son
�
−2abu + (a − b + c ) v − 2bcw −2acu − 2bcv + (a2 + b2 − c2 ) w
2 2 2 menores que 1) en R3
,
a2 + b 2 + c 2 a2 + b 2 + c 2
Ta (x, y, z) = (ax, y, z) (respecto al eje x)
La representación matricial de ésta transformación es la siguiente
Tb (x, y, z) = (x, by, z) (respecto al eje y)
−a2 + b2 + c2 −2ab −2ac u Tc (x, y, z) = (x, y, cz) (respecto al eje z)
1 1
−2ab 2
a −b +c 2 2
−2bc v = 2
a2 + b 2 + c 2 2 2 2 a + b 2 + b2 Las matrices que representan éstas transformaciones son, respectivamente
−2ac −2bc a +b −c w
(−a2 + b2 + c2 ) u − 2abv − 2acw a 0 0 1 0 0 1 0 0
−2abu + (a2 − b2 + c2 ) v − 2bcw 0 1
0 , 0 b 0 y 0 1 0
−2acu − 2bcv + (a2 + b2 − c2 ) w 0 0 1 0 0 1 0 0 c
que son matrices (elementales tipo 1) con determinante positivo y distinto de 1. Éstas trans- Por lo tanto
formaciones, como sus nombre lo indican, expanden o contraen un vector respecto a uno de Tθ (x, y) = (x cos(θ) − y sen(θ), x sen(θ) + y cos(θ))
los ejes coordenados por un factor positivo, a saber a, b o c. �
La representación matricial para Tθ es
Ejemplo 6.18 (Deformaciones). Las deformaciones en R3 son de tres tipos, éstas son � �� � � �
cos(θ) − sen(θ) x x cos(θ) − y sen(θ)
=
Tx (x, y, z) = (x + ax y + bx z, y, z) (respecto al eje x) sen(θ) cos(θ) y x sen(θ) + y cos(θ)
Ty (x, y, z) = (x, ay x + y + by z, z) (respecto al eje y) es sencillo darse cuenta que la matriz que representa la transformación tiene determinante 1
y es antisimétrica.
Tz (x, y, z) = (x, y, az x + bz y + z) (respecto al eje z) Es de hacer notar que cuando θ = π, la transformación no es otra sino una reflexión
donde ax , bx , ay , by , az , bz ∈ R son fijos. Las matrices de éstas tres transformaciones son, respecto al origen (¡verifı́quelo!).
respectivamente
1 ax bx 1 0 0 1 0 0 Vamos a ver qué ocurre con las rotaciones en el espacio.
0 1 0 , ay 1 b y y 0 1 0
Ejemplo 6.20 (Rotaciones en R3 ). Definir una transformación lineal Tθ : R3 −→ R3 que
0 0 1 0 0 1 az b z 1
permita rotar, un punto (x, y, z) en el espacio, mediante un ángulo θ, medido en sentido
Al igual que en las contracciones y expansiones, en las deformaciones permanecen fijas dos antihorario, respecto a una de las ejes coordenados.
de las coordenadas, pero a diferencia de las primeras, en las que el “desplazamiento” de la
Solución. Al igual que el caso del plano, consideremos (x, y, z) ∈ R3 cualquiera. Supon-
única coordenada que varia es hecha por un factor de ella misma, en las deformaciones el
gamos que queremos rotar el punto (x, y, z) alrededor del eje x un ángulo θ, medido en
“desplazamiento” es hecho por medio de factores de las otras dos coordenadas que permanecen
sentido antihorario. Al proyectar el punto (x, y, z) sobre el plano yz obtenemos el punto
fijas. �
(0, y, z), al aplicar a éste último una rotación, sobre el plano yz, con un ángulo θ, obtene-
Tanto para las contracciones y expansiones, como para las deformaciones, existen sus si- mos el punto (0, y cos(θ) − z sen(θ), y sen(θ) + z cos(θ)), al trasladar éste punto nuevamente
milares en el plano R2 , además, podemos hacer combinaciones de éstas. al plano que contiene al punto original, obtenemos el punto deseado, el cual no es otro que
Pasemos ahora a definir la última de las aplicaciones como son las rotaciones, primero (x, y cos(θ) − z sen(θ), y sen(θ) + z cos(θ)), es decir, la transformación deseada está dada por
haremos un estudio en el plano y luego lo haremos en el espacio.
Tθ,x (x, y, z) = (x, y cos(θ) − z sen(θ), y sen(θ) + z cos(θ))
Ejemplo 6.19 (Rotaciones en R2 ). Definir una transformación lineal Tθ : R2 −→ R2 que
permita rotar, un punto (x, y) sobre el plano, mediante un ángulo θ medido en sentido anti- De manera análoga se obtienen las otras dos rotaciones que son
horario.
Tθ,y (x, y, z) = (x cos(θ) − z sen(θ), y, x sen(θ) + z cos(θ)) (rotación alrededor del eje y)
Solución. Sea (x, y) ∈ R2 cualquiera. Supongamos que θ0 es al ángulo que forma el vector
(x, y) con respecto al semieje x positivo. Si definimos Tθ (x, y) = (u, v) como lo requiere el Tθ,z (x, y, z) = (x cos(θ) − y sen(θ), x sen(θ) + y cos(θ), z) (rotación alrededor del eje z)
enunciado, entonces el ángulo que forma el vector (u, v) respecto al semieje x positivo es Las matrices en cada uno de estos casos son, respectivamente
θ + θ0 , además, la longitud de ambos vectores es fija, digamos r > 0, entonces
1 0 0 cos(θ) 0 − sen(θ) cos(θ) − sen(θ) 0
x2 + y 2 = r 2 = u 2 + v 2 0 cos(θ) − sen(θ) , 0 1 0 y sen(θ) cos(θ) 0
0 sen(θ) cos(θ) sen(θ) 0 cos(θ) 0 0 1
x = r cos(θ0 ) y y = r sen(θ0 )
y además Todas estas matrices son antisimétricas y tienen determinante 1.
Dejamos al lector el definir una transformación lineal que represente una rotación de un
u = r cos(θ + θ0 ) = r cos(θ) cos(θ0 ) − r sen(θ) sen(θ0 ) = x cos(θ) − y sen(θ) ángulo θ alrededor de una recta fija L.
v = r sen(θ + θ0 ) = r sen(θ) cos(θ0 ) + r cos(θ) sen(θ0 ) = x sen(θ) + y cos(θ)
Seguidamente daremos algunos apéndices que servirán para apoyar toda la teorı́a previa, Campos y Números Complejos
no forman parte ı́ntegra del curso en sı́, sin embargo, creemos que le puede servir al lector
interesado en ahondar más sobre el Álgebra Lineal, aunque el interés no es extendernos
demasiado sobre la materia. En el último de estos apéndices, el apéndice D, se dan las
demostraciones de algunos de los teoremas enunciados en los capı́tulos previos a los apéndices, A.1. Campos
aquellas que creemos son muy largas o que escapan al objetivo del curso. Esperamos les sea
de utilidad para el estudio y comprensión de la materia que se expone en este curso. Definición A.1. Un campo o cuerpo es una terna (K, +, ·), formada por un conjunto no
vacı́o K y dos operaciones binarias +, llamada suma o adición, y ·, llamada producto o
multiplicación, definidas sobre K tales que
209 210
A.1. Campos Apéndice A. Campos y Números Complejos
Observación A.1. Hacemos notar que las operaciones + y · no son, en general, las opera- Ejemplo A.3. En R2 definamos las operaciones binarias + y · como sigue
ciones usuales de adición y multiplicación en R, aunque estemos usando el mismo sı́mbolo y
el mismo nombre. Además, se debe tener cuidado con los neutros aditivo y multiplicativo, al (a, b) + (c, d) = (a + c, b + d)
igual que en el caso de las operaciones + y ·, estamos usando los mismos sı́mbolos que se usan
para los números reales 0 y 1, pero estos son sólo sı́mbolos, no representan necesariamente (a, b) · (c, d) = (ac − bd, ad + bc)
números reales. Es claro que dichas operaciones son cerradas. Por otro lado
Observación A.2. Daremos a la operación + mayor jerarquı́a que a la operación ·, esto
es, la expresión (a · b) + c puede ser escrita, sin error a confusión, como a · b + c, en cambio, (a, b) + (c, d) = (a + c, b + d) = (c + a, d + b) = (c, d) + (a, b)
en la expresión a · (b + c) no podemos suprimir los paréntesis.
(a, b) · (c, d) = (ac − bd, ad + bc) = (ca − db, cb + da) = (c, d) · (a, b)
Ejemplo A.1.
lo que prueba la conmutatividad de las operaciones.
1. El ejemplo más a la mano (en nuestro caso) de un campo es el de los números reales, es
claro que R junto con las operaciones usuales + y ·, conocidas ampliamente por todos ((a, b) + (c, d)) + (x, y) = (a + c, b + d) + (x, y) = ((a + c) + x, (b + d) + y)
nosotros, es un campo. �
= (a + (c + x), b + (d + y)) = (a, b) + (c + x, d + y)
2. Otro ejemplo de un campo, bastante conocido por nosotros, es el campo de los números = (a, b) + ((c, d) + (x, y))
racionales (Q, +, ·). �
3. En cambio, el conjunto de los números enteros Z, junto con las operaciones usuales + ((a, b) · (c, d)) · (x, y) = (ac − bd, ad + bc) · (x, y)
y ·, no es un campo, pues 2 ∈ Z y 2 �= 0 pero no existe x ∈ Z tal que 2x = 1, es decir,
2 no tiene inverso multiplicativo en Z. � = ((ac − bd)x − (ad + bc)y, (ac − bd)y + (ad + bc)x)
= (acx − bdx − ady − bcy, acy − bdy + adx + bcx)
Ejemplo A.2. Sobre el conjunto Z3 = {0, 1, 2}, definamos las operaciones binarias + y ·
= (a(cx − dy) − b(cy + dx), a(cy + dx) + b(cx − dy))
mediante las siguientes tablas
= (a, b) · (cx − dy, cy + dx) = (a, b) · ((c, d) · (x, y))
+ 0 1 2 · 0 1 2
0 0 1 2 0 0 0 0 Ası́ que las operaciones definidas son asociativas.
1 1 2 0 1 0 1 2
2 2 0 1 2 0 2 1 (a, b) + (0, 0) = (a + 0, b + 0) = (a, b)
No es difı́cil, aunque sı́ algo engorroso, probar que Z3 , junto con estas operaciones, es un
campo. Por ejemplo, la cerradura de ambas operaciones es evidente. La conmutatividad de (a, b) · (1, 0) = (a · 1 − b · 0, a · 0 + b · 1) = (a, b)
éstas puede deducirse del hecho de que las tablas que las definen forman matrices simétricas. Por lo tanto (0, 0) es un neutro aditivo y (1, 0) es un neutro multiplicativo. Además
La existencia de neutros aditivo y multiplicativo, también se deduce fácilmente a partir de
las tablas, basta con mirar, en la primera tabla, la primera columna o primera fila, corres- (a, b) + (−a, −b) = (a + (−a), b + (−b)) = (0, 0)
pondiente al elemento 0, para darse cuenta que dicho elemento hace las veces de un neutro
a
aditivo (de hecho es el único), y basta con observar la segunda columna o segunda fila de Dado (a, b) ∈ R2 con (a, b) �= (0, 0), entonces a2 + b2 �= 0. Definamos c = y
la segunda tabla, para percatarse que el elemento 1 es un neutro multiplicativo (también es a2 + b 2
−b
único). Además, un inverso aditivo de 0 es el mismo, de 1 es 2 y de 2 es 1 (¿por qué?). Un d= . Luego
a2 + b 2
inverso multiplicativo de 1 es 1 y de 2 es 2 (¿por qué?). El lector puede verificar el resto de
las propiedades. Este campo se conoce con el nombre de enteros módulo 3. En general, si a2 −b2 −ab ab
p ∈ Z+ es un número primo, entonces sobre Zp = {0, 1, . . . , p − 1} se pueden definir opera- ac = ; bd = ; ad = y bc =
a2 + b 2 a2 + b2 a2 + b 2 a2 + b 2
ciones + y · tales que Zp , junto con estas operaciones, sea un campo, este campo se conoce
con el nombre de enteros módulo p. Cuando p no es primo, Zp no puede ser dotado de una Ası́ que
estructura de campo. � (a, b) · (c, d) = (ac − bd, ad + bc) = (1, 0)
� � a
a −b 2. El cociente de a sobre b como = ab−1 si b �= 0.
En consecuencia (−a, −b) es un inverso aditivo de (a, b) y , es un inverso b
a2 + b2 a2 + b2
multiplicativo de (a, b) �= (0, 0). Finalmente 1
Observación A.6. Note que a−1 = a−1 1 = 1a−1 = .
(a, b) · ((c, d) + (x, y)) = (a, b) · (c + x, d + y) a
= (a(c + x) − b(d + y), a(d + y) + b(c + x)) En lo que sigue K representa un campo.
= (ac + ax − bd − by, ad + ay + bc + bx) Teorema A.2 (Leyes de Cancelación). Sean a, b, c ∈ K.
= ((ac − bd) + (ax − by), (ad + bc) + (ay + bx))
= (ac − bd, ad + bc) + (ax − by, ay + bx) 1. Si a + c = b + c, entonces a = b.
= (a, b) · (c, d) + (a, b) · (x, y) 2. Si c �= 0 y ac = bc, entonces a = b.
Por lo tanto se cumple la propiedad distributiva. En consecuencia R2 , junto con las opera- Demostración.
ciones + y · definidas al inicio del ejemplo, es un campo. �
Observación A.3. Para no recargar demasiado la notación, siempre que no haya error a 1. Supongamos que a + c = b + c.
confusión, escribiremos ab en lugar de a · b.
a+c = b+c
Observación A.4. Siempre que no haya error a confusión, nos referiremos a K como el (a + c) + (−c) = (a + c) + (−c) (sumando −c a ambos lados)
campo en lugar de la terna (K, +, ·), sobrentendiendo las operaciones binarias + y ·, esto es a + (c + (−c)) = b + (c + (−c)) (por asociatividad)
sólo para simplificar la notación. a+0 = b + 0 (por opuesto aditivo)
Teorema A.1. Sea K un campo cualquiera. Entonces a = b (por neutro aditivo)
A’3. Existe un único 0 ∈ K tal que para cada a ∈ K se cumple que a+0 = a (existencia 2. Dado que c �= 0. existe c−1 ∈ K tal que cc−1 = 1. Supongamos que ac = bc.
y unicidad del neutro aditivo)
ac = bc
A’4. Para cada a ∈ K existe un único �
a ∈ K tal que a + � a es denotado por −a
a = 0, � (ac)c−1 = (ac)c−1 (multiplicando por c−1 a ambos lados)
(existencia y unicidad del inverso aditivo)
a(cc−1 ) = b(cc−1 ) (por asociatividad)
M’3. Existe un único 1 ∈ K tal que para cada a ∈ K se cumple que a1 = a (existencia a1 = b1 (por opuesto multiplicativo)
y unicidad del neutro multiplicativo) a = b (por neutro multiplicativo)
Observación A.5. Al conjunto K sin el neutro aditivo lo denotaremos por K∗ , esto es, 2. Si a �= 0, entonces (a−1 )−1 = a.
K∗ = K � {0}.
Demostración. ¡Ejercicio!
Definición A.2. Dados un campo K y a, b ∈ K, definamos
Definición A.3. Sea K0 un subconjunto no vacı́o de un campo K. Diremos que K0 es un 2. Consideremos el campo R2 dado en el ejemplo A.3. Entonces
subcampo de K si K0 junto con las operaciones + y ·, definidas sobre K, es también un (1, 2)2 = (1, 2)1 · (1, 2) = (1, 2) · (1, 2) = (1 · 1 − 2 · 2, 1 · 2 + 2 · 1) = (−3, 4)
campo. Si adicionalmente K0 �= K, se dice que K0 es un subcampo propio de K.
(1, 2)3 = (1, 2)2 · (1, 2) = (−3, 4) · (1, 2) = (−3 · 1 − 4 · 2, −3 · 2 + 4 · 1) = (−11, −2).
� � � �
Ejemplo A.5. Sea K un campo cualquiera. Entonces 1 −2 1 2
(1, 2)−1 = , = , −
1 2 + 22 1 2 + 22 5 5
1. K0 = {0} es un subcampo de K. � � �
� �
−2 2 −1 −1 3 4
(1, 2) = (1, 2) = (−3, 4) = − , −
2. K es un subcampo de si mismo. � 25 25
� �
−3
� �
3 −1 −1 11 2
3. Q es un subcampo (propio) de R. � (1, 2) = (1, 2) = (−11, −2) = − ,
125 125
4. Q2 es un subcampo (propio) de R2 (ver el ejemplo A.3). � �
Teorema A.7. Sean a, b ∈ K cualesquiera y m, n ∈ Z+ . Entonces
Teorema A.6. Sean K1 , K2 , K3 tres campos tales que K1 es un subcampo de K2 y K2 es un n
1. (a−1 ) = a−n siempre que a �= 0.
subcampo de K3 . Entonces K1 es un subcampo de K3 .
2. (ab) = an bn .
n
Demostración. ¡Ejercicio! � a � n an
3. = n siempre que b �= 0.
b b
Definición A.4. Consideremos un campo K. Dado un elemento cualquiera a ∈ K y un 4. am an = am+n .
número entero n, podemos definir la potencia n-ésima de a, denotado por an , como sigue
am
5. = am−n siempre que a �= 0.
si a = 0 y n ≥ 1 an
0
1 si a �= 0 y n = 0 6. (am )n = amn
an =
an−1 a si a �= 0 y n ≥ 1 n � �
� � �
−n −1 n n n!
(a ) si a �= 0 y n ≤ −1 7. (a + b)n = an−k bk , donde = .
k=0
k k k!(n − k)!
Observación A.8. Obsérvese que al igual que en R, ¡00 no está definido!, además a0 = 1 y
Demostración. ¡Ejercicio!
a1 = a0 a = aa0 = a1 = a para cada a �= 0, de donde a1 = a para cada a ∈ K.
Ejemplo A.6. Podemos definir raı́ces n-ésimas de un elemento de un campo K de manera análoga a como
se define en R.
1. Consideremos el campo Z3 (ver ejemplo A.2). Entonces
Definición A.5. Consideremos un campo K. Sean n ∈ √ Z+ y a ∈ K. Diremos que b ∈ K
2 1 es una raı́z n-ésima de a si bn = a. Denotaremos por n a o bien a1/n a todas las raı́ces
2 = 2 · 2 = 2 · 2 = 1;
n-ésimas de a.
23 = 22 · 2 = 1 · 2 = 2. Observación A.9. Al igual que en el caso real, las raı́ces de orden
√ 2 (raı́ces cuadradas) de
−1
un elemento a de un campo K, las denotaremos simplemente por a.
2 = 2 (¿por qué)
� �−1 Observación A.10. Un elemento a de un campo K puede tener varias raı́ces n-ésimas, eso
2−2 = 22 = 1−1 = 1 mismo ocurre en R, por ejemplo, 2 y −2 son raı́ces cuadradas de 4.
−3
� 3 �−1 Ejemplo A.7. Según el ejemplo anterior, en el campo Z3 , una raı́z cuadrada de 1 es 2
2 = 2 = 2−1 = 2
(¿existe otra?) y una raı́z cúbica de 2 es 2 (¿existe otra?); y en el campo R2 , (1, 2) es una
� raı́z cuadrada de (−3, 4) y una raı́z cúbica de (−11, −2). �
A.2. El Campo de los Números Complejos Existe una tercera manera de ver a un número complejo, llamada forma polar de un
número complejo, la cual estudiaremos más adelante.
2 √ √
En los números reales, la ecuación x + 1 = 0 no tiene solución, por lo cual, a pesar de
toda la riqueza de propiedades con que goza el campo R, se hizo necesario “extender ” R a Ejemplo A.9. Si z = 2 + 3i y w = 1 + 2i, entonces
� √ � √
un campo en el cual la ecuación en cuestión tenga solución y del cual R sea un subcampo, −z = −2 + − 3 i = −2 − 3i;
dicho campo es llamado el campo de los números complejos.
Sea i la solución de la ecuación x2 + 1, esto es, i2 + 1 = 0 o equivalentemente i2 = −1, i se √ � √ � √
1 − 2 1 − 2 1 2
conoce con el nombre de unidad imaginaria, definamos el conjunto C = {a + bi : a, b ∈ R} w−1 = �√ �2 + �√ �2 i = + i= − i;
12 + 2 12 + 2 3 3 3 3
y sobre éste definamos las operaciones binarias + y · como sigue
� √ � √ �√ √ � �√ √ �
(a + bi) + (c + di) = (a + c) + (b + d)i (A.1) z + w = 2 + 3i + (1 + 2i) = (2 + 1) + 3+ 2 i=3+ 3 + 2 i;
(a + bi) · (c + di) = (ac − bd) + (ad + bc)i (A.2) �
√ �� √ � � √ √ � � √ √ �
zw = 3i 1 + 2i = 2 · 1 − 3 · 2 + 2 · 2 + 3 · 1 i
2+
Entonces C, junto con estas operaciones, es un campo (¡pruébelo!), el cual llamaremos � √ � � √ √ �
campo de los números complejos. = 2− 6 + 2 2+ 3 i
Definición A.6. Dado un número complejo z = a + bi, los números reales Re(z) = a �
e Im(z) = b son llamados parte real y parte imaginaria, respectivamente, del número
complejo z, cuando Re(z) = 0, decimos que z es un número imaginario puro y cuando Ejemplo A.10. Sean z y w son como en el ejemplo A.9. Entonces
� √ � � √ � �√ √ �
Im(z) = 0, entonces z ∈ R. w − z = w + (−z) = 1 + 2i + −2 − 3i = −1 + 2 − 3 i;
Ejemplo A.8.√ √ � √ � � √ � �√ √ �
Si z = 1 + 2i, entonces Re(z) = 1, Im(z) = 2. � z − w = z + (−w) = 2 + 3i + −1 − 2i = 1 + 3− 2 i
Definición A.7. Dados dos números complejos z = a + bi y w = c + di, diremos que z y w �
son iguales si a = c y b = d, en cuyo caso escribiremos z = w, esto es, z = w si y sólo si
Re z = Re w e Im z = Im w.
Definición A.8. Si z = a + bi, entonces el número√ complejo z = a + (−b)i = a − bi es
llamado el conjugado de z y el número real |z| = a2 + b2 es llamado valor absoluto o
Compare las operaciones dadas en (A.1) y (A.2) con las definidas en el ejemplo A.3. módulo de z. Note que cuando z ∈ R, entonces |z| coincide con el valor absoluto en R.
√
En realidad el campo C y el campo dado en el ejemplo A.3 pueden ser vistos como el Ejemplo A.11. Si z = 5 + 2i, entonces
“mismo ” campo (son isomorfos), es decir, un número complejo puede ser visto como un �� � �� �
para ordenado (a, b) ∈ R2 o como una expresión de la forma a+bi, llamada forma binómica, √ √ √ 2 √ 2
z = 5 + 2i = 5 − 2i; |z| = 5 + 22 = 3; |z| = 5 + (−2)2 = 3
con a, b ∈ R e i2 = −1.
Por lo tanto, si z = a + ib, entonces −z = −a + (−b)i además, si z = a + bi �= 0, entonces �
a2 + b2 �= 0 y
a −b Ejemplo A.12. Sean z y w son como en el ejemplo A.9. Entonces
z −1 = 2 + i � √ � √ √
a + b 2 a2 + b 2 � √ � 1 √
z 2 1 2 1 √ 2
Es claro que R ⊂ C y además, se puede probar que las operaciones definidas en (A.1) = zw−1 = 2 + 3i − i = 2· −2· i + 3i · − 3i · i
w 3 3 3 3 3 3
y (A.2) son extensiones de las operaciones + y · de R, esto es, si z, w ∈ C son tales que √ √ √ √ √ √
Im(z) = 0 = Im(w), entonces la suma y la multiplicación de z y w, usando las fórmulas (A.1) 2 2 2 3 6 2 2 2 2 3 6
= − i+ i− i = − i+ i− (−1)
y (A.2), coincide con la suma y la multiplicación de z y w vistos como números reales, en 3 3 3 3 � 3 √3 � �3√ 3 �
√ √ √ √
consecuencia R es un subcampo de C. 2 2 2 3 6 2+ 6 3−2 2
Cuando operamos con números complejos expresados de la forma a + bi, estos pueden ser = − i+ i+ = + i
3 3 3 3 3 3
vistos como polinomios en i, tomando en cuenta que i2 = −1, esto facilita el trabajo pues no
harı́a falta recordar las fórmulas (A.1) y (A.2). �
√ √
Teorema A.8. Para cualquiera z ∈ C se tiene que 1. |z| = a2 + b2 ≥ 0, además |z| = a2 + b2 = 0 si y sólo si a = 0 = b o equivalentemente
z = 0.
1. z = z. � √
2. |z| = a2 + (−b)2 = a2 + b2 = |z|
2. (−z) = −(z). � √
| − z| = | − a − bi| = |(−a) + (−b)i| = (−a)2 + (−b2 ) = a2 + b2 = |z|
3. z −1 = (z)−1 siempre que z �= 0.
3. Si z �= 0, entonces
4. z + z = 2 Re(z) y z − z = 2 Im(z)i.
5. z ∈ R si y sólo si z = z. �� �2 � �2 �
−1 a −b a2 + b 2 1 1
|z | = + = =√ = = |z|−1 .
Demostración. Sea z = a + bi. Entonces a2 + b2 a2
+ b2 (a2 + b2 )2 a2 + b2 |z|
1. z = a + bi = a − bi = a + (−b)i y ası́
4. zz = (a + bi)(a − bi) = a2 − abi + abi − b2 i2 = a2 + b2 = |z|2
z = a + (−b)i = a − (−b)i = a + bi = z
5. Sabemos que a2 ≤ a2 + b2 y b2 ≤ a2 + b2 . Por lo tanto
2. (−z) = −a − bi = −a − (−b)i = −(a − bi) = −(z)
√ √
a −b | Re(z)| = |a| = a2 ≤ a2 + b2 = |z|
3. Si z �= 0, entonces z −1 = + i
a2 + b 2 a2 + b 2 √ √
a −b a b | Im(z)| = |b| = b2 ≤ a2 + b2 = |z|
Ası́ que z −1 = 2 − i= 2 + i y por lo tanto
a + b 2 a2 + b 2 a + b 2 a2 + b 2
a −(−b) a b
(z)−1 = (a + (−b)i)−1 = 2 + i= 2 + i = z −1
a + (−b)2 a2 + (−b)2 a + b 2 a2 + b 2 No es difı́cil probar, en virtud de la parte 4 del teorema A.9, que
4. z + z = (a + bi) + (a − bi) = a + bi + a − bi = 2a = 2 Re(z) z z·w
=
z − z = (a + bi) − (a − bi) = a + bi − a + bi = 2bi = 2 Im(z)i w |w|2
5. z = z si y sólo si 2 Im(z)i = z − z = 0 o equivalentemente Im(z) = 0 que a su vez Teorema A.10. Sean z, w ∈ C cualesquiera y n ∈ Z+ . Entonces
equivale a que z ∈ R.
1. z + w = z + w.
2. zw = z · w.
Teorema A.9. Para cualquiera z ∈ C tenemos que �z� z
3. = siempre que w �= 0.
1. |z| ≥ 0 y además |z| = 0 si y sólo si z = 0. w w
Teorema A.12 (Teorema Fundamental del Álgebra (TFÁ)). Sea p(z) = a0 +a1 z +· · ·+an z n
con a0 , a1 , . . . , an ∈ C y an �= 0. Entonces existen z1 , z2 , . . . , zn ∈ C tales que
p(z) = an (z − z1 )(z − z2 ) · · · (z − zn )
es decir, p(z) tiene n raı́ces complejas, no necesariamente distintas.
El teorema a continuación es una consecuencia del TFÁ. Apéndice B
Teorema A.13. Sea p(z) = a0 + a1 z + · · · + an z n con a0 , a1 , . . . , an ∈ R y an �= 0.
1. Si α ∈ R, entonces p(α) ∈ R.
2. Si α ∈ C es una raı́z de p(z), entonces α es también una raı́z de p(z).
Algo más sobre Espacios Vectoriales
3. p(z) puede expresarse como el producto de polinomios con coeficientes reales que son,
a lo sumo, polinomios cuadráticos irreducibles2 .
Demostración.
B.1. K-Espacios Vectoriales
1. Si α ∈ R, entonces p(α) = a0 + a1 α + · · · + an αn es la suma de productos de números En esta sección K representa un campo cualquiera y en general K = R o K = C.
reales, en consecuencia p(α) ∈ R.
Definición B.1. Un K-espacio vectorial o espacio vectorial sobre K es una terna
2. Supongamos que α ∈ C es una raı́z de p(z), es decir, p(α) = a0 + a1 α + · · · + an αn = 0. (V, +, ·) formada por un conjunto no vacı́o V, cuyos elementos llamaremos vectores, y dos
Ası́ que operaciones binarias + : V × V −→ V, llamada adición vectorial, y · : K × V −→ V,
llamada multiplicación por escalar, satisfaciendo las siguientes condiciones
p(α) = a0 + a1 α + · · · + an αn = a0 + a1 α + · · · + an (αn )
= a0 + a1 α + · · · + (an αn ) = (a0 + a1 α + · · · + an αn ) A0. u + v ∈ V para cualesquiera u, v ∈ V (cerradura de la adición vectorial)
= 0
A1. u + v = v + u para cualesquiera u, v ∈ V (conmutatividad de la adición
Es decir, α es también una raı́z de p(z).
vectorial)
3. Según el TFÁ, existen z1 , z2 , . . . , zn ∈ C tales que p(z) = an (z − z1 )(z − z2 ) · · · (z − zn ).
A2. (u + v) + w = u + (v + w) para cualesquiera u, v, w ∈ V (asociatividad de la
Sea j ∈ {1, . . . , n} cualquiera. Si zj ∈ R, entonces z − zj es un polinomio de grado adición vectorial)
uno con coeficientes reales, sino, por la parte 2, existe k ∈ {1, . . . , n} tal que k �= j y
zj = zk , por lo tanto A3. Existe 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia de un elemento
(z − zj )(z − zk ) = (z − zj )(z − zj ) = z 2 − zj z − zj z + zj zj = z 2 − (zj + zj )z + |zj |2 neutro para la adición vectorial)
= z 2 − 2 Re(zj )z + |zj |2
A4. Para cada v ∈ V existe v � ∈ V tal que v + v � = 0/V (existencia de un elemento
el cual es un polinomio irreducible (¿por qué?) de grado 2 con coeficientes reales. opuesto para la adición vectorial)
En consecuencia p(z) puede expresarse como el producto de polinomios con coeficientes
reales que son, a lo sumo, polinomios cuadráticos irreducibles. M0. α · v ∈ V para cualesquiera α ∈ K y v ∈ V (cerradura de la multiplicación
por escalar)
Observación A.11. Notemos que las raı́ces complejas, que no son reales, de un polinomio M1. (α + β) · v = α · v + β · v para cualesquiera α, β ∈ K y v ∈ V (distributividad
con coeficientes reales vienen en pareja, según la parte 2 del teorema A.13, por lo tanto todo de la multiplicación por escalar respecto a la adición escalar)
polinomio con coeficientes reales de grado impar tiene al menos una raı́z real.
M2. α · (u + v) = α · u + α · v para cualesquiera α ∈ K y u, v ∈ V (distributividad
2
Un polinomio cuadrático con coeficientes reales es irreducible si no tiene raı́ces reales. de la multiplicación por escalar respecto a la adición vectorial)
n
� m
�
M3. (αβ)·v = α ·(β ·v) = β ·(α ·v) para cualesquiera α, β ∈ K y v ∈ V (asociatividad
Dados α ∈ K y p(x), q(x) ∈ K[x], con p(x) = ai xi y q(x) = bi xi , definamos
de la multiplicación escalar y la multiplicación por escalar)
i=1 i=1
Ejemplo B.2. R puede ser visto como un espacio vectorial sobre el campo Q de números ra- Un K-espacio vectorial, sobre el cual se define un producto interno, es llamado espacio
cionales, basta considerar las operaciones + como la suma usual de números reales (vectores) con producto interno (EPI). Los productos internos también se conocen como productos
y · la multiplicación usual de un número racional (escalar) y un número real (vector). interiores, productos escalares y productos punto.
� Ejemplo B.4. Todos los productos internos dados en los ejemplos 4.1, 4.2, 4.3 y 4.4 del
Ejemplo B.3. Dado un campo K, el conjunto KN = {(xn )n∈N : xn ∈ K, para todo n ∈ N} capı́tulo 4, pueden ser generalizodos a sus similares K-espacios vectoriales. A continuación
(espacio de sucesiones sobre K) es un K-espacio vectorial, las operaciones + y por · son daremos estas generalizaciones.
definidas de manera “natural” como 1. En Kn se define el producto interno usual o euclidiano como sigue
n
�
(xn )n∈N + (yn )n∈N = (zn )n∈N y α · (xn )n∈N = (wn )n∈N �u , v� = ui vi donde u = (u1 , u2 , . . . , un ), v = (v1 , v2 , . . . , vn ) ∈ Kn .
i=1
donde, para cada n ∈ N, zn = xn + yn y wn = αxn . Como en el caso de Rn , podemos definir en Kn el producto interno ( producto interno
�n
La gran mayorı́a de los resultados y conceptos dados en el capı́tulo 3, por ejemplo, la euclidiano ponderado) �u , v� = pi ui vi donde p1 , p2 , . . . , pn ∈ R+ son números
unicidad del neutro y el inverso aditivo, garantizadas por el teorema 3.1, siguen siendo válidos i=1
fijos, u y v son como antes. �
para un K-espacio vectorial, esto permite definir la resta de vectores. Uno de los conceptos
que se dan el capı́tulo 3 y que podemos extenderlo a un K-espacio vectorial, y que además 2. En Mm×n (K) se define el producto interno euclidiano, usual o estándar, análogo
debemos resaltar, es el de subespacio vectorial, no es el único concepto a resaltar, pero creemos al caso de Mm×n (R), como sigue
que es uno de los más importantes, por ejemplo, la intersección arbitraria1 de subespacios de � � �m � n
V, es también un subespacio de V. También algunos conceptos y resultados dados en dicho T
�A , B� = tr AB = aij bij
capı́tulo, tales como combinación lineal, conjunto generador y espacios con producto interno, i=1 j=1
pueden generalizarse un poco más, como se verá más adelante. Nótese que los conceptos
de combinación lineal y conjunto generador, y todos los resultados que dependen de estos donde A = (aij )m×n , B = (bij )m×n ∈ Mm×n (K). Como en el caso de Kn , también
conceptos, que se dieron en el capı́tulo 3, están dados sólo para una cantidad finita de vectores, podemos usar una ponderación o peso en éste producto interno, digamos
acá extenderemos estos conceptos a cojuntos infinitos. � T
� � m �n
�A , B� = tr AB = pij aij bij
i=1 j=1
B.2. Espacios con Producto Interno donde pij ∈ R+ para cualesquiera i ∈ {1, . . . , m} y j ∈ {1, . . . , n} son números fijos. �
En esta sección y en las que siguen, a menos que se diga lo contrario, trataremos con 3. Sean a, b ∈ R con a < b y K un campo. Consideremos el conjunto C 0 ([ a , b ] , K)
K-espacios vectoriales. formado por todas la funciones continuas definidas en [ a , b ] con valores en K. Entonces
C 0 ([ a , b ] , K) es un espacio vectorial (es la “extensión ” de C 0 [ a , b ]), más aún, como
Definición B.2. Un producto interno sobre un K-espacio vectorial V es una función que en el caso real, C 0 ([ a , b ] , K) es un subespacio de F ([ a , b ] , K). En C 0 ([ a , b ] , K), la
a cada par de vectores u, v ∈ V le asigna un elemento �u , v� ∈ K y que satisface las siguientes función � b
condiciones:
�f , g� = f (x)g(x)dx
a
1. �u + αv , w� = �u , w� + α �v , w� para cualesquiera α ∈ K y u, v, w ∈ V (linealidad
es un producto interno ( producto interno usual en C 0 ([ a , b ] , K)), donde
en la primera variable).
f, g ∈ C 0 ([ a , b ] , K).
2. �u , v� = �v , u� (propiedad hermitiana). Para ponderar en este caso, consideremos un función real positiva p ∈ C 0 ([ a , b ] , R+ )
y definamos � b
3. �v , v� ≥ 0 y además �v , v� = 0 si y sólo si v = 0/V (definida positiva).
�f , g� = p(x)f (x)g(x)dx
1 a
Dada cualquiera cantidad, finita o no, numerable o no, de subespacios de un espacio vectorial, la inter-
sección de todos estos es también un subespacio de dicho espacio vectorial. �
4. En Kn [x] las siguientes funciones son productos internos. Para p(x), q(x) ∈ Kn [x] se Ejemplo B.5. Es claro que todos los ejemplos de norma dados en la sección 4, también
definen sirven como ejemplos acá. Además, en un espacio vectorial de dimensión finita, siempre es
posible definir una norma, es más, siempre es posible definir un producto interno. �
a) El producto interno usual en Kn [x] es el producto interno considerado en
C 0 ([ a , b ] , K) cuando a = −1 y b = 1. Esto es Ejemplo B.6. Una norma sobre C 0 ([ a , b ] , K) es la siguiente
� 1 �f � = máx{|f (x)| : x ∈ [ a , b ]}
�p , q� = p(x)q(x)dx
−1 debido a la cerradura del intervalo y a la continuidad de las funciones, se garantiza la buena
definición de ésta función, se deja al lector probar que, en efecto, ésta función es una norma.
n
� �
b) �p , q� = p(i)q(i).
i=0 Ejemplo B.7. Sobre Kn una norma es la siguiente
n
�
c) �p , q� = ai bi , con p(x) = a0 + a1 x + · · · + an xn y q(x) = b0 + b1 x + · · · + bn xn . �x� = máx{|xi | : 1 ≤ i ≤ n}
i=0
más aún, podemos extender esta norma a Mm×n (K), esto es, una norma sobre Mm×n (K) es
¿Cómo podrı́amos ponderar estos últimos dos productos internos? �
�A� = máx{|aij | : 1 ≤ i ≤ m y 1 ≤ j ≤ n}
Observación B.2. Los resultados dados en el capı́tulo 4, referentes a producto interno y
norma inducida por un producto interno, siguen siendo válidos para el caso que nos ocupa �
actualmente. Observación B.5. Las normas dadas en los ejemplos B.6 y B.7 no provienen de un producto
interno.
B.3. Espacios Normados
B.4. Bases para Espacios Vectoriales de Dimensión In-
Definición B.3. Una función real � · � definida sobre un K-espacio vectorial V es llamada
una norma si satisface las siguientes condiciones: finita
1. �v� ≥ 0 para cada v ∈ V y �v� = 0 si y sólo si v = 0/V (no negatividad). Ya hemos hablado de espacios vectoriales de dimensión infinita, por ejemplo P[x] y F [ a , b ]
(ver los ejemplos 3.20 y 3.21), sin embargo, no hemos ahondado en lo que se refiere a las bases
2. �αv� = |α|�v� para cualesquiera α ∈ K y v ∈ V (homogeneidad). para estos espacios.
Comencemos por definir una combinación lineal de un conjunto de vectores, no necesaria-
3. �u + v� ≤ �u� + �v� para cualesquiera u, v ∈ V (desigualdad triangular). mente finito.
Un K-espacio vectorial, sobre el cual se define una norma, es llamado espacio vectorial Definición B.4. Sean V un K-espacio vectorial y S ⊂ V. Diremos que un vector v ∈ V es
normado (EVN). La norma de un vector también se conoce como módulo. combinación lineal de los elementos de S si existen escalares α1 , α2 , . . . , αn ∈ K y vectores
v1 , v2 , . . . , vn ∈ S tales que v = α1 v1 + α2 v2 + · · · + αn vn , es decir, v es una combinación lineal
Observación B.3. A diferencia del concepto de norma dado en la defición 4.3, el concepto (en términos de la definición 3.4) finita de elementos de S.
anterior de norma no depende del producto interno, es decir, no es, en general, una norma
inducida por un producto interno, más aun, quizá sobre V no se pueda definir un producto Observación B.6. La definición B.4 es una generalización del concepto dado en la de-
interno, sin embargo, todo producto interno induce una norma. finición 3.4, más aún, un vector v en un espacio vectorial V es combinación lineal de los
elementos de un conjunto (infinito o no) S ⊂ V si y sólo si existe un subconjunto finito
Observación B.4. Es de hacer notar que los resultados, referentes a norma, dados en el S1 ⊂ S tal que v es combinación lineal (en términos de la definición 3.4) de los elementos de
capı́tulo 4, siguen siendo válidos pero sus demostraciones podrı́an variar dado que, en general, S1 . Es necesario acotar que la definición B.4 no es la única manera de extender el concepto
la norma no proviene de un producto interno. de combinación lineal dado en la definición 3.4.
Ejemplo B.8. En el espacio vectorial K[x], consideremos el conjunto infinito Observación B.8. Nótese que en los ejemplos B.8 y B.9 consideramos K[x], para un campo
� � K cualquiera, pero en el ejemplo B.10 consideramos K = C, la razón es que la independen-
S = 1, x, x2 , . . . , xn , . . . , cia lineal del conjunto dado en ese ejemplo no es cierta cuando tomammos un campo K
cualquiera, por ejemplo, si K = Z2 = {0, 1} y consideramos S = {x, x2 }, es claro que
entonces todo polinomio p(x) ∈ K[x] es combinación lineal de S, en efecto, para p(x) ∈ K[x] S ⊂ {1, x, x2 , . . . , xn , . . .} ⊂ K[x] pero S no es linelamente independiente ya que x + x2 = 0
existen n ∈ N y α0 , α1 , . . . , αn ∈ K tales que para x = 0 y x = 1.
p(x) = α0 + α1 x + · · · + αn xn Definición B.8. Sea V un K-espacio vectorial. Un conjunto β ⊂ V es llamado base (de
Hamel2 ) de V si β es linealmente independiente (en el sentido de la definición B.7) y además
que claramente es una combinación lineal finita de 1, x, . . . , xn ∈ S. � gen(β) = V, es decir, β es un conjunto generador (en el sentido de la definición B.6) de V
Definición B.5. Sean V un K-espacio vectorial y S ⊂ V. El conjunto el cual es linealmente independiente.
Ejemplo B.13. Los subespacios H[x] y L[x], del espacio vectorial P[x] (ver ejemplo 4),
tienen ambos dimensión infinita. En este caso dim(H[x]) = dim(L[x]) = dim(P[x]) = ℵ0 .
Este ejemplo puede ser extendido para el espacio C[x]. �
Entre los muchos resultados que se pueden generalizar para K-espacios vectoriales en ge-
neral, no necesariamente de dimensión finita, el siguiente es uno de los más importantes.
Apéndice C
Teorema B.3. Sean V un K-espacio vectorial y S ⊂ V.
Algo más sobre Transformaciones
1. Si S es linealmente independiente, entonces existe una base β de V tal que S ⊂ β.
Los espacios vectoriales que consideraremos en este apéndice, salvo que digamos otra cosa,
son espacios vectoriales sobre un campo K y no necesariamente de dimensión finita.
1. Inyectiva o uno a uno si para cualesquiera x, y ∈ A, con f (x) = f (y), se tiene que
x = y.
Tomando en cuenta todo esto, podemos comenzar con el estudio de las transformaciones y dado que � �
lineales invertibles. � 2 −6 −7 �
� �
� −3 1 0 �=2
� �
Teorema C.1. Sean V y W dos espacios vectoriales y T : V −→ W una transformación � −1 5 6 �
lineal. Entonces
se tiene que [T ]β1 ,β2 es invertible y en consecuencia
1. T es uno a uno si y sólo si N(T ) = ker(T ) = {0/V }. n(T ) = n([T ]β1 ,β2 ) = 0 y r(T ) = r([T ]β1 ,β2 ) = 3
2. T es sobreyectiva si y sólo si Im(T ) = T (V) = W.
Por lo tanto
N(T ) = {0} e Im(T ) = R3
Demostración.
y en virtud del teorema C.1 obtenemos que T es invertible. �
1. Supongamos que T es uno a uno. Es claro que {0/V } ⊂ N(T ). Sólo resta probar que
N(T ) ⊂ {0/V }. Sea v ∈ N(T ) cualquiera. Entonces T (v) = 0/W , pero T (0/V ) = 0/W , es decir, Teorema C.2. Sean V y W dos espacios vectoriales, v1 , v2 , . . . , vn ∈ V y T : V −→ W una
T (v) = T (0/V ), y por ser T uno a uno, tenemos que v = 0/V . Por lo tanto N(T ) = {0/V }. transformación lineal uno a uno.
Supongamos ahora que N(T ) = {0/V }. Sean v1 , v2 ∈ V tales que T (v1 ) = T (v2 ). Entonces 1. Si v1 , v2 , . . . , vn son linealmente independientes, entonces T (v1 ), T (v2 ), . . . , T (vn ) tam-
T (v1 − v2 ) = T (v1 ) − T (v2 ) = 0/W y por hipótesis v1 − v2 = 0/V , es decir, v1 = v2 . Por lo bién son linealmente independientes.
tanto T es uno a uno.
2. Si W es de dimensión finita, entonces V es también de dimensión finita y
2. Es inmediato a partir de la definición de sobreyectividad. dim(V) ≤ dim(W).
Demostración.
Ejemplo C.1. 1. Sean α1 , α2 , . . . , αn ∈ K tales que α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) = 0/W . Entonces
1. Sea V un espacio vectorial. La transformación identidad sobre V, IV , es invertible, en T (α1 v1 + α2 v2 + · · · + αn vn ) = 0/W (¿por qué?)
virtud del teorema C.1 y del ejemplo 6.11. �
Con lo cual
2. Sea β una base ordenada de un espacio vectorial V de dimensión n. Es fácil probar α1 v1 + α2 v2 + · · · + αn vn ∈ N(T )
que la transformación T : V −→ Mn×1 (K) dada por T (v) = [v]β (ver ejemplo 6.1)
Luego, dado que T es uno a uno y en virtud de la parte 1 del teorema C.1 tenemos que
cumple que N(T ) = {0/V } e Im(T ) = Mn×1 (K) y al usar el teorema C.1 se tiene que T
es invertible. α1 v1 + α2 v2 + · · · + αn vn = 0/V
�
y por ser v1 , v2 , . . . , vn linealmente independientes, se tiene que α1 = α2 = · · · = αn = 0.
3. Definamos T : P2 [x] −→ R3 como sigue En consecuencia T (v1 ), T (v2 ), . . . , T (vn ) son linealmente independientes.
T (a + bx + cx2 ) = (2a − 6b − 7c, −3a + b, −a + 5b + 6c) 2. Dado que W es de dimensión finita, podemos suponer que dim(W) = n. Sea
{v1 , v2 , . . . , vm } ⊂ V un conjunto linealmente independiente cualquiera. Entonces, usan-
Entonces T es invertible, en efecto, si consideramos las bases canónicas β1 y β2 de P2 [x] do la parte 1, se tiene que {T (v1 ), T (v2 ), . . . , T (vm )} es linealmente independiente y
y R3 respectivamente, entonces usando la parte 1 del teorema 3.16, tenemos que m ≤ n. En consecuencia, si β ⊂ V es
una base de V, entonces, por ser β un conjunto linealmente independiente, β no puede
2 −6 −7 tener más de n elementos, es decir, V es de dimensión finita y dim(V) ≤ dim(W).
[T ]β1 ,β2 = −3 1 0
−1 5 6
Teorema C.3. Sean V y W dos espacios vectoriales, v1 , v2 , . . . , vn ∈ V y T : V −→ W una Demostración. Sólo es necesario probar que T −1 es una transformación lineal, pues en
transformación lineal sobreyectiva. virtud del teorema 6.3 sabemos que T ◦ L es lineal si T y L lo son y, por propiedades de
las funciones invertibles, si T y L son invertibles, entonces T −1 y T ◦ L son invertibles (o
1. Si v1 , v2 , . . . , vn generan a V, entonces T (v1 ), T (v2 ), . . . , T (vn ) generan a W. biyectivas) y además (T −1 )−1 = T y (T ◦ L)−1 = L−1 ◦ T −1 .
2. Si V es de dimensión finita, entonces W es también de dimensión finita y Probemos entonces que T −1 es una transformación lineal. Sean w1 , w2 ∈ W y α ∈ R
dim(W) ≤ dim(V). cualesquiera. Entonces, dado que T : V −→ W es biyectiva, existen v1 , v2 ∈ V tales que
T (v1 ) = w1 y T (v2 ) = w2 , ası́ que
Demostración.
T −1 (w1 + αw2 ) = T −1 (T (v1 ) + αT (v2 ))
1. Sea w ∈ W cualquiera. Entonces, por ser T sobreyectiva, existe v ∈ V tal que T (v) = w. = T −1 (T (v1 + αv2 ) (por linealidad de T )
Debido a que {v1 , v2 , . . . , vn } genera a V, entonces existen α1 , α2 , . . . , αn ∈ R tales que = v1 + αv2 (por definición de inversa)
v = α1 v1 + α2 v2 + · · · + αn vn . Por lo tanto, al usar la parte 3 del teorema 6.2, tenemos
= T −1 (T (v1 )) + αT −1 (T (v2 )) (por definición de inversa)
que
= T −1 (w1 ) + αT −1 (w2 )
w = T (v) = T (α1 v1 + α2 v2 + · · · + αn vn ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )
En consecuencia T −1 es lineal y por lo tanto es un isomorfismo.
De donde
w ∈ gen{T (v1 ), T (v2 ), . . . , T (vn )},
Observación C.2. Gracias al teorema C.4, en lugar de decir V es isomorfo a W, podemos
y ası́ W = gen{T (v1 ), T (v2 ), . . . , T (vn )}, es decir, T (v1 ), T (v2 ), . . . , T (vn ) generan a W.
decir V y W son isomorfos. Además, en virtud de este teorema, podemos garantizar que si
2. Como V es de dimensión finita, supongamos que dim(V) = n y consideremos U es isomorfo a V y V lo es a W, entonces U es isomorfo a W.
{v1 , v2 , . . . , vn } ⊂ V una base para V. Siendo {v1 , v2 , . . . , vn } una base para V, enton-
Teorema C.5. Sean V y W dos espacios vectoriales y T : V −→ W una transformación
ces {v1 , v2 , . . . , vn } genera a V y por la parte 1, se tiene que {T (v1 ), T (v2 ), . . . , T (vn )}
lineal. Supongamos que dim(V) = dim(W) = n.
genera a W. Ası́ que, en virtud de la parte 2 del teorema B.3, se tiene que el conjunto
{T (v1 ), T (v2 ), . . . , T (vn )} contiene una base de W, es decir, la dimensión de W es a lo
1. Si T es uno a uno, entonces T es un isomorfismo.
sumo n, por lo tanto W tiene dimensión finita y además dim(W) ≤ dim(V).
2. Si T es sobreyectiva, entonces T es un isomorfismo.
Definición C.1. Sean V y W dos espacios vectoriales. Una transformación lineal Demostración.
T : V −→ W es llamada isomorfismo si T es biyectiva, en cuyo caso diremos que V es
isomorfo a W. 1. Como T es uno a uno, al usar la parte 1 del teorema C.1, se tiene que
N(T ) = {0/V }, de donde n(T ) = dim(N(T )) = 0. Luego, haciendo uso del corolario
La definición precedente nos da otra forma de llamar a las transformaciones lineales 6.20, dim(Im(T )) = r(T ) = dim(V) − n(T ) = n − 0 = n = dim(W) y dado que Im(T )
invertibles. es un subespacio de W, entonces Im(T ) = W. Por lo tanto T es un isomorfismo.
Ejemplo C.2. Del ejemplo C.1 se tiene que 2. Dado que T es sobreyectiva, y en virtud de la parte 2 del teorema C.1, Im(T ) = W,
de donde r(T ) = dim(Im(T )) = dim(W) = n y, en virtud del corolario 6.20, obtenemos
1. Todo espacio vectorial es isomorfo a si mismo. �
que dim(N(T )) = n(T ) = dim(V) − r(T ) = n − n = 0, luego N(T ) = {0/V } y por la parte
2. Todo espacio vectorial V de dimensión n es isomorfo a Mn×1 (R). � 1 del teorema C.1, se tiene que T es uno a uno. En consecuencia T es un isomorfismo.
3. P2 [x] es isomorfo a R . 3
�
Teorema C.4. Si L : U −→ V y T : V −→ W son isomorfismos, entonces T −1 : W −→ V y Teorema C.6. Sean V y W dos espacios vectoriales y T : V −→ W un isomorfismo. Si
T ◦ L : U −→ W son también isomorfismos, además (T −1 )−1 = T y (T ◦ L)−1 = L−1 ◦ T −1 . {v1 , v2 , . . . , vn } es una base de V, entonces {T (v1 ), T (v2 ), . . . , T (vn )} es una base de W.
Demostración. ¡Ejercicio! Observación C.3. Esta definición es análoga a la definición 5.1, la diferencia radica en que
se toma una transformación T : V −→ V en lugar de una matriz A ∈ Mn×n (R). En realidad,
varios de los teoremas y definiciones dados en las secciones 5.1, 5.2 y 5.3 del capı́tulo 5,
Teorema C.7. Sean V y W dos espacios de dimensión finita. Entonces V y W son isomorfos pueden ser generalizados en el contexto de transformaciones lineales.
si y sólo si dim(V) = dim(W)
Ejemplo C.3. Sean a, b ∈ R con a < b. Definamos T : C 0 [ a , b ] −→ C 0 [ a , b ] como
Demostración. ¡Ejercicio! T (f ) = f � . Entonces T es lineal. Sea f (x) = ex . Entonces T (f ) = (f )� = f , por lo tanto, 1
Sugerencia: El teorema C.6 garantiza que si V y W son isomorfos, entonces es un autovalor de T y f es un autovector de T asociado a 1.
dim(V) = dim(W). Para probar el recı́proco, suponga que dim(V) = dim(W) = n y es- Más aún, cualquier número real λ es un autovalor de T y un autovector de T asociado a
coja βV = {v1 , v2 , . . . , vn } y βW = {w1 , w2 , . . . , wn } bases de V y W respectivamente. El λ es la función fλ (x) = eλx (¡verifı́quelo!) �
teorema 6.7 garantiza la existencia de una única transformación lineal T : V −→ W tal que El problema de calcular autovalores y autovectores de una transformación lineal
T (vi ) = wi para cada i ∈ {1, . . . , n}, pruebe que T es un isomorfismo. T : V −→ V, es mucho más complicado que el caso matricial, sin embargo, nos centrare-
mos en el caso en que V sea de dimensión finita y haremos uso de la representación matricial
de T en una base β de V.
Teorema C.8. Sean V y W dos espacios vectoriales de dimensión finita, T : V −→ W
un isomorfismo y βV y βW bases ordenadas de V y W respectivamente. Entonces [T ]βV ,βW es Teorema C.9. Sean V un espacio vectorial de dimensión finita y T : V −→ V una trans-
invertible y ([T ]βV ,βW )−1 = [T −1 ]βW ,βV formación lineal. Entonces
1. λ ∈ K es un autovalor de T si y sólo si λ es un autovalor de [T ]β para toda base β de
Demostración. Notemos primero que en virtud del teorema C.7, la matriz [T ]βV ,βW es cua- V.
drada, digamos que de orden n, es decir, dim(V) = n = dim(W). Luego
2. v ∈ V es un autovector de T si y sólo si [v]β es un autovector de [T ]β para toda base β
de V.
−1 −1
[T ]βV ,βW [T ]βW ,βV = [T ◦ T ]βW ,βW (¿por qué?) Demostración. Sean β y β� dos bases de V, según el corolario 6.12
= [IW ]βW ,βW (¿por qué?) � �−1
= In (¿por qué?) [T ]β�V = MβV ,β�V [T ]βV Mβ�V ,βV = Mβ�V ,βV [T ]βV Mβ�V ,βV
Por lo tanto, [T ]β y [T ]β� son similares, en consecuencia, según el teorema 5.6, podemos
En consecuencia [T ]βV ,βW es invertible y ([T ]βV ,βW )−1 = [T −1 ]βW ,βV
trabajar con una base cualquiera, pero fija, de V.
Sea β una base de V y supongamos que dim(V) = n. Entonces [T ]β ∈ Mn×n (K) y
[v]β ∈ Mn×1 (K) para cada v ∈ V.
C.2. Autovalores y Autovectores de Transformaciones 1. Si λ ∈ K es un autovalor de T , entonces existe un vector no nulo v ∈ V tal que
Lineales T (v) = λv
Pero [T (v)]β = [T ]β [v]β ; [λv]β = λ[v]β y además [v]β �= 0/n×1 pues v �= 0/V .
Ası́ como hemos definido autovectores y autovalores para matrices, podemos definir estos Por lo tanto, existe un vector no nulo [v]β ∈ Mn×1 (K) tal que [T ]β [v]β = λ[v]β , es decir,
conceptos para una transformación lineal T : V −→ V, donde V es un espacio vectorial real λ es un autovalor de [T ]β .
o complejo, no necesariamente de dimensión finita, sin embargo, nuestro principal interés es
en el caso cuando V tiene dimensión finita. En este apartado K = R o K = C. Análogamente, si λ ∈ K es un autovalor de [T ]β , entonces existe un vector no nulo
x ∈ Mn×1 (K) tal que [T ]β x = λx.
Definición C.2. Sean V un espacio vectorial y T : V −→ V una transformación lineal. Sea v ∈ V tal que [v]β = x, la parte 2 del ejemplo C.1 garantiza la existencia de tal v,
Diremos que λ ∈ K es un autovalor (valor propio o valor caracterı́stico) de T si existe entonces v �= 0/V y
un vector no nulo v ∈ V tal que T (v) = λv. Cualquier vector no nulo v ∈ V, satisfaciendo la
[T (v)]β = [T ]β [v]β = [T ]β x = λx = λ[v]β = [λv]β
igualdad anterior, es llamado autovector (vector propio o vector caracterı́stico) de T
asociado a λ. De donde T (v) = λv. En consecuencia λ es un autovalor de T .
1 2 −1
Demostraciones de Algunos Teoremas
[T ]β = 1 0 1 (¡verifı́quelo!)
4 −4 5
Los autovalores [T ]β son λ1 = 1, λ2 = 2 y λ3 = 3 (¡verifı́quelo!), ası́ que los autovalores de T El tı́tulo del presente apéndice lo dice todo, se presentarán las demostraciones de algunos
son λ1 = 1, λ2 = 2 y λ3 = 3. de los resultados de las secciones anteriores, en general, aquellas demostraciones que escapan
Además al objetivo del curso.
Teorema 1 (Teorema 1.11). Toda matriz A ∈ Mm×n (R) es equivalente por filas a
−1 −2 −1
E1 = gen 1 ; E2 = gen 1 y E3 = gen 1 1. Una matriz escalonada.
2 4 4
2. Una matriz reducida por filas.
En consecuencia, cualquier polinomio de la forma p(x) = α(−1+x+2x2 ), con α �= 0, es un
3. Una única matriz escalonada reducida por filas, la cual llamaremos la forma escalo-
autovector de T asociado a λ1 = 1; cualquier polinomio de la forma p(x) = α(−2 + x + 4x2 ),
nada reducida por filas (FERF) de A.
con α �= 0, es un autovector de T asociado a λ2 = 2 y cualquier polinomio de la forma
p(x) = α(−1 + x + 4x2 ), con α �= 0, es un autovector de T asociado a λ3 = 3. � Demostración. Sea A ∈ Mm×n (R) cualquiera. Notemos primero que si A = 0/m×n , no hay
Teorema C.10. Sean V un espacio vectorial de dimensión finita, T : V −→ V una trans- nada que probrar. Supongamos entonces que A �= 0/m×n .
formación lineal y β0 una base de V. [T ]β0 es diagonalizable si y sólo si [T ]β es diagonalizable Por otro lado, sin perder generalidad, podemos suponer que la primera columna de A es no
para toda base β de V. nula pues, de lo contrario, trabajamos con la matriz B que se obtiene al eliminar las primeras
columnas nulas de A, ya que cualquier OEF, hecha sobre una matriz, no afecta las columnas
Demostración. ¡Ejercicio! nulas.
Junto con las supocisiones antes expuestas, también podemos suponer que a11 �= 0, pues
de no ser ası́, dado que la primera columna de A es no nula, entonces existe k ∈ {2, . . . , n}
Este teorema da pie a la siguiente definición. tal que ak1 �= 0 y al intercambiar las filas 1 y k de A, se obtiene una matriz B la cual es
Definición C.3. Sean V un espacio vectorial de dimensión finita, β una base de V y equivalente por filas a A y es tal que b11 �= 0.
T : V −→ V una transformación lineal. Diremos que T es diagonalizable si [T ]β es diago- En resumen, sin perder generalidad, podemos suponer que a11 �= 0.
nalizable.
1. Procedamos por inducción sobre m.
Ejemplo C.5. La transformación T del ejemplo anterior es diagonalizable, ya que [T ]β lo
es, basta con ver que [T ]β tiene tres autovalores distintos. � a) Para m = 1 es evidentemente cierto. Verifiquemos que se cumple para m = 2.
Como a11 �= 0, entonces la matriz B que se obtiene al aplicar sobre A la siguiente
OEF
a21
F 2 → F2 − F1
a11
es tal que b11 �= 0 y b21 = 0, y por lo tanto es una matriz escalonada la cual es Para cada i ∈ {1, . . . , m} sea ji ∈ {1, . . . , n} tal que aiji es la primera componente no
equivalente por filas a A. nula de A(i) , note que j1 = 1, y hagamos B la matriz que se obtiene al aplicar sobre A
� � � �
a11 a12 · · · a1n F2 → F2 − aa21 F1 b11 b12 · · · b1n las siguientes OEF
A= 11
→ =B 1
a21 a22 · · · a2n 0 b22 · · · b2n Fi → Fi
aiji
b) (Hipótesis Inductiva) Supongamos que se cumple para m − 1, con m ≥ 2, es decir, con 1 ≤ i ≤ m.
supongamos que si A ∈ M(m−1)×n (R), entonces A es equivalente por filas a una
Ası́ que la primera componente no nula de cada fila de B es igual a 1, es decir, la
matriz escalonada.
componente biji = 1 para 1 ≤ i ≤ m. Además, por se B escalonada, para cada 2 ≤ i ≤ m
c) Veamos que se cumple para m. y para cada 1 ≤ k < ji se tiene que la componente bik = 0. Ası́ que al aplicar sobre B
Dado que a11 �= 0, entonces la matriz B que se obtiene al aplicar sobre A las las siguientes OEF
siguientes OEF Fk → Fk − bkjm Fm
ai1
Fi → Fi − F1 con k ∈ {1, . . . , m − 1}, la matriz resultante sigue siendo escalonada, su columna jm es
a11
una columna pivote, es decir, todas sus componentes son iguales a 0 a excepción de la
con i ∈ {2, . . . , m}, es tal que b11 �= 0 y bi1 = 0 para cada i ∈ {2, . . . , m}. componente mjm que es igual a 1, además, las primeras jm−1 columnas de esta matriz
a11 a12 · · · a1n b11 b12 · · · b1n son iguales a las correspondientes columnas de B pues bik = 0 para cada 1 ≤ k < jm .
a21 a22 · · · a2n Fi → Fi − i1 F1 a 0 b22 · · · b2n
a11 Apliquemos sobre esta última matriz las siguientes OEF
A = .. .. .. → . .. .. = B
. . . (i ∈ {2, . . . , n}) .. . .
am1 am2 · · · amn 0 bm2 · · · bmn Fk → Fk − bkjm−1 Fm−1
Si n = 1, es decir, si A (y por lo tanto B) tiene sólo una columna, entonces B es con k ∈ {1, . . . , m − 2}. Nuevamente, la matriz resultante es una matriz escalonada,
una matriz escalonada, la cual es equivalente por filas a A. sus columnas jm−1 y jm son columnas pivotes y además las primeras jm−2 columnas de
Supongamos entonces que n ≥ 2, es decir, supongamos que A tiene más de una esta matriz son iguales a las primeras jm−2 columnas de B.
columna. Consideremos la matriz C que se obtiene al eliminar la primera fila de
Continuando de esta manera, se obtiene, recursivamente, una matriz RF (en realidad
B, ası́ que C tiene m − 1 filas y su primera columna es nula, luego, al aplicar la
una matriz ERF) la cual es equivalente por filas a A.
hipótesis inductiva, obtenemos una matriz escalonada D, cuya primera columna
es nula, la cual es equivalente por filas a C. La matriz E tal que E(1) = B(1) y 3. ¡Ejercicio!
E(i) = D(i−1) para i ∈ {2, . . . , m} es una matriz escalonada la cual es equivalente
por filas a A.
Teorema 2 (Teorema 1.12). Sean A ∈ Mm×n (R), B ∈ Mn×p (R) y
0 b22 · · · b2n 0 d22 · · · d2n
OEF f : MFm (R) → MFm (R) una OEF. Entonces
C = ... ..
. ...
→ ..
.
..
. ...
=D
(Hiptesis Inductiva)
0 bm2 · · · bmn 0 dm2 · · · dmn 1. f (AB) = f (A)B.
� �
con D escalonada. 2. (f (A))(j) = f A(j) para cada j ∈ {1, . . . , n} de donde
� � � � � � ��
b11 b12 · · · b1n f (A) = f A(1) f A(2) · · · f A(n)
0 d22 · · · d2n
E = .. .. ... , matriz escalonada equivalente por filas a A. es decir, la fila j-ésima de f (A) es igual a f aplicada a la j-ésima fila de A.
. .
0 dm2 · · · dmn Demostración.
2. Por la parte anterior, podemos suponer que A es escalonada y que a11 �= 0, también 1. Hagamos C = AB, ası́ que, usando la parte 2 del ejercicio 1.1.1, C(i) = A(i) B para cada
podemos suponer, sin perder generalidad, que A no tiene filas nulas (¿por qué?). i ∈ {1, . . . , m}. Procederemos considerando casos sobre el tipo de OEF.
2−1 �
2 2 2−1 j−1
2 �
� � � �
C(1) C(1) A(1) B aij = a1j = a12 = ai2 = aij .
.. .. .. i=1 j=i+1 j=1+1 i=1 j=2 i=1
. . .
C(s−1) C(s−1) A(s−1) B 2. (Hipótesis Inductiva) Supongamos que se cumple para n − 1, es decir,
C(s) C(t) A(t) B
n−2 �
n−1 j−1
n−1 �
C(s+1) C(s+1) A(s+1) B � �
. .. . aij = aij
f (AB) = f (C) = f . = .
. = . . i=1 j=i+1 j=2 i=1
C C A
(t−1) (t−1) (t−1) B
C C A B
(t) (s) (s) 3. Finalmente probemos que es cierto para n.
C C A
(t+1) (t+1) (t+1) B � �
. . . n−1 �
� n � n
n−2 � n
� n−2
� n−1
�
.. .. ..
aij = aij + a(n−1)j = aij + ain + a(n−1)n
C(m) C(m) A(m) B i=1 j=i+1 i=1 j=i+1 j=(n−1)+1 i=1 j=i+1
A(1) � n−1
n−2 � n−2
�
.. = aij + ain + a(n−1)n
.
i=1 j=i+1 i=1
A(s−1)
j−1
n−1 �
� n−1
�
A(t)
= aij + ain (usando la hipótesis inductiva)
A(s+1)
.. j=2 i=1 i=1
=
. B = f (A)B
j−1
n �
A �
(t−1) = aij
A
(s) j=2 i=1
A
(t+1)
.
.
.
A(m) Haremos también la siguiente convención.
n
�
Por lo tanto, f (AB) = f (A)B.
Convención. Si m, n ∈ Z son tales que m > n, entonces ai = 0.
i=m
2. ¡Ejercicio!
Sugerencia: Usar la parte 1 con B ∈ Mn×1 (R) la matriz columna cuyas componentes Teorema 3 (Teorema 2.1). Si A = (aij )n×n ∈ Mn×n (R), entonces
son todas iguales a cero excepto la j-ésima que es igual a 1. n
� n
� � �
1. det(A) = aij CijA = aij (−1)i+j det MijA para cada i ∈ {1, . . . , n} (Desarrollo del
j=1 j=1
det(A) mediante la fila i-ésima de A).
Antes de demostrar el teorema 2.1, enunciaremos y probaremos un lema.
n
� n
� � �
n−1 �
� n j−1
n �
� 2. det(A) = aij CijA = aij (−1)i+j det MijA para cada j ∈ {1, . . . , n} (Desarrollo del
Lema D.1. Para todo entero n ≥ 2 se cumple: aij = aij . i=1 i=1
i=1 j=i+1 j=2 i=1 det(A) mediante la columna j-ésima de A).
Demostración. Procederemos por inducción sobre n. Demostración.
a) Verifiquemos que se cumple para n = 2. Ası́ que al desarrollar el determinante de Bk por medio de la fila i − 1 obtenemos
� �
a11 a12
Sea A = . Entonces � A� n−1
� � �
a21 a22 det M1k = det(Bk ) = Bk
bk(i−1)j (−1)(i−1)+j det M(i−1)j
� �
� a11 a12 � j=1
det(A) = �� � = a11 a22 − a12 a21 = a11 (a22 ) + a12 (−a21 ) = a11 C11
A A
+ a12 C12
a21 a22 � k−1
� � �
Bk
y = bk(i−1)j (−1)i−1+j det M(i−1)j
� �
� a a � j=1
det(A) = �� 11 12 �� = a11 a22 − a12 a21 = a21 (−a12 ) + a22 (a11 ) = a21 C21
A A
+ a22 C22 n−1 � �
a21 a22 � Bk
+ bk(i−1)j (−1)i−1+j det M(i−1)j
b) (Hipótesis Inductiva) Supongamos que es cierto para n − 1, es decir, si j=k
A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R), entonces k−1 n−1
� � A � � � A �
= aij (−1)i−1+j det M1i,kj + ai(j+1) (−1)i−1+j det M1i,k(j+1)
n−1
� n−1
� � � j=1 j=k
det(A) = aij CijA = aij (−1)i+j det MijA k−1 n
� � � � � A �
j=1 j=1 i−1+j A
= aij (−1) det M1i,kj + aij (−1)i+j−2 det M1i,kj
j=1 j=k+1
para cada i ∈ {1, . . . , n − 1}.
c) Probemos que se cumple para n. La igualdad es cierta para i = 1, ası́ que sólo la Por lo tanto
debemos probar para i ∈ {2, . . . , n}. Sean A = (aij )n×n ∈ Mn×n (R) cualquiera e n
� k−1
� � � A �
i ∈ {2, . . . , n} arbitrario pero fijo. Entonces det(A) = a1k (−1)1+k aij (−1)i−1+j det M1i,kj
k=1 j=1
n
� n
� �
A
� A� n
� � A �
det(A) = a1k C1k = a1k (−1)1+k det M1k + aij (−1)i+j−2 det M1i,kj
k=1 k=1
j=k+1
n
� k−1 �
Para cada k ∈ {1, . . . , n}, hagamos Bk = (bklj )(n−1)×(n−1) = M1k
A
∈ M(n−1)×(n−1) (R). � � � A �
= a1k (−1)1+k aij (−1)i−1+j det M1i,kj
Ası́ que el determinante de Bk puede desarrolarse, según la hipótesis inductiva, k=1 j=1
por medio de cualquier fila. Recordemos que n
� n
�
� � � A �
1+k
+ a1k (−1) aij (−1)i+j det M1i,kj
a21 · · · a2(k−1) a2(k+1) · · · a2n k=1 j=k+1
.. .. .. ..
. . . . n �
� k−1
� A �
A = a1k (−1)1+k aij (−1)i−1+j det M1i,kj
Bk = M1k = ai1 · · · ai(k−1) ai(k+1) · · · ain
.. .. .. .. k=1 j=1
. . . .
�n n
�
an1 · · · an(k−1) an(k+1) · · · ann � A �
+ a1k (−1)1+k aij (−1)i+j det M1i,kj
k=1 j=k+1
De donde n �
k−1
� � � � A �
(Bk )(i−1) = ai1 · · · ai(k−1) ai(k+1) · · · ain = a1k (−1)1+k aij (−1)i−1+j det M1i,kj
k=2 j=1
Luego n−1 �
n
� � A �
� � + a1k (−1)1+k aij (−1)i+j det M1i,kj
A
aij si 1 ≤ j < k Bk M1i,kj si 1 ≤ j < k k=1 j=k+1
bk(i−1)j = y M(i−1)j = A
ai(j+1) si k ≤ j ≤ n − 1 M1i,k(j+1) si k ≤ j ≤ n − 1 (usando la convención)
n−1 �
� n
� A � se obtiene
det(A) = (−1)i+j+k a1j aij det M1i,kj
j=1 k=j+1 j−1 n−1
� � � � A � � � A �
� j−1
n �
� � det MijA = (−1)1+k a1k det Mi1,jk + (−1)1+k a1(k+1) det Mi1,j(k+1)
i+j+k+1 A
+ (−1) a1k aij det M1i,kj k=1 k=j
j=2 k=1 j−1 n
� � � � � A �
(usando el lema D.1) = (−1)k+1 a1k det Mi1,jk
A
+ (−1)k a1k det Mi1,jk
n−1 �
� n k=1 k=j+1
� A �
= (−1)i+j+k a1j aij det M1i,kj j−1
� � A � n
� � A �
j=1 k=j+1 = (−1)k+1 a1k det M1i,kj + (−1)k a1k det M1i,kj
j−1
n �
� � A � k=1 k=j+1
+ (−1)i+j+k+1 a1k aij det M1i,kj
j=1 k=1 Por lo tanto, para i ∈ {2, . . . , n} se tiene que
(usando la convención)
� n � n
� n
n
� � � A � � � �
= aij (−1)i+j (−1)k a1k det M1i,kj det(A) = aij (−1)i+j det MijA = aij CijA
j=1 k=j+1 j=1 j=1
n
� j−1 �
� � � A �
+ aij (−1)i+j (−1)k+1 a1k det M1i,kj y en consecuencia
j=1 k=1
n
� n
n
� � � �n
� � � A � det(A) = aij (−1)i+j det MijA = aij CijA para cada i ∈ {1, . . . , n}.
= aij (−1)i+j (−1)k a1k det M1i,kj
j=1 j=1
j=1 k=j+1
j−1
�
� � A �
+ (−1)k+1 a1k det M1i,kj 2. También se procederá por inducción sobre n.
k=1
n
� j−1 � �
� � � A � a11 a12
= aij (−1)i+j (−1)k+1 a1k det M1i,kj a) Verifiquemos que se cumple para n = 2. Sea A = . Entonces
a21 a22
j=1 k=1 � �
� � a a �
n
� � A � det(A) = �� 11 12 �� = a11 a22 − a12 a21 = a11 (a22 ) + a21 (−a12 ) = a11 C11
A A
+ a21 C21
+ k
(−1) a1k det M1i,kj a21 a22
k=j+1 y
� �
� a a �
det(A) = �� 11 12 �� = a11 a22 − a12 a21 = a12 (−a21 ) + a22 (a11 ) = a12 C12
A A
+ a22 C22
a21 a22
Pero
b) (Hipótesis Inductiva) Supongamos que es cierto para n − 1. Esto es, si
a11 ··· a1(j−1) a1(j+1) ··· a1n
A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R), entonces
... ..
.
..
.
..
.
A a(i−1)1 · · · a(i−1)(j−1) a(i−1)(j+1) · · · a(i−1)n n−1
� n−1
� � �
Mij =
a(i+1)1 · · · a(i+1)(j−1) a(i+1)(j+1) · · · a(i+1)n det(A) = aij CijA = aij (−1)i+j det MijA
... ..
.
..
.
..
. i=1 i=1
j−1 n
j ∈ {1, . . . , n} arbitrario pero fijo. Entonces � A� � � � A �
det(A) = (−1)1+j a1j det M1j + (−1)1+k a1k (−1)i+j−1 aij det M1i,kj
n
� n
�
A
� A� k=1 i=2
det(A) = a1k C1k = a1k (−1)1+k det M1k n
� n
� � A �
k=1 k=1 + (−1)1+k a1k (−1)i+j aij det M1i,kj
j−1
� A� � � A� k=j+1 i=2
= (−1)1+j a1j det M1j + (−1)1+k a1k det M1k j−1 n
� �
1+j
� A
� � A �
k=1 = (−1) a1j det M1j + (−1)1+k a1k (−1)i+j−1 aij det M1i,kj
n
� � A� k=1 i=2
+ (−1)1+k a1k det M1k n
� n
�
1+k
� A �
k=j+1 + (−1) a1k (−1)i+j aij det M1i,kj
k=j+1 i=2
Para k ∈ {1, . . . , n} y k �= j, hagamos
j−1
n �
� A� � � A �
a21 · · · a2(k−1) a2(k+1) · · · a2n = (−1)1+j a1j det M1j + (−1)i+j+k a1k aij det M1i,kj
..
Bk = (bkil )(n−1)×(n−1) = M1k
A
= ... ..
.
..
. . n n
i=2 k=1
� � � A �
an1 · · · an(k−1) an(k+1) · · · ann + (−1) i+j+k+1
a1k aij det M1i,kj
i=2 k=j+1
Ası́ que para i ∈ {2, . . . , n} n j−1
� � � A� � � � A �
A = (−1)1+j a1j det M1j + (−1)i+j aij (−1)k a1k det M1i,kj
k ail si 1 ≤ l < k Bk M1i,kl si 1 ≤ l < k
b(i−1)l = y M(i−1)l = A
i=2 k=1
ai(l+1) si k ≤ l ≤ n − 1 M1i,k(l+1) si k ≤ l ≤ n − 1 n
� n
� � A �
i+j k+1
+ (−1) aij (−1) a1k det M1i,kj
Luego, por hipótesis inductiva, para cada l ∈ {1, . . . , n − 1} i=2 k=j+1
n
� j−1
� � n
� � � � � � � � A �
1+j A i+j
det A
M1k = (−1)i−1+l bk(i−1)l det Bk
M(i−1)l = (−1) a1j det M1j + (−1) aij (−1)k a1k det Mi1,jk
i=2 i=2 k=1
�n n
�
� A � � � �
(−1)i−1+l ail det M1i,kl si 1 ≤ l < k + (−1) k+1
a1k det A
Mi1,jk
i=2 k=j+1
= � n
i−1+l
� A �
(−1) ai(l+1) det M1i,k(l+1) si k ≤ l ≤ n − 1 Pero para i ∈ {2, . . . , n}, al igual que en la parte 1
i=2
j−1 n
Por lo tanto � � � � A � � � A �
det MijA = (−1)k a1k det Mi1,jk + (−1)k+1 a1k det Mi1,jk
�n
� A � k=1 k=j+1
(−1)i−1+j aij det M1i,kj si k > j
� � De donde
A i=2
det M1k = �n � A� �n
� � �n
� �
� A �
(−1)
i−1+j−1
aij det M1i,kj si k < j det(A) = (−1)1+j a1j det M1j + (−1)i+j aij det MijA = (−1)i+j aij det MijA
i=2 i=2 i=1
�n En consecuencia
� A �
(−1)i+j−1 aij det M1i,kj si k > j
n
� � � �n
= i=2
n det(A) = aij (−1)i+j det MijA = aij CijA para cada j ∈ {1, . . . , n}.
� � A �
i+j i=1 i=1
(−1) aij det M1i,kj si k < j
i=2
Teorema 4 (Teorema 2.7). Sean A, B ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que Luego
s �= t, B(s) = A(t) , B(t) = A(s) y B(i) = A(i) para i �= s y i �= t, entonces det(B) = − det(A), � j−1
n
� �
en otras palabras, si intercambiamos dos filas distintas de A, el determinante de la matriz � A �
resultante es igual al determinante de A multiplicado por −1. det(B) = atj (−1)s+j (−1)t−1−s ask (−1)t+k det Mst,jk
j=1 k=1
�
Demostración. Sean A = (aij )n×n y B = (bij )n×n . Como B(s) = A(t) , B(t) = A(s) y n
� � A �
B(i) = A(i) para i �= s y i �= t, entonces bsj = atj y btj = asj para cada j ∈ {1, . . . , n} y + ask (−1)t+k−1 + det Mst,jk
además, al eliminar las filas s y t de A y las filas s y t de B obtenemos la misma matriz. Por k=j+1
� j−1 �
lo tanto n
� � n
�
� A � � A �
B
Mst,jk A
= Mst,jk = − atj (−1)t+j ask (−1)s+k det Mst,jk + ask (−1)s+k−1 det Mst,jk
j=1 k=1 k=j+1
para cada j, k ∈ {1, . . . , n} con j �= k.
Dado que s �= t, podemos suponer, sin perder generalidad, que s < t.
Por otro lado
n
� n
�
n
� n
� � � n
� � �
det(B) = B
bsj Csj = bsj (−1) s+j
det B
Msj = atj (−1) s+j B
det(Msj ) det(A) = atj CtjA = atj (−1)t+j det MtjA
j=1 j=1 j=1 j=1 j=1
Ax = 0/m×n también tiene como única solución la trivial, pues A y F son equivalentes por filas, r
�
en consecuencia, en virtud del teorema 3.10, se tiene que las columnas de A son linelamente A(j) = ÂFr(j) = fkj A(k) si j ∈ {r + 1, . . . , n}
independientes. Ası́ que también podemos suponer � que� 1 ≤ r <� n. � k=1
Ahora bien, si definimos las matrices Ā = Â|à y F̄ = F̂ |F̃ donde à y F̃ son las
submatrices de A y F , respectivamente, que se obtienen al eliminar las columnas j1 , j2 , . . . , jr
y Teorema 6 (Teorema 5.7). Sea λ ∈ R un autovalor de multiplicidad geométrica r de
� � � � una matriz A ∈ Mn×n (R). Entonces existe una matriz escalar E ∈ Mr×r (R) y matrices
 = A(j1 ) A(j2 ) · · · A(jr ) y F̂ = F (j1 ) F (j2 ) · · · F (jr ) ,
B ∈ Mr×(n−r) (R) y C ∈ M(n−r)×(n−r) (R) tales que la matriz
entonces, dado que F es la FERF de A y aplicando la parte 3 del corolario 1.13, se tiene que � �
F̄ es la FERF de Ā. Debido a esto y a que hemos supuesto que 1 ≤ j1 < j2 < · · · < jr ≤ n, E B
D=
podemos suponer que jk = k para k ∈ {1, . . . , r}, es decir, podemos suponer que las primeras 0(n−r)×r
/ C
r columnas de F son las que poseen pivotes y ası́
� � es similar a A.
I Fr
F = / r Demostración. Como λ tiene multiplicidad geométrica r, rntonces dim(Eλ ) = r. Sea
0(m−r)×r 0/(m−r)×(n−r)
{x1 , x2 , . . . , xr } una base para Eλ y consideremos xr+1 , xr+2 , . . . , xn ∈ Mn×1 (R) tales que
donde Fr es la submatriz de F que se obtiene al eliminar las primeras r columnas y las {x1 , x2 , . . . , xr , xr+1 , . . . , xn } es una base de Mn×1 (R).
últimas m − r filas (cuando r = m, no es necesario considerar las matrices nulas en la Sea P ∈ Mn×n (R) la matriz cuya i-ésima columna es xi , para cada i ∈ {1, . . . , n}, es decir
igualdad anterior). Con lo cual � �
� � P = x1 · · · xr xr+1 · · · xn
� � I
 = A(1) A(2) · · · A(r) y F̂ = / r , Por lo tanto P es invertible.
0(m−r)×r
Hagamos E = λIr y sean B ∈ Mr×(n−r) (R) y C ∈ M(n−r)×(n−r) (R) tales que Teorema 7 (Teorema 5.9). A ∈ Mn×n (R) tiene n autovectores linealmente independientes
� � si y sólo si pA (t) tiene sólo raı́ces reales y la multiplicidad algebraica, de cada uno de los au-
B � � tovalores de A, es igual a su multiplicidad geométrica. En particular, si A tiene n autovalores
= P −1 Axr+1 · · · P −1 Axn
C distintos, entonces A tiene n autovectores linealmente independientes.
esto es, para i ∈ {r + 1, . . . , n} Demostración. Supongamos que A tiene n autovectores linealmente independientes.
� � Sean λ1 , λ2 , . . . , λk ∈ R los distintos autovalores de A. Podemos suponer, sin perder ge-
B (i−r) −1
=P Axi neralidad, que los n autovectores de A, linealmente independientes, están ordenados como
C (i−r)
sigue
Definamos � � x1,1 , x1,2 , . . . , x1n1 , x2,1 , x2,2 , . . . , x2n2 , . . . , xk1 , xk2 , . . . , xknk
E B
D= de tal forma que xi1 , xi2 , . . . , xini están asociados a λi para cada i ∈ {1, . . . , k}. Entonces,
0(n−r)×r
/ C
dado que xi1 , xi2 , . . . , xini son linealmente independientes, la multiplicidad geométrica de λi
Ası́ que para i ∈ {1, . . . , r} se tiene es mayor o igual a ni , usando el teorema anterior, concluimos que ni es menor o igual que la
multiplicidad algebraica de λi , por lo tanto
0
.. pA (t) = (t − λ1 )n1 · · · (t − λk )nk q(t)
.
� � n
0 �
E (i) donde q(t) es un polinomio. Pero ni = n, ası́ que q(t) es un polinomio constante, en con-
P D(i) = P = P λ −→ i-ésima fila
0/(n−k)×1 i=1
0
. secuencia, pA (t) sólo tiene raı́ces reales, a saber λ1 , λ2 , . . . , λk , y además ni es la multiplicidad
..
algebraica de λi .
0 Con lo que hemos obtenido que la multiplicidad algebraica de λi es menor o igual a la
0 multiplicidad geométrica de λi , que sabemos, usando el teorema anterior, es menor o igual a
.. la multiplicidad algebraica de λi .
.
Luego, la multiplicidad algebraica de λi es igual a la multiplicidad geométrica de λi para
0
cada i ∈ {1, . . . , k}.
= λP 1 −→ i-ésima fila
Supongamos ahora que pA (t) sólo tiene raı́ces reales y que la multiplicidad algebraica, de
0
. cada uno de los autovalores de A, es igual a su multiplicidad geométrica.
..
Sean λ1 , λ2 , . . . , λk las distintas races de pA (t). Por hipótesis, λ1 , λ2 , . . . , λk ∈ R, por lo tanto
0 λ1 , λ2 , . . . , λk son los autovalores de A. Sean n1 , n2 , . . . , nk las multiplicidades algebraicas de
= λP In(i) = λP (i) = λxi = Axi = AP (i) λ1 , λ2 , . . . , λk , respectivamente. Entonces
pA (t) = (−1)n (t − λ1 )n1 · · · (t − λk )nk
y para i ∈ {r + 1, . . . , n}
k
�
� �
B (i−r) y ni = n. Por hipótesis, para cada i ∈ {1, . . . , k}, ni es también la multiplicidad geométrica
P D(i) = P = P P −1 Axi = Axi = AP (i)
C (i−r) i=1
de λi . Sea βi = {xi1 , xi2 , . . . , xini } una base para Eλi . Entonces, usando el teorema 5.4
Luego
β1 ∪ · · · ∪ βk = {x1,1 , x1,2 , . . . , x1n1 , x2,1 , x2,2 , . . . , x2n2 , . . . , xk1 , xk2 , . . . , xknk }
� �
PD = P D(1) · · · P D(r) P D(r+1) · · · P D(n) es linealmente independiente, es decir, A tiene n autovectores linealmente independientes.
� �
= AP (1) · · · AP (r) AP (r+1) · · · AP (n) = AP Finalmente, si A tiene n autovalores distintos, digamos λ1 , λ2 , . . . , λn ∈ R, entonces, usando
el teorema 5.4, dados x1 , x2 , . . . , xn ∈ Mn×1 (R), n autovectores de A correspondientes a
De donde D = P −1 AP y en consecuencia D es similar a A. λ1 , λ2 , . . . , λn respectivamente, se tiene que x1 , x2 , . . . , xn son linealmente independientes.
Teorema 8 (Teorema 5.12). Sea λ ∈ R un autovalor de multiplicidad algebraica k de una x1
matriz A ∈ Mn×n (R). Entonces existe p ∈ {1, . . . , k} tal que x2
Definamos v = x1 v1 + x2 v2 + · · · + xn vn , donde x = .. . Entonces [v]βV = x, de donde
.
{0/n×1 } � Eλ = N(A − λIn ) � · · · � N ((A − λIn )p ) = N ((A − λIn )m )
xn
para todo m ≥ p. � � [T (v)]βW = [T ]βV ,βW [v]βV = [T ]βV ,βW · x = 0/m×1 = [0/W ]βW .
En particular N ((A − λIn )p ) = N (A − λIn )k y en consecuencia
� � �� Luego T (v) = 0W y ası́ v ∈ N(T ). En consecuencia, dado que {u1 , u2 , . . . , uk } es una
/
Teorema 9 (Teorema 5.13). Sea A ∈ Mn×n (R). Supongamos que pA (t) tiene sólo raı́ces es decir, x ∈ gen({[u1 ]βV , [u2 ]βV , . . . , [uk ]βV }) y en consecuencia
reales, digamos que λ1 , λ2 , . . . , λp ∈ R son las distintas raı́ces de pA (t), es decir, λ1 , λ2 , . . . , λp
son los distintos autovalores de A. Sean k1 , k2 , . . . , kp las multiplicidades algebraicas de N([T ]βV ,βW ) ⊂ gen({[u1 ]βV , [u2 ]βV , . . . , [uk ]βV }) (D.2)
λ1 , λ2 , . . . , λp , respectivamente. Entonces k1 + k2 + · · · + kp = n y además
Por otro lado, si x ∈ gen({[u1 ]βV , [u2 ]βV , . . . , [uk ]βV }), entonces existen escalares
dim(Kλi ) = ki α1 , α2 , . . . , αk ∈ R tales que
para cada i ∈ {1, . . . , p}. x = α1 [u1 ]βV + · · · + αk [uk ]βV = [α1 u1 + α2 u2 + · · · + αk uk ]βV
Luego
1. Supongamos primero que {u1 , u2 , . . . , uk } es una base para N(T ). Sea x ∈ N([T ]βV ,βW )
cualquiera. Entonces [T ]βV ,βW · x = 0/m×1 [α1 u1 + α2 u2 + · · · + αk uk ]βV = α1 [u1 ]βV + α2 [u2 ]βV + · · · + αk [uk ]βV = 0/n×1 = [0/V ]βV
ası́ que
[v]βV = [α1 u1 + α2 u2 + · · · + αk uk ]βV
de donde
v = α 1 u 1 + α 2 u2 + · · · + αk uk
es decir
v ∈ gen({u1 , u2 , . . . , uk })
y por lo tanto
N(T ) ⊂ gen({u1 , u2 , . . . , uk }) (D.6)
Por otro lado, sea v ∈ gen({u1 , u2 , . . . , uk }) cualquiera. Entonces existen escalares
α1 , α2 , . . . , αk ∈ R tales que v = α1 u1 + α2 u2 + · · · + αk uk y en consecuencia
[1] Arvesú Carvallo Jorge, Marcellán Español Francisco y Sánchez Ruiz Jorge, Problemas
Resueltos de Álgebra Lineal, Thomson (2005).
[2] Grossman Stanley, Álgebra Lineal, Sexta Edición, McGraw Hill (2007).
[3] Kolman Bernard y Hill David R., Álgebra Lineal, Octava Edición, Perason-Prentice Hall
(2006).
[4] Larson Ron y Falvo David C., Fundamentos de Álgebra Lineal, Sexta Edición, Cengage
Learning (2010).
[5] Lay David C., Álgebra Lineal y sus Aplicaciones, Tercera Edición, Pearson-Addison Wes-
ley (2007).
[6] Nakos George y Joyner David, Álgebra Lineal con Aplicaciones, Thomson (1999).
[7] Poole David, Álgebra Lineal. Una Introducción Moderna, Segunda Edición, Cengage Lear-
ning (2007).
267