Algebra Lineal
Algebra Lineal
Algebra Lineal
http://www.dim.uchile.cl/∼algebra.
Ingenierı́a Matemática Ahı́ encontrarás las guı́as de ejercicios
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS y problemas, además de información
UNIVERSIDAD DE CHILE acerca de cuál será la dinámica del curso.
Álgebra Lineal 08-1
SEMANA 1: MATRICES
a11 ··· a1n
..
A= . .. ,
. aij ∈ K, ∀i = 1, . . . , m, j = 1, . . . , n.
am1 · · · ... amn
K
Construimos una estructura algebraica sobre Mmn ( ) a partir de las ope-
K
raciones definidas en el cuerpo . Se define la suma de dos matrices como A+B
sigue:
K
∀A, B ∈ Mmn ( ), A + B = (aij + bij )
R
Por ejemplo, en ( , +, ·):
1 2 3 0 −1 2 1 1 5
+ = .
0 −1 −2 3 1 2 3 0 0
Es fácil verificar que
K
Proposición 1.1. (Mmn ( ), +) tiene estructura de grupo Abeliano.
1
El inverso aditivo de A = (aij ) es −A = (−aij ). Por ejemplo, en M23 ( ): C −A
Claramente C ∈ Mmn ( ). K
Ejemplos:
R
1. En ( , +, ·),
1 2 −1 0
A=
1
1
−1 0
2 1
∈ M23 ( R ), B = 0 2 −1 0 ∈ M34 ( )R
1 0 −1 0
1 2 −1 0
⇒C = A·B =
1
1
−1 0
2 1
0 2 −1 0 =
1 0
2 6
0 0
−4 1
R
∈ M24 ( ).
1 0 −1 1
C
2. En ( , +, ·),
A = (−i, i, 0) ∈ M13 ( )
C
i
B = 1 ∈ M31 ( ) C
0
⇒ C = AB = −i · i + i · 1 + 0 · 0· = 1 + i ∈ M11 ( ). C
2
Dos propiedades importantes de la multiplicación son las siguientes:
A(B + C) = AB + AC ∈ Mms ( ). K
De igual manera se tiene la distributividad por el otro lado.
Demostración. Demostremos la distributibidad, quedando la asociativi-
dad de ejercicio. Denominando E = A(B + C), se tiene: ◭ Ejercicio
n
X
eij = aik (bkj + ckj ) ∀i ∈ {1, ..., m}, j ∈ {1, ..., s}.
k=1
3
K
Corolario 1.1. (Mnn ( ), +, ·) es un anillo con unidad (existe neutro para
K
K
Dado que (Mnn ( , ·) tiene un elemento neutro I, ¿Tienen sus elementos
inverso?
K
Definición 1.4 (Matriz invertible). A ∈ Mnn ( ) es invertible si y invertible
K
sólo si existe B ∈ Mnn ( ) tal que:
AB = BA = I. (1.1)
K
Demostración. Sean B1 , B2 ∈ Mnn ( ) que satisfacen (1.1). Luego
B1 = B1 I = B1 (AB2 ).
B1 = (B1 A)B2 ,
B1 = B2 .
Cabe señalar que para que A sea invertible se requiere que exista una matriz
B que sea a la vez inversa por izquierda y por derecha. Probaremos más
adelante que es suficiente que A tenga inversa por un solo lado.
Ejemplos:
No todas las matrices cuadradas
tienen inverso multiplicativo. En
R
M22 ( ), la matriz
1 2
2 4
no tiene inverso. En efecto, si existiese
el inverso,
x1 x2
digamos , deberı́a verificarse:
x3 x4
1 2 x1 x2 1 0
=
2 4 x3 x4 0 1
x1 + 2x3 x2 + 2x4 1 0
⇔ =
2x1 + 4x3 2x2 + 4x4 0 1
4
⇔ x1 + 2x3 = 1
En efecto:
0 1 0 1 1 0
=
1 0 1 0 0 1
O bien, en M22 ( ), C
−1
i 0 −i 0
= ,
0 −i 0 i
a11 0
a22
A=
.. .
.
0 ann
En este caso la matriz es notada A = diag(a11 , a22 , . . . , ann ). diag(a11 , a22 , . . . , ann )
a11 a12 ··· a1n
0 a22 ··· a2n
A=
... .. .. .
. .
0 ··· 0 ann
5
a11 0 ··· 0
Ejemplos:
0 0 0 1 0 0
A = 0 2 0 , I = 0 1 0 son matrices diagonales
0 0 3 0 0 1
1 2 3 0 0 0
son matrices triangulares, superior e inferior
A = 0 0 1, B = 1 2 0
respectivamente.
0 0 2 2 −1 3
◭ Ejercicio
Notación:
K
Dada una matriz A ∈ Mmn ( ) notaremos su i-ésima fila como: Ai•
Am•
◭ Ejercicio
6
Departamento de Ingenierı́a Matemática - Universidad de Chile
Ejercicio 1.2: Con respecto a esta notación, es un buen ejercicio es-
tudiar cómo el producto de matrices afecta las columnas y filas de las
matrices a multiplicar. Más precisamente: Sean A ∈ Mmn ( ), B ∈ K
K
Mnp ( ) y describamos B por sus columnas B = (B•1 , B•2 , ..., B•p ),
demostrar que entonces
λA = (λaij ).
Ejemplo:
En M23 ( ): R
1 −1 0 3 −3 0
3· =
2 2 1 6 6 3
Veamos ahora que sucede al multiplicar por la derecha o izquierda una
matriz por otra diagonal:
2 0 1 1 2 2 2 4
DA = =
0 3 2 0 1 6 0 3
En general:
7
b11 ··· b1n λ1 0 λ1 b11 λ2 b12 ··· λn b1n
... .. .. = ... .. ..
luego,
n
X
(DA)ij = dik akj = dii aij = λi aij ,
k=1
y por lo tanto
λ1 a11 ... λ1 a1p
..
AD = . .
λn an1 ··· λn anp
8
n
P
Luego C = T1 · T2 = (cij ), donde: cij = aik bkj . Como T1 y T2 son
A0 = I, An = AAn−1 , n ≥ 1.
Ejemplo:
Por ejemplo; dada A ∈ M33 ( ): R
0 1 2
A = 2 0 0,
1 1 2
se tendrá
0 1 2 0 1 2 4 2 4
A2 = AA = 2 0 02 0 0 = 0 2 4
1 1 2 1 1 2 4 3 6
0 1 2 4 2 4 8 8 16
A3 = AA2 = 2 0 00 2 4 = 8 4 8 .
1 1 2 4 3 6 12 10 20
9
Ejemplo:
K
3. Si D ∈ Mnn ( ) es diagonal, entonces Dt = D.
Demostración. Probaremos 2: Sea C = AB, C t = (AB)t . En la posición
n
P
(i, j) de la matriz C t aparece el término cji de la matriz C: cji = ajk bki
k=1
t t
Consideremos Z = B A . El término (i, j) de la matriz Z esta dado por:
n
X n
X n
X
t t
zij = (B )ik (A )kj = bki ajk = ajk bki = (AB)ji = (C t )ij ,
k=1 k=1 k=1
10
2. El producto AB es invertible y (AB)−1 = B −1 A−1 . (AB)−1 = B −1 A−1
Demostración. Veamos:
La propiedad 1 se prueba directamente de la definición y de la unicidad de
la inversa (Proposición 1.3).
Para 2 se tiene que,
Para probar 4, notemos que AA−1 = I, ası́ trasponiendo nos dá (AA−1 )t =
I t , lo que implica a su vez (A−1 )t At = I.
Igualmente se obtiene que At (A−1 )t = I. Finalmente, por unicidad de la
inversa: (At )−1 = (A−1 )t .
◭ Ejercicio
11
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Semana 1
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
Ejercicios
4. Sea A = (aij ) una matriz de permutación, es decir una matriz de Ejercicio 1.3
K
Mnn ( ) con sólo 0’s y 1’s tal que tiene un y sólo un 1, por cada fila y
columna. Pruebe que A es invertible y su inversa es A−1 = At .
K
5. Se dice que P ∈ Mnn ( ) es una matriz de proyección si P = P 2 .
(a) Pruebe que si P es matriz de proyección, entonces In − P es matriz
de proyección, donde In es la matriz identidad en Mnn ( ). K
(b) Pruebe que P es matriz de proyección si y sólo si P 2 (In − P ) = 0
y P (In − P )2 = 0.
K
(c) Encuentre P ∈ M22 ( ) tal que P 6= P 2 y P 2 (I2 − P ) = 0.
Indicación: Considere matrices con coeficientes en {0, 1}.
Problemas
d1
P1. Sea D = ..
.
R
∈ Mnn ( ) diagonal, con d1 , . . . , dn distintos
dn
y A, B, M, S ∈ Mnn ( ). R
(a) Pruebe que si M D = DM , entonces M es diagonal.
(b) Sea S invertible, tal que S −1 AS y S −1 BS son diagonales. Pruebe
que AB = BA. Indicación: Recuerde que el producto de matrices
diagonales conmuta.
(c) Sea S invertible tal que S −1 AS = D. Suponiendo que AB = BA,
verifique que S −1 AS y S −1 BS conmutan y concluya que S −1 BS
es diagonal.
P2. (a) Demuestre que si A, B y (A + B −1 ) son matrices invertibles, en-
tonces (A−1 + B) también es invertible y su inversa es A(A +
B −1 )−1 B −1 .
12
(b) Sea la matriz de n y n columnas triangular superior a coeficientes
R
P3. (a) Sea A = (aij ) ∈ Mnn ( ) una matriz cualquiera. Se define la traza
de A, denotada por tr(A), como la suma de los elementos de la
diagonal principal, es decir,
n
X
tr(A) = aii .
i=1
13
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
SEMANA 2: MATRICES
Ejemplo:
R
En M44 ( ):
1 0 0 0 0 0 1 0
0 0 0 1 0 1 0 0
I24 = , I13 = .
0 0 1 0 1 0 0 0
0 1 0 0 0 0 0 1
14
El resultado consiste en permutar las filas 2 y 4 de A. Análogamente, sea
Propiedad 1.1.
K K
Dadas Ipq ∈ Mnn ( ), A ∈ Mns ( ) y B ∈ Mqn ( ): K
1. Ipq A corresponde a la matriz A con las filas p y q permutadas. Ipq A
R
Tomemos ahora la matriz A ∈ M44 ( ) y sea:
1 0 0 0
0 1 0 0
E2,4 (λ) =
0 0 1 0
0 λ 0 1
15
Definición 1.11 (Matriz elemental). Definimos la matriz elemental Ep,q (λ) ∈
K
Mnn ( ) como:
col. p col. q
↓ ↓
1
..
. 0
1
..
Ep,q (λ) = ..
.
λ∈
.
K
. 1 p<q
0 ··· λ ··· 1
. ..
.. . 1
.. .. ..
. . .
0 ··· 0 ··· ··· ··· ··· 0 1
16
Proposición 1.8. Ep,q (λ) es invertible. Su inversa es la siguiente: (Ep,q (λ))−1 =
↑ ↑
p q
Cq• = −λ(0 . . . 0 1 0 . . . 0) + (0 . . . λ 0 . . . 0 β 0 . . . 0)
↑ ↑ ↑
p p q
= (0 . . . 0 − λ 0 . . . 0) + (0 . . . λ 0 . . . 0 1 0 . . . 0).
↑ ↑ ↑
p p q
Ejemplo:
Consideremos, a modo de ejemplo, el sistema de ecuaciones
x1 + 2x2 + x3 + x4 = 2 (1)
−2x1 + 3x2 − x3 = −1 (2)
x1 + x3 + x4 = 1 (3)
17
1. Eliminamos la variable x1 en las ecuaciones (2) y (3): para ello
x1 + 2x2 + x3 + x4 = 2
7x2 + x3 + 2x4 = 3
x1 + x3 + x4 = 1
x1 + 2x2 + x3 + x4 = 2
7x2 + x3 + 2x4 = 3
−2x2 = −1
x1 + 2x2 + x3 + x4 = 2
7x2 + x3 + 2x4 = 3
2 4 1
x3 + x4 = −
7 7 7
18
Definición 1.12 (Sistema de ecuaciones). Un sistema de m ecuaciones-
a11 x1 + · · · + a1n xn = b1
.. .. ..
. . .
am1 x1 + · · · + amn xn = bm
en donde los coeficientes, aij , y el lado derecho, bj , son elementos del cuerpo
K.
Definiendo la matriz:
a11 ··· a1n
A= ..
.
..
. ∈ Mmn ( ) K
am1 ··· amn
la m-tupla (lado derecho) y la n tupla de incógnitas
b1 x1
b= ..
. ∈ K
m
, x= ..
. ∈ Kn
bm xn
Podemos escribir el sistema matricialmente: Ax = b
Ax = b,
1 2 1 1 2
(A|b) = −2 3 −1 0 −1
1 0 1 1 1
Eliminar x1 de la segunda ecuación es equivalente a producir un cero en
la posición (2,1) de (A|b). Para ello se multiplica la primera fila por 2 y se
suma a la segunda fila. Para eliminar x1 de la tercera ecuación se multiplica
la primera fila por −1 y se suma a la tercera
1 2 1 1 2 1 2 1 1 2
(A|b) → 0 7 1 2 3 → 0 7 1 2 3
1 0 1 1 1 0 −2 0 0 −1
Eliminar x2 en la tercera ecuación a partir de la segunda es equivalente a
multiplicar la segunda fila por 27 y sumarla a la tercera:
1 2 1 1 2
→ 0 7 1 2 3 = (Ã|b̃)
0 0 27 47 − 17
19
Ası́, el sistema inicial es equivalente al sistema Ãx = b̃.
Ejemplo:
20
Hay casos en que también es necesario utilizar matrices de permutación de
K
Mmn ( ), definimos la matriz escalonada asociada a la matriz A, como matriz escalonada, Ã
K
à ∈ Mmn ( ), tal que:
ã ã12 · · · ã1i2 · · · · · · · · · ··· ã1n
11
ã2i2 · · · · · · · · · ··· ã2n
.. ..
.
.
à =
ãsis ··· ãsn .
0 0
donde los elementos ã11 6= 0, ã2i2 6= 0, ..., ãsis 6= 0, se denominan pivotes. pivotes
Notar que hemos supuesto que la primera columna no tiene ceros. De no
ser ası́, quiere decir que la primera variable no juega ningun rol, y por lo
tanto si el sistema tiene solución esta variable queda de inmediato libre.
Supondremos en lo que sigue que la primera columna no es cero.
21
La matriz à se obtiene mediante la premultiplicación de A por matrices
22
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 2
Álgebra Lineal 08-1
Ejercicios
R
(a) I12 E13 (1, −1), en M44 ( ). (d) E23 (0, 3i)−1 E12 (−1, i)E34 ( 12 , −3),
C
(b) I34 E23 (i, 2)I34 , en M44 ( ). en M44 ( ). C
R
(c) E12 (2, 1)E13 (1, −1), en M33 ( ).
Problemas
1 ··· 1 1
R ..
P1. Sea J ∈ Mnn ( ) tal que J = . ..
.
.. y e = .. .
. .
1 ··· 1 1
R
A = B ⇔ ∀x ∈ Mm1 ( ), ∀y ∈ Mn1 ( ) xt Ay = xt By. R
Indicación: Calcule etj Aei donde ej = (Im )j• y ei = (In )i• . Im
y In son las identidades de tamaños m y n respectivamente.
(2) Sean A, B matrices de n×n simétricas con coeficientes reales.
Pruebe que
R
A = B ⇔ ∀x ∈ Mn1 ( ) xt Ax = xt Bx.
23
(b) Demuestre que si una matriz cuadrada A verifica Ak = I, para
−x1 + x3 + 2x4 = 1,
x1 − x2 + x3 − 2x4 = −1 ,
−x1 − 2x2 + x3 + 3x4 = 2,
−x1 − 4x2 + 2x3 + 4x4 = 5.
x1 + 2x2 + 3x3 − x4 = 1,
−x1 + x2 + x4 = 1,
3x2 + 3x3 = 0,
2x1 + x2 + 3x3 − 2x4 = −2 .
24
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
SEMANA 3: MATRICES
donde los elementos ã11 , ã2i2 , . . . , ãsis son no nulos. Claramente, si existe
un ı́ndice j ≥ s + 1 tal que b̃j 6= 0, el sistema no tiene solución, ya que se
tendrı́a una ecuación incompatible: 0 = b̃j 6= 0.
Luego, el sistema tiene solución si y solo si b̃k = 0 ∀k ≥ s + 1. En efecto, si
b̃k = 0, ∀k ≥ s + 1, se obtiene la(s) solución(es) despejando desde la s-ésima
ecuación hasta la primera en función de las variables independientes. En este
caso diremos que el sistema es compatible. Cada una de las diferencias en sistema compatible
el número de columnas que son cero bajo las filas sucesivas, las llamaremos
peldaños o escalones . Ası́ el peldaño que se produce entre la fila k y k+1 peldaños
es ik+1 − ik . Notar que el último peldaño es: n + 1 − is , es decir los peldaños escalones
se miden en la matriz aumentada. La importancia de estos peldaños es la
siguiente:
25
tendrı́a
···
Ejemplo:
Resolvamos el sistema
x1
1 1 1 1 1 1
x2
−1 2 0 −1 0 0
x =
0 1 1 0 1 3 0
x4
1 −1 1 1 0 1
x5
Escalonando:
1 1 1 1 1 1 1 1 1 1 1 1
0 3 1 0 1 1 0 3 1 0 1 1
(A|b) → → →
0 1 1 0 1 0 0 0 23 0 32 − 31
0 −2 0 0 −1 0 0 0 23 0 − 13 32
1 1 1 1 1 1
0 3 1 0 1 1
→
0 0 32 0 23 − 13
0 0 0 0 −1 1
Obtenemos que los peldaños medidos desda la fila 1 son sucesivamente:
1,1,2,1. De la última ecuación despejamos x5 = −1.
Con esta información en la tercera ecuación dejamos libre x4 y des-
pejamos x3 . En la segunda ecuación despejamos x2 y finalmente de la
primera despejamos x1 , para obtener.
x5 = −1
x4 : libre
3 1 2 1 1 1
x3 = (− − x5 ) = − − x5 = − + 1 =
2 3 3 2 2 2
1 1 1 1
x2 = (1 − x3 − x5 ) = (1 − + 1) =
3 3 2 2
1 1
x1 = 1 − x2 − x3 − x4 − x5 = 1 − − − x4 + 1 = 1 − x4
2 2
26
La solución general es: x1 = 1 − x4 , x2 = 12 , x3 = 21 , x4 = x4 , x5 = −1
Ax = b, K
A ∈ Mnn ( ), x, b ∈ Kn
Escalonemos el sistema y sea à la matriz escalonada, sin considerar el nuevo
lado derecho b̃:
ã11 · · · ã1n
.. .
à = . ..
0 ãnn
donde entre los elementos de la diagonal, ãii , podrı́a haber algunos nulos.
Señalemos que en el caso de matrices cuadradas el proceso de escalona-
miento se denomina
Algoritmo de Gauss. Un resultado importante, que relaciona matrices Algoritmo de Gauss
invertibles, solución de sistemas y el algoritmo de Gauss, es el siguiente:
K
Teorema 1.1. Sea A ∈ Mnn ( ), entonces las proposiciones siguientes
son equivalentes:
1. A es invertible.
2. ∀b ∈ Kn, Ax = b tiene solución única.
n
Q
3. ãii 6= 0.
i=1
27
n
Q
(3 ⇒ 1). Supongamos ãii 6= 0, esto quiere decir que los elementos dia-
donde las matrices Fk son del mismo estilo que las matricesQelementales
que hemos usado. Sabemos entonces que las matrices D, E = j Ej y F =
Q −1 −1
k Fk son invertibles y como A = E F D concluimos que A también es
invertible.
28
Departamento de Ingenierı́a Matemática - Universidad de Chile
Pasando por la traspuesta podemos deducir que la inversa de una trian-
gular superior también es triangular superior.
1 0 0 b1
0 1 0 b2
. . . .
= b1 . . . = b,
. + b2 . + · · · bn . = ..
0 0 0 b
n−1
0 0 1 bn
y por lo tanto a es una solución del sistema Ax = b.
Si A no fuese invertible esto quiere decir que al escalonar A, se tendrá que
algún ãii = 0. Consideremos las filas i e i + 1 de Ã:
.. ..
. .
Õi 0 ··· 0 ãii = 0 ãii+1 ··· ãin
à = = .
Õi+1 0 ··· 0 0 ãi+1i+1 ··· ãi+1n
.. ..
. .
Si ãii+1 = 0, ãi+1i+1 6= 0 habrı́amos permutados las filas y por lo tanto
la matriz escalonada tendrı́a un 0 en la posición (i + 1, i + 1), lo que es
una contradicción. Si ãii+1 6= 0 entonces podemos utilizar este elemento
para escalonar hacia abajo y por lo tanto ãi+1i+1 = 0. En cualquier caso
se deduce que ãi+1i+1 = 0, y por un argumento de inducción que ãnn = 0,
29
esto es toda la Q
última fila de à debe ser 0. Consideremos ahora la matriz
◭ Ejercicio
Para saber si una matriz es invertible hemos entonces probado que basta
estudiar n sistemas lineales. Para el cálculo de la inversa podemos ir un
poco más lejos. Consideremos el siguiente ejemplo:
Ejemplo:
0 1 1
A = 1 −1 2
1 1 0
luego:
0 1 1 1 0 0
(A|I) = 1 −1 2 0 1 0
1 1 0 0 0 1
30
Escalonando:
Se tiene:
1 0 0 − 12 41 43
˜ = 0 1
(I|I) 0 12 − 14 41
0 0 1 12 14 − 41
Obteniendo los sistemas de solución trivial:
1 1 3
x11 −2 x12 4 x13 4
I x21 = 12 , I x22 = − 14 , I x23 = 14 ,
1 1
x31 2 x32 4 x33 − 14
de donde: 1 1
3
−2 4 4
X = A−1 = 12 − 41 1
4
1 1 1
2 4 −4
En efecto:
1 1 3
0 1 1 −2 4 4 1 0 0
AA−1 = 1 −1 2 12 − 41 14 = 0 1 0
1 1 1
1 1 0 2 4 −4 0 0 1
K
Luego para calcular la inversa de A ∈ Mnn ( ) basta aplicar el Algoritmo
de Gauss sobre la matriz (A|I). Una vez que se ha obtenido la matriz
31
triangular superior Ã, realizar el mismo procedimiento para los elementos
Despejamos entonces A:
ãn ··· ã1n
Y ..
−1
A = ( Ej ) .
j 0 ãnn
33
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 3
Álgebra Lineal 08-1
Ejercicios
donde cada una de las matrices Ej es de la forma Epq (λ, 1), con λ ∈ . K
Q
a) Pruebe que la matriz Ej es invertible y su inversa es triangular
j
inferior con 1’s en la diagonal. Digamos:
1 0
ℓ .. ..
Y 21 . .
( Ej )−1 = L = . .. ..
j
.. . .
ℓn1 · · · ℓnn−1 1
Despejamos entonces A:
ãn ··· ã1n
Y ..
A = ( Ej )−1 .
j 0 ãnn
34
c) Demuestre que si A admite la descomposición LDU de (1.5), en-
Problemas
1 1 1
P1. (a) Sea la matriz de coeficientes reales A = a b c . Demueste
a 2 b 2 c2
que si la ecuación Ax = 0 tiene una única solución entonces (a 6=
b) ∧ (a 6= c) ∧ (b 6= c).
(b) Considere el sistema lineal a coeficientes reales siguiente
−x1 + αx3 + βx4 = 0,
x2 + αx3 + βx4 = 0,
αx1 + βx2 = 0,
βx1 + βx2 + αx3 = 0.
Determine las condiciones sobre los parámetros reales α y β que
garanticen que el sistema tenga una única solución.
R
P2. (a) Considere las matrices cuadradas A, B ∈ Mnn ( ). Demuestre
que
1) A es invertible si y sólo si AAt es invertible.
2) Si A2 = A y B = I − A entonces B 3 = B.
Si A es invertible, utilice las condiciones dadas para calcular las
matrices A y B.
R
(b) Considere los vectores u, v ∈ Mn1 ( ) \ {0}. Se define la matriz
R
A ∈ Mnn ( ) por A = uv t .
R
1) Pruebe que ∀x ∈ Mn1 ( ), Ax = 0 ⇔ v t x = 0.
Indicación: Observe que v t x ∈ .R
2) Encuentre el número de variables libres en la resolución del
sistema Ax = 0.
¿Es A invertible?
P3. Considere
1 2 3 −1 β
−1 1 0 1 β2
A=
0
b=
0 .
3 3 α − 3
2 1 α −2 −2
Estudiaremos las soluciones del sistema Ax = b, con x ∈ M41 ( ). R
Encuentre los valores de α y β de manera que:
35
El sistema no tenga solución.
36
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
SEMANA 4: GEOMETRÍA
37
1. (∀x ∈ Kn ) 1 · x = x
Ejemplos: Caso K = R.
K R
n = 1: El conjunto de vectores es 1 = , la recta real, el + es la
suma usual en R y la multiplicación por escalar es el producto en
R .
n = 2: El conjunto de vectores es K2 = R2, el “plano x1 − x2”.
x
1
x x=
2
x
2
x1
x+y
y
38
Departamento de Ingenierı́a Matemática - Universidad de Chile
2x
x
1/2 x x
x
x
0 x=0
(-1) x
x
3
x 1
x= x 2
x 3
x1
x
2
La ponderación se represen-
ta de modo similar al caso
plano, y la suma de vectores x+y
también corresponde a la dia- y
gonal del paralelógramo defi-
nido por los sumandos:
x
39
Observación: A veces conviene (por ejemplo, para mayor claridad de
v
y-x
x
0
2.2. Rectas en K n
L1
No pasa por p
q
Las rectas L1 y L2 del dibujo llevan la misma dirección, y lo que las di-
ferencia es que pasan por distintos puntos. De hecho L2 es L1 desplazada.
Intentamos entonces definir una recta en n como sigue: K
K
Definición 2.2 (Recta). Sean d ∈ n \ {0} un vector y p ∈ n un K Recta
punto dado. La recta L que pasa por p y va en la dirección de p es el
siguiente subconjunto de n : K
L = Lp,d = {v ∈ Kn | v = p + td, t ∈ K}.
40
p +t d
td
L
d
◭ Ejercicio
◭ Ejercicio
Ejercicio 2.2: K K
1. Si A ⊆ n y p ∈ n , definimos la traslación de
A en el vector p por p + A = {p + x | x ∈ A}. Mostrar que las
K
rectas que pasan por p ∈ n son exactamente las traslaciones en
p de las rectas que pasan por el origen 0.
41
Departamento de Ingenierı́a Matemática - Universidad de Chile
p
K
2. Sean p, q ∈ n , con p 6= q. Mostrar que la recta de posición p y
vector director d = q − p es la única recta que pasa por ambos
puntos, p y q.
q
p
q-p
K
recta
v = p + λd, λ∈
2.3. Planos en K n
K K
Sean p ∈ n y d1 , d2 ∈ n \ {0} vectores no paralelos. Apelando a nuestra
intuición en el espacio tridimensional, vemos que por p pasan las dos rectas
distintas L1 = Lp,d1 y L2 = Lp,d2 , y ambas están contenidas en un mismo
plano Π.
42
Departamento de Ingenierı́a Matemática - Universidad de Chile
L 1
p+sd + td 1 2
L 2
p
sd 1
d 2
v = p + Er ,r ∈ K2
, s, t ∈ K
s
= p + d1 | d2
t
3. Notar la similitud con la ecuación de una recta v = p+td, t ∈ . K
En la recta hay un parámetro libre: t ∈ K
(dimensión 1, esto se
formalizará mas adelante) y en el plano dos: s, t ∈ (dimensión K
2 ).
◭ Ejercicio
Ejercicio 2.3: Se deja como ejercicio para el lector probar las siguien-
tes propiedades:
1. q ∈ Πp,d1 ,d2 ⇔ Πq,d1 ,d2 = Πp,d1 ,d2 . (Cualquier punto de un
plano sirve como su posición.)
43
K Kn \ {0}, con d1no paralelo a d2 y
K
Πp,d1 ,d2 = Πp,d1 ,d2 ⇔ (∃A ∈ M2,2 ( ) invertible)
d1 | d2
=
d1 | d2
A
K
3. Dado p ∈ n , todo plano que pasa por p es la traslación en p de
un plano que pasa por el origen, y si trasladamos en p un plano
cualquiera que pasa por el origen, obtenemos un plano que pasa
por p.
K
4. Sean p, q, r tres puntos no colineales en n . Probar que si d1 =
q − p y d2 = r − p, entonces Πp,d1 ,d2 es el único plano que pasa
por p, q y r.
44
Departamento de Ingenierı́a Matemática - Universidad de Chile
x1 = p1 + td1
..
.
xk = pk + tdk
xk+1 = pk+1
.. Constantes.
.
xn = pn
Despejando t en cada una de las primeras k ecuaciones, e igualando:
x1 −p1
d1 = x2d−p2
= · · · = xkd−pk
(= t)
xk+1 = pk+1
2 k
..
.
xn = pn
Este es un sistema de n − 1 ecuaciones lineales para las n incógnitas
x1
x1 , . . . , xn , que son las componentes de un punto cualquiera v = ...
xn
de L. Las ecuaciones se llaman ecuaciones Cartesianas de la recta L. ¿Cómo ecuaciones Cartesianas
quedan las ecuaciones cuando k = 1? de L
Ejemplos:
n = 2: La ecuación Cartesiana (notar que en este caso queda una
sola) de L = L p1 ,“ d1 ” queda:
( p2 ) d2
x1 − p1 x2 − p2
= , si d1 , d2 6= 0,
d1 d2
x2 = p2 , si d2 = 0, y
x1 = p1 , si d1 = 0.
L L L
d,d =0
1 2
d =0
2
d =01
x1 − p1 x2 − p2 x3 − p3
= =
d1 d2 d3
(en caso que d1 , d2 , d3 6= 0. Escribir las otras posibilidades.)
45
2.4.2. Planos (caso n = 3)
K
Observación: Si el plano hubiese estado en n , con n ≥ 3, habrı́amos
obtenido un sistema de n − 2 ecuaciones cartesianas para el plano.
¿Qué pasa en el caso n = 2? ¿Y qué puede decir de n = 1?
46
x1 = 1 + s − t
R
-1
0 x+x+x=1
1 2 3
1
1
0
0 1
-1
0
47
Tenemos ası́ una función
Rn × Rn R
Pn 2
El número
hx,
xi que aparece en la propiedad 4. es hx, xi = i=1 xi , si
x1
..
x = . . Jugando con el Teorema de Pitágoras se puede verificar
xn
p
fácilmente que si n = 2 ó n = 3, hx, xi corresponde a la longitud de la
flecha representada por el vector x.
2
2 2 2
x1 + x2 + x3
2
2 +x2
x1 x2
x1 x3
x1
2 2
x2
n=2 x1 + x2
n=3
48
p
hx, xi (raı́z cuadrada ≥ 0). kxk
kk : Rn −→ p R .
x 7−→ kxk = hx, xi
49
Podemos ahora probar la desigualdad triangular. Sean x, y ∈ Rn. Tenemos:
C.–Sch.
≤ kxk2 + 2 kxk kyk + kyk2
= (kxk + kyk)2
Observación:
1. Recordando que q − p se puede visualizar como el vector (flecha)
que va de p hasta q, resulta que d(p, q) es la longitud de esta
flecha, es decir, como esperarı́amos, la longitud del trazo recto
entre p y q.
2. Podemos usar la distancia entre puntos para interpretar la de-
R
sigualdad triangular. Sean p, q, r ∈ n tres puntos que forman
R
un triángulo en n . Entonces: kq − pk = k(q − r) + (r − p)k ≤
kq − rk + kr − pk, es decir d(p, q) ≤ d(r, q) + d(p, r). En el
triángulo pqr esto significa que la longitud del lado pq es infe-
rior o igual a la suma de los otros dos lados ( rq + pr), lo que es
un viejo teorema de geometrı́a plana.
q r
p q-r
r-p
q-p q
p q-p
50
El producto punto está ı́ntimamente ligado a la noción de ángulo entre
Situación 1:
Consideremos el siguiente diagrama:
x
x-y
x+y
0
-y
R
Los vectores x e y son no nulos en n , y los hemos dibujado en el plano que
pasa por el origen y que los contiene. Supongamos que x es perpendicular a
R
y (vamos a suponer que esto tiene sentido en n , y que en el plano de x, y y
0 se cumplen las propiedades usuales que conocemos de la geometrı́a plana
del colegio). Esperamos entonces que el triángulo que tiene por vértices x,
y y −y sea isósceles en x (la altura es la flecha x), y ası́
kx − yk = kx + yk ⇐⇒ hx − y, x − yi = hx + y, x + yi
⇐⇒ kxk2 − 2 hx, yi + kyk2 = kxk2 + 2 hx, yi + kyk2
⇐⇒ 4 hx, yi = 0
⇐⇒ hx, yi = 0.
Aprovechemos esto para definir perpendicularidad en Rn :
Definición 2.8 (Perpendicularidad). Dos vectores x, y ∈ n se dicen R
perpendiculares u ortogonales ssi hx, yi = 0. Lo anotaremos como x ⊥ y. perpendicularidad
x⊥y
◭ Ejercicio
b a
51
Situación 2:
R
Definición 2.9 (Ángulo entre vectores). Sean x, y ∈ n \ {0}. Defi-
nimos el ángulo entre x e y como aquel número θ ∈ [0, π] tal que
ángulo
hx, yi
cos θ = .
kxk kyk
Observación:
1. Notar que la desigualdad de Cauchy–Schwartz asegura que −1 ≤
hx,yi
kxkkyk ≤ 1, ası́ la definición anterior tiene sentido.
52
2.6. Aplicación a Rectas en R 2
y Planos en R. 3
R2 y L = Lp,d = R2 R
Sea ahora p ∈ v∈ | v = p + td, t ∈ . Tenemos
que
v∈L ⇐⇒ v = p + td, t ∈ R
⇐⇒ R
(∃t ∈ ) v − p = td
⊥
⇐⇒
− p ⊥ d⊥
v
⇐⇒ v − p, d = 0.
Si llamamos n = d⊥ (o cualquier otro vector paralelo a éste), hemos conclui-
R
do que v ∈ L ⇔ hv − p, ni = 0, es decir, L = v ∈ 2 | hv − p, ni = 0 .
La ecuación
hv − p, ni = 0
se llama ecuación normal de L. El vector n (es decir, d⊥ o cualquier otro ecuación normal de L
paralelo a él) se dice vector normal a L. vector normal a L
53
Departamento de Ingenierı́a Matemática - Universidad de Chile
v-p
v
L
p
De laecuación
normal
deL sale fácilmente
una ecuación Cartesiana. Sean
n1 p1 x1
n= ,p= yv= . Desarrollando:
n2 p2 x2
es decir
◭ Ejercicio
2.6.2. Planos en R3 .
R
Sean d1 , d2 vectores no nulos y no paralelos en 3 . Más adelante se prueba
R
que existe un vector n = d1 × d2 ∈ 3 con las propiedades: n
Con estas propiedades, sea Π = Πp,d ,d el plano en R3 que pasa por un Πp,d1 ,d2
punto p ∈ R3 y de vectores directores d1 y d2 . Entonces el lector puede
1 2
54
y la ecuación
n d2
d1
v
v-p
p
55
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 4
Álgebra Lineal 08-1
Ejercicios
(a) q ∈ Πp,d1 ,d2 ⇔ Πq,d1 ,d2 = Πp,d1 ,d2 . (Cualquier punto de un plano
sirve como su posición.)
K
(b) Dado p ∈ n , todo plano que pasa por p es la traslación en p de
un plano que pasa por el origen, y si trasladamos en p un plano
cualquiera que pasa por el origen, obtenemos un plano que pasa
por p.
K
(c) Sean p, q, r tres puntos no colineales en n . Probar que si d1 =
q − p y d2 = r − p, entonces Πp,d1 ,d2 es el único plano que pasa
por p, q y r.
4. Pruebe las siguientes propiedades del producto punto: Proposición 2.2
R
(a) (∀x, y, x, y ∈ n ) hx + x, yi = hx, yi + hx, yi ∧ hx, y + yi =
hx, yi + hx, yi (Bi–aditividad).
(b) (∀λ ∈ R) (∀x, y ∈ Rn) hλx, yi = hx, λyi = λ hx, yi (Bi–homogeneidad).
(c) (∀x ∈ Rn) hx, xi ≥ 0 ∧ hx, xi = 0 ⇔ x = 0 (Positividad).
5. Pruebe las siguientes propiedades de la norma Euclidiana: Proposición 2.3
56
Problemas
57
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
SEMANA 5: GEOMETRÍA
2. bi ⊥ bj ∧ k
b⊥k b ∧ k b ⊥ bi (Son ortogonales entre sı́.)
x1
3
R
3. ∀x = xx2 ∈ 3 x = x1bi + x2bj + x3 k, b y esta escritura es única, es
decir, si x1bi + x2bj + x3 k b entonces x1 = y1 ∧ x2 =
b = y1bi + y2bj + y3 k,
y2 ∧ x3 = y3 .
Observación:
n o Las propiedades 1. y 2. se abrevian diciendo que
bi, bj, k
b es un conjunto ortonormal en 3 . R
xk 3
x 1
x= x 2
x
k 3
xi
1 j
i xj
2
58
x1 y1
Definición 2.10 (Producto cruz). Si x = xx2 , y = yy2 ∈ 3 , R Producto cruz
R
2. ∀x, y ∈ 3 x × y = −y × x (× es anti–conmutativo).
R
3. ∀x, y, z ∈ 3 x× (y + z) = x× y + x× z ∧ (x+ y)× z = x× z+ y × z
(× distribuye sobre +).
R R
4. ∀x, y ∈ 3 (∀λ ∈ ) (λx) × y = x × (λy) = λ(x × y).
R
5. ∀x ∈ 3 x × x = 0.
x×y = b
b × (y1bi + y2bi + y3 k)
(x1bi + x2bj + x3 k)
= x1 y1 i× i+x1 y2 i× j+x1 y3 i× k+x2 y1bj×bi+x2 y2bj×bj+x2 y3bj× k
b b b b b b b
+x3 y1 k× b k
b bj+x3 y3 k×
b bi+x3 y2 k× b
= b b
0 + x1 y2 k + x1 y3 (−j) + x2 y1 (−k)b + 0 + x2 y3bi + x3 y1bj + x3 y2 (−bi) + 0
= b b b
(x2 y3 − x3 y2 )i + (x3 y1 − x1 y3 )j + (x1 y2 − x2 y1 )k.
59
La siguiente es una fórmula para el producto cruz de 3 vectores. Su demos-
x × (y × z) − (x × y) × z = y × (x × z),
Proposición 2.5.
R3 \ {0}
∀x, y ∈ kx × yk = kxk kyk |sen θ| ,
R
∀x, y ∈ 3 hx, yi2 + kx × yk2 = kxk2 kyk2 .
Una vez establecida esta identidad, y recordando que hx, yi = kxk kyk cos(θ),
resulta:
2 2 2 2
kx × yk = kxk kyk − hx, yi
= kxk kyk − (kxk kyk cos(θ))2
2 2
1. z ⊥ x ∧ z ⊥ y =⇒ (∃λ ∈ R) z = λx × y.
2. z ⊥ x × y =⇒ (∃s, t ∈ R) z = sx + ty.
60
Demostración. La demostración es un ejercicio, explicado en más detalle
◭ Ejercicio
(∀s, t ∈ R) x 6= 0 + sy + tz
∧ y 6= 0 + sx + tz
∧ z 6= 0 + sx + ty
(∀α, β, γ ∈ R) αx + βy + γz = 0 =⇒ α = β = γ = 0. (2.4)
R
3. Sea A ∈ M33 ( ) la matriz descrita por columnas como A =
x | y | z . Pruebeh i que la propiedad 2.9 equivale ahque
i el
α α
sistema homogéneo A βγ = 0 tiene como solución única β
γ
=
0, es decir, A es invertible.
x, y, z ∈
4. Concluya que tres vectores 3
R
noson coplanares con el
origen ssi la matriz A = x | y | z es invertible.
5. Considere ahora x e y no nulos y no paralelos. Pruebe que los
vectores x, y y x × y 6= 0 son no coplanares con el origen.
Indicación: Verifique la condición 2.9.
6. Use la conclusión de la parte 2c para probar que
R
R
∀z ∈ 3 (∃s, t, λ ∈ ) z = sx + ty + λx × y. (2.5)
61
Departamento de Ingenierı́a Matemática - Universidad de Chile
x y
y
0,x,y
0 x
L 0,x y
Proposición 2.7. R
1. Sean x, y ∈ 3 \ {0} vectores no paralelos. En-
tonces el área del paralelógramo que definen es kx × yk.
R
2. Sean x, y, z ∈ 3 \ {0} vectores no coplanares con 0. Entonces el
volumen del paralelepı́pedo que definen es |hx × y, zi|.
y x y
z
H y
h
0
x 0 x
1. El área del paralelógramo es dos veces el área del triángulo cuyos
vértices son x, y y 0. Ası́, Area = 2 · 21 · base · altura = 2 · 21 ·
kxk h, con h = kyk sen θ. De aquı́ que Area = 2 · 21 · kxk kyk sen θ =
kxk kyk sen θ = kx × yk.
2. De la geometrı́a de colegio, el volumen del paralelepı́pedo se calcula
como el producto del área de su base y su altura. De la parte (a), el
área de la base es kx × yk. Por otra parte la altura H es la proyección
de z sobre la dirección perpendicular al plano de x e y, con lo que
H = kzk cos(ϕ), donde ϕ es el ángulo entre x × y y z. Se obtiene
finalmente entonces que Vol = kx × yk kzk cos(ϕ) = |hx × y, zi|.
62
i j
R
Con esta convención resulta también que, si x, y ∈ 3 \{0} son no paralelos
y hacemos girar los dedos de la mano derecha en el plano definido por x e
y, desde x hacia y, el pulgar apunta en la dirección de x × y.
x
x y
y y
x x y
Hay que indicar, sin embargo, que si alguien prefiriese dibujar los ejes como:
x1 x2
i j
k
x3
63
2.8. Distancia entre un punto y un conjunto. Proyeccio-
x
d(q,x)
y
d(q,y)
A
d(q,A)
q
z d(q,z)
◭ Ejercicio
Cabe notar que no tiene por qué existir un punto r ∈ A tal que d(q, A) =
d(q, r), y si tal r llega a existir, no tiene por qué ser único (¡Construir
ejemplos de estas afirmaciones!).
r L
z
64
Veremos ahora que tal r ∈ L efectivamente existe.
de donde u ⊥ x.
Basta tomar ahora r = p + w =p + hy, x
bi x
b, es decir
r = p + hq − p, x
bi x
b,
65
Sea L la recta que pasa por q y que es perpendicular a Π (es decir, que
r z
2 hp − q, ni
hq + tn, ni = hp, ni ⇔ hq, ni + t knk = hp, ni ⇔ t = 2 .
knk
Una vez que tenemos la incógnita real t despejada, en (2.6) resulta
hp − q, ni
r=v=q+ 2 n (2.8)
knk
66
como única solución de (2.6) y (2.7).
67
Departamento de Ingenierı́a Matemática - Universidad de Chile
Observación:
1. Notemos que la fórmula (2.8) era fácil de adivinar, pues si n b=
1
knk n es el vector unitario en la dirección de n, (2.8) se puede
escribir como r = q + hp − q, n bi nb
q
p-q <p-q,n>n
n
r p
68
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 5
Álgebra Lineal 08-1
Ejercicios
Para ello:
R
(a) Sean x, y, z ∈ 3 tres vectores no coplanares con el origen, es decir,
que no existe un plano que pasa por el origen y que contiene a los
tres vectores x, y y z. Pruebe que esto equivale a:
(∀s, t ∈ R)x 6= 0 + sy + tz
∧ y 6= 0 + sx + tz
∧ z 6= 0 + sx + ty
(∀α, β, γ ∈ R) αx + βy + γz = 0 =⇒ α = β = γ = 0. (2.9)
R
(c) Sea A ∈ M33 ( ) la matriz descrita por columnas como A = x | y
| z .
Pruebe
h α i que la propiedad 2.9 equivalehaα ique el sistema homogéneo
A βγ = 0 tiene como solución única βγ = 0, es decir, A es inver-
tible.
x, y, z ∈
(d) Concluya que tres vectores R3 no son coplanares con el
origen ssi la matriz A = x | y | z es invertible.
(e) Considere ahora x e y no nulos y no paralelos. Pruebe que los
vectores x, y y x × y 6= 0 son no coplanares con el origen.
Indicación: Verifique la condición 2.9.
69
(f ) Use la conclusión de la parte 2c para probar que
Problemas
P1. Se definen las rectas
−1 1 3 0
L1 : 2 + t 2 , t ∈ R y L2 : 1 + s 1 , s ∈ R.
1 −2 −1 −2
70
R
P3. (a) Sean L1⊆ 3 el R
de las x y L2 ⊆ 3 larecta que pasa por los
eje
71
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
72
Ejemplos:
λ(a + b ) . . . λ(a + b )
a11 + b11 . . . a1n + b1n 11 11 1n 1n
.. .. .. ..
= λ . . = . .
am1 + bm1 . . . amn + bmn λ(am1 + bm1 ) . . . λ(amn + bmn )
λa11 . . . λa1n λb11 . . . λb1n
.. .. ..
= . + . . = λA + λB.
λam1 . . . λamn λbm1 . . . λbmn
K
Concluı́mos entonces que Mmn ( ) es un espacio vectorial sobre
K.
R
3. Sea Pn ( ) el conjunto de los polinomios de grado menor o igual a
n, con la suma de funciones reales y la multiplicación por escalar
definida por:
R
∀p, q ∈ Pn ( ), (p + q)(x) = p(x) + q(x)
∀λ ∈ R, (λp)(x) = λp(x)
n
P n
P
o bien, si p(x) = ai xi , q(x) = bi xi
i=0 i=0
n
X n
X
(p + q)(x) = (ai + bi )xi , (λp)(x) = (λai )xi .
i=0 i=0
R
Es directo verificar que Pn ( ) es espacio vectorial sobre . R
Además,
R RR
Pn ( ) ⊆ F( , ), lo cual, nos llevará más adelante, a definir la
noción de subespacio vectorial.
73
K
4. Tomemos ahora un cuerpo ( , +, ·) arbitrario. Claramente ( , +) K
K×K→K
(λ, v) 7→ λ · v
K K
donde ” · ” es la multiplicación en el cuerpo . Como es cuerpo,
se verifican las propiedades . Concluı́mos entonces que todo cuerpo,
K , es espacio vectorial sobre si mismo. Dos ejemplos importantes
son R Cy .
C
5. Sea el grupo Abeliano ( , +) con la ley de composición externa:
R×C→C
(λ, a + bi) → λ(a + bi) = λa + λbi
C R
Es claro que es un espacio vectorial sobre pero no es el mismo
C
espacio vectorial definido sobre . Es decir, el espacio vectorial
C sobre Ces distinto al espacio vectorial C R
sobre , pues los
cuerpos sobre los cuales están definidos son diferentes.
◭ Ejercicio
74
Demostración. En efecto, si se verifica la primera definición entonces,
Ejemplos:
75
Esta constatación nos llevará, más adelante, a definir una operación en-
tre espacios vectoriales (la “suma”) tal que podamos hablar de “uniones”
Ejemplo:
R
Tomemos v = (1, 1) ∈ 2 , el subespacio h{v}i = {λ(1, 1)/λ ∈ } corres- R
ponde a la recta que pasa por el orı́gen con dirección dada por el vector
(1,1). Sean v1 = (1, 0), v2 = (0, 1),
76
3.4. Dependencia e independencia lineal
R
1. El conjunto {(1, 1, 1), (0, 1, 1), (1, 0, 0)} ⊆ 3 es ℓ.d. En efecto,
(1, 1, 1) = (0, 1, 1) + (1, 0, 0), es decir (1, 1, 1) − (0, 1, 1) − (1, 0, 0) =
(0, 0, 0) donde λ1 = 1, λ2 = −1, λ3 = −1.
P R
2. En el espacio vectorial 4 ( ), los polinomios 1, x son ℓ.i En efecto,
tomemos una combinación lineal nula λ1+βx = 0, pero si β 6= 0 se
tendrá que λ + βx es un polinomio de grado 1, luego tiene a lo más
una raı́z y el polinomio 0 tiene infinitas raı́ces, luego λ = β = 0.
77
3. Los vectores en R4, {(1, 1, 0, 1), (1, 0, 1, 0), (0, 0, 1, 1), (0, 1, 1, 0)},
es equivalente al sistema de 4 × 4:
λ1 + λ2 = 0
λ1 + λ4 = 0
λ2 + λ3 + λ4 = 0
λ1 + λ3 = 0
en términos matriciales
1 1 0 0 λ1 0
1 0 0 1 λ2 0
=
0 1 1 1 λ3 0
1 0 1 0 λ4 0
1 1 0 0 0
0 −1 0 1 0
→ ⇒ λ1 = λ2 = λ3 = λ4 = 0.
0 0 1 2 0
0 0 0 −3 0
K
En general en n , dado un conjunto de m vectores {v1 , ..., vm }, donde
vi = (v1i , ..., vni ),
i = 1, ..., m, podemos estudiar su dependencia o independencia lineal a
través de un sistema de n ecuaciones y m incógnitas. En efecto:
λ1 v1 + ... + λm vm = 0
0
v11 v12 v1m
.
v21 v22 v2m ..
⇔ λ1 .. + λ2 .. + ... + λm .. = .
. . . ..
vn1 vn2 vnm 0
0
v11 v12 ··· v1m λ1
.
v21 v22 ··· v2m λ2 ..
⇔
... .. .. .. = .∈ Km.
. . . ..
vn1 vn2 ··· vnm λm 0
78
K
K
Observación: Conviene señalar que en n siempre es posible deter-
minar n vectores independientes. Basta tomar el conjunto {ei }ni=1 , ei =
(0, ..., 1, ..., 0), donde la componente no nula es la i-ésima.
79
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 6
Álgebra Lineal 08-1
Ejercicios
R
(c) {( 10 00 ) , ( 10 10 ) , ( 11 10 ) , ( 11 11 )} ⊆ M22 ( )
6. (a) Sean a, b, c tres vectores de un espacio vectorial V . Determine si el
conjunto {a + b, b + c, c + a} es un conjunto l.i.
(b) Sea {u1 , u2 , . . . , uk } un subconjunto l.i. de un espacio vectorial V .
Pruebe que ∀α escalar, el conjunto:
{u1 + αu2 , u3 , . . . , uk } es l.i.
80
Problemas
R
Demuestre que P2 ( ) = h{p1 , p2 , p3 }i.
P2. Sean E, F e.v. sobre un cuerpo K. Sea T una función T : E → F , que
satisface:
(1) T (0E ) = 0F . En donde 0E y 0F son los neutros aditivos en cada
e.v.
(2) ∀x ∈ E, ∀α ∈ K: T (αx) = αT (x).
(3) ∀x, y ∈ E, T (x + y) = T (x) + T (y).
Considere
T (E) = {y ∈ F | y = T (x), x ∈ E}.
(a) Muestre que T (E) es un s.e.v. de F .
(b) Suponga además que T satisface que:
∀x ∈ E, T (x) = 0 ⇒ x = 0.
E = {f | f : Z → R es función}.
81
(a) Sean a1 , a2 ∈ R con a2 6= 0 y F0 el conjunto de las funciones
Z
∀n ∈ , f (n) + a1 f (n − 1) + a2 f (n − 2) = 0.
Z
∀n ∈ , f (n) + a1 f (n − 1) + a2 f (n − 2) = 1.
82
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
o de manera equivalente:
n
X
∀v ∈ V, ∃{λi }ni=1 ⊆ K, tal que v= λi vi .
i=1
Ejemplo:
Tomemos el conjunto {(1, 0), (0, 1), (1, 1)}. Este genera 2 . En efecto,R
(x, y) = x(1, 0) + y(0, 1) + 0(1, 1). Es decir h{(1, 0), (0, 1), (1, 1)}i = 2 . R
Pero, en este caso, la forma de escribir (x, y) no es única:
Ejemplos:
K
1. En n , el conjunto {ei }ni=1 , donde ei = (0, ..., 1, 0..,0) es base. En
efecto, ya probamos que son l.i., además, dado x = (x1 , ..., xn ) ∈
K K
Pn
n
,x = xi ei . Esta base de n se denomina base canónica.
i=1
83
2. Estudiemos, en R3
, si el conjunto de vectores, B =
R
3. En el espacio vectorial Pn ( ), el conjunto B = {1, x, x2 , ..., xn } es
base. En efecto. Es claro que cualquier polinomio, q de grado ≤ n
se escribe como combinación lineal de los vectores en B:
n
X
q(x) = ai xi .
i=0
84
n
d2 X
( λi xi ) = 2λ2 + ... + n(n − 1)λn xn−2 = 0
⇒ (λ + β = 0) ∧ (λ + 2β = 0) ⇒ λ = β = 0.
Además son generadores: Sea (xn )n una progresión de diferencia
d entonces se tiene xn = x0 + nd y por lo tanto:
(xn ) = x0 1̄ + de.
85
Una caracterización de base, que nos será útil más adelante, es la siguiente:
n
P
Se tiene entonces (αi −βi )vi = 0. Como B es un conjunto l.i., concluı́mos
i=1
que αi = βi para todo i.
⇐) Por hipótesis, cualquier vector v ∈ V es combinación lineal del conjunto
n
P
B, luego B es generador. Supongamos que B es l.d., entonces λi vi = 0
i=1
con escalares no todos nulos. Además 0v1 + 0v + ... + 0vn = 0 luego el
vector 0 se escribe de dos maneras distintas, lo cual es una contradicción.
Concluı́mos entonces que B es base.
86
P
αk λk vi1 + αi1 vi1 = λvi1 ∈ hB1 i, con λ ∈ K lo que implica que
k−1
P
Si λk 6= 0 entonces vik = − λ1k λj vij ∈ hBk−1 i que es una contra-
j=1
dicción. Luego λk = 0 y, como Bk−1 es linealmente independiente,
λj = 0 ∀j = 1...k − 1.
Ejemplo:
Si B = {(1, 0), (0, 1), (1, 1)}, los subconjuntos
{(1, 0), (0, 1)}, {(1, 0), (1, 1)} y {(0, 1), (1, 1)} son todos bases de
R 2
.
Daremos ahora una generalización del Teorema 3.1.
β1 ω1 + ... + βm ωm = 0, (3.1)
87
reemplazando cada wi como combinación lineal de B, 3.1 equivale a:
Ası́, si existe una base finita, de cardinal n, entonces cualquier otra base
contiene exactamente n vectores.
Esto nos lleva a definir la dimensión de un espacio vectorial.
Definición 3.5 (Dimensión). Diremos que un espacio vectorial V sobre dimensión
K es de dimensión n (finita) si admite una base de cardinalidad n. En caso
que no exista una base finita, hablaremos de espacio vectorial de dimensión
infinita. dimensión infinita
Notaremos dim V al cardinal de una base (dim V = ∞, si V no posee una
base finita). En particular dim{0}=0.
Ejemplos:
1. dim Rn = n.
88
2. dim S = ∞.
B = {Ē[α, β] = (eαβ αβ
ij ), eij = 1 ⇔ (α, β) = (i, j) α ∈ {1, ..., m}, β ∈ {1, ..., n}}.
⇒ λαβ = 0 ∀α, β.
Además, dada A = (aij ) ∈ Mmn (K):
m X
X n
A= aαβ E[α, β].
α=1 β=1
Luego, el conjunto {E[α, β]}α,β es base. Es decir dim Mmn (K) = mn.
Teorema 3.4.
1. Sea dim V = n. Si {vi }ni=1 es l.i. entonces {vi }ni=1 es base.
Demostración.
1. Basta probar que V = h{v1 , ..., vn }i. Supongamos ∃u ∈ / h{v1 , .., vn }i,
luego
B = {u, v1 , ..., vn } es l.i. y |B| = n + 1 > n. Lo que es una contra-
dicción, pues todo conjunto de cardinal mayor que la dimensión debe
ser l.d.
89
2. Supongamos m = dim U > n = dim V , entonces existe {ui }m i=1 base
Teorema 3.5 (Completación de base). Dado V espacio vectorial so- Completación de base
bre K con dim V = n, y un conjunto de vectores l.i.; X = {v1 , . . . , vr }, r <
n, entonces existen vectores vr+1 , . . . , vn , tales que el conjunto {v1 , . . . , vn }
es base de V .
Ejemplo:
Consideremos, en R4 el conjunto
X = {(1, 1, 0, 0), (0, 1, 0, 0)}.
90
3.6. Suma de espacios vectoriales
U + W = {v ∈ V /v = u + w, u ∈ U, w ∈ W }.
Ejemplo:
Tomemos en R2, los subespacios U = h{(1, 1)}i , W = h{(1, 0)}i
U + W = {v = λ(1, 1) + β(1, 0)/λ, β ∈ R} = R2
U + W = {(x, y, 0) | x, y ∈ R} 6= R3.
En general, es directo que U ⊆ U + W y W ⊆ U + W . Basta tomar los
elementos de la forma u + 0 y 0 + w, respectivamente.
Dado V = U + W , un vector no necesariamente admite una escritura única
en términos de U y W .
Ejemplo:
Si
U =< {(1, 0), (0, 1)} >, W =< {(1, 1)} >
luego R2 = U + W . Pero el vector (1, 1) se escribe de dos maneras:
(1, 1) = (1, 1) + 0
(1, 1) = 0 + (1, 1)
91
manera única como
Ejemplo:
R
Sean, por ejemplo, los subespacios de 2 , V =< {(1, 0)} >, W =<
{(0, 1)} >
R 2
= U ⊕ W, pues (x, y) = x(1, 0) + y(0, 1) es única.
Z = U ⊕ W ⇔ (Z = U + W ) ∧ (U ∩ W = {0})
Demostración. En efecto:
92
k
P m
P
Como λi ui ∈ U, βi wi ∈ W y el vector 0 se escribe de manera
Como V = U ⊕ W, ∀v ∈ V, v = u + w, u ∈ U, w ∈ W . Pero u ∈ U, w ∈
Pk
W se escriben como combinación lineal de sus bases: u = αi ui ,
i=1
m
P
w= λi wi , de donde,
i=1
Pk m
P
v= αi wi + λi wi , luego hBi = V .
i=1 i=1
k
P n
P
Como u = αi ui ∈ U, w = αi ui ∈ W , tenemos que un vector v ∈ V
i=1 i=k+1
se escribe de manera única como v = u + w.
Ejemplos:
Tomemos V = R3 y los subespacios
U = h{(1, 0, 0), (0, 1, 0)}i , W = h{(0, 1, 0), (0, 0, 1)}i
93
R
sin embargo 3 = U + W =
94
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 7
Álgebra Lineal 08-1
Ejercicios
Para ello:
Considere U ∩ W como subespacio de U y W . Si se toma {z1 , ..., zk }
base de U ∩ W , se puede extender a
BU = {z1 , ..., zk , u1 , ..., ul } base de U y
BW = {z1 , ..., zk , w1 , ..., wp } base de W.
Se probará que B = {z1 , ..., zk , u1 , ..., ul , w1 , ..., wp } es base de V .
95
Problemas
R
Probar que Pm ( ) = V ⊕ V ′ (asuma que V ′ es un subespacio
R
vectorial de Pm ( )).
R
P3. Si A ∈ Mnn ( ) y V es un subespacio vectorial de Rn, se define:
A(V ) = {Ax | x ∈ V }.
R
(a) (1) Pruebe que si A ∈ Mnn ( ) y V es s.e.v. de n entonces R
A(V ) también es s.e.v. de n . R
R
(2) Sean V, W s.e.v. de n tales que V ⊕ W = n . Pruebe queR
R
si A ∈ Mnn ( ) es invertible entonces A(V ) ⊕ A(W ) = n . R
R
(3) Sean V, W s.e.v. de n tales que V ⊕ W = n . Pruebe queR
R
si A(V ) ⊕ A(W ) = n , entonces A es invertible.
R
Indicación: Pruebe que para todo z ∈ n el sistema Ax = z
tiene solución.
R
(b) (1) Sea W un s.e.v. de n y definamos E = {A ∈ Mnn ( ) | A( n ) ⊂ R R
W }. Muestre que E es un s.e.v. de Mnn ( ). R
R
(2) Sea W = {(t, t) | t ∈ }. Calcule la dimensión de E = {A ∈
R R
M22 ( ) | A( 2 ) ⊂ W }.
96
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
donde A ∈ Mmn ( ) R
Este tipo de transformaciones tiene dos propiedades fundamentales:
1. T (u + v) = T (u) + T (v) ∀u, v ∈ Rn
2. T (λv) = λT (v) ∀λ ∈ R, v ∈ Rn
En efecto, T (u + v) = A(u + v). Como la multiplicación matricial distribuye
con respecto a la suma:
T (u + v) = Au + Av = T (u) + T (v)
97
Ejemplos:
RR
5. Sea Fd ( , ) el conjunto de las funciones reales derivables. Es
directo verificar que este conjunto es un s.e.v. de F( , ). Consi- RR
deremos la transformación:
T : Fd ( ,R R) → F(R, R)
f → T (f )
df
donde T (f )(x) = dx (x) es la función derivada. Es directo, de las
propiedades de derivación que T es lineal.
S ea V e.v sobre K, V = V1 ⊕ V2 y sean:
P1 : V → V1 , P2 : V → V2
v = v1 + v2 → P1 (v) = v1 v = v1 + v2 → P2 (v) = v2
Ambas funciones (¿porqué son funciones?) son lineales. Verifique-
K
mos para P1 : sean λ, β ∈ v = v1 + v2 , u = u1 + u2 , vi , ui ∈ Vi , i =
1, 2.
P1 (λv + βu) = P1 (λv1 + βu1 ) + (λv2 + βu2 )) =
= λv1 + βu1 = λP1 (v) + βP1 (u)
La función, Pi , se denomina la proyección de V sobre Vi .
98
4.3. Propiedades de transformaciones lineales
n
P
Dada una combinación lineal de vectores λi xi ∈ U y la transformación
i=1
lineal,
T : U → V . Se tiene, por inducción, que:
Xn n
X
T( λi xi ) = λi T (xi )
i=1 i=1
◭ Ejercicio
99
Departamento de Ingenierı́a Matemática - Universidad de Chile
Ejercicio 4.1: Pruebe que entonces dada una base β = {ui }ni=1 de U
y n vectores X = {vi }ni=1 no necesariamente ℓ.i. de V existe una única
transformación lineal T
T :U →V
u → T (u)
tal que T (ui ) = vi i = 1, ..., n.
que a cada vector u le asocia las coordenadas con respecto a una base fija
β = {ui }ni=1 .
100
es un isomorfı́smo. En efecto sólo resta probar que T −1 es lineal, pues es
K
entonces T −1 es lineal.
Una transformación lineal importante es idU : U → U que es la transfor-
mación identidad. Como sabemos que es biyectiva se tiene que idU es un
isomorfı́smo.
Con todos estos ingredientes se puede concluir que la relación entre espacios
vectoriales de ser isomorfos es una relación de equivalencia.
101
Ejemplo:
R
T : 4→ 3
x1
R
x1 +x2
x2
x3 7→ x2 −x3
x4 x1 +x3
o en términos matriciales:
x1
1 1 0 0
x
T (x) = 0 1 −1 0 2
x3
1 0 1 0
x4
Determinemos los subespacios KerT y ImT . Tenemos que x ∈ KerT ⇔
Escalonando:
1 1 0 0 1 1 0 0 1 1 0 0
0 1 −1 0 → 0 1 −1 0 → 0 1 −1 0 (4.3)
1 0 1 0 0 −1 1 0 0 0 0 0
De donde:
x1 = −x2
x1 + x2 = 0 x2 = x3
⇔
x2 − x3 = 0 x3 = x3
x4 = x4
Lo cual permite escribir la solución general en función de dos parámetros:
x1 = −x3 x1 −1 0
x2 = x3 x2 1 0
⇔ = x3 + x4
x3 = x3 x3 1 0
x4 = x4 x4 0 1
102
−1 0
1 , 00 R
es un s.e.v de 4 de dimensión dos.
x1
y1 1 1 0 0
x
y2 = 0 1 −1 0 2
x3
y3 1 0 1 0
x4
1 1 0
= x1 0 + x2 1 + x3 −1
1 0 1
Dn 1 1 0 oE
Luego ImT = 0 , 1 , −1 .
1 0 1
Pero del resultado
1 de escalonar
0 la matriz
que tiene como columnas a
1 0
los vectores 0 , 1 , −1 y 0 , en 4.3 podemos extraer una ba-
Dn 1 1 1 0 0 1 0 oE0 Dn 1 1 0 oE
se de 0 , 1 , −1 , 0 = 0 , 1 , −1 , tomando
1 0 1 0 1 0 1
aquellos vectores asociados a columnas con pivotes de la matriz
escalonada
n o (Importante: ver guı́a de ejercicios y problemas). Es decir,
1 1
0 , 1 . ◭ Ejercicio
1 0
Dn 1 1 oE
Concluı́mos entonces que ImT = 0 , 1
1 0
es un s.e.v. de R3 de
dimensión dos.
R
Observemos en este ejemplo que 4 = dim 4 = dim KerT + dim ImT .
Además T no es inyectiva
ya que KerT contiene más de un vector, es
0
decir el vector 0 tiene más de una pre-imagen. Tampoco es epiyectiva
R3 .
0
ya que dim ImT < 3 = dim
103
Departamento de Ingenierı́a Matemática - Universidad de Chile
Teorema 4.1. Sea T : U → V una transformación lineal entonces
T es inyectiva ⇔ KerT = {0}
104
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 8
Álgebra Lineal 08-1
Ejercicios
(a) Demuestre que el conjunto de vectores {v1 , vj2 , . . . , vjl }, es decir las
columnas correspondientes a los pivotes, es un conjunto l.i.
Indicación: Estudie qué sucede si en la matriz original A sólo hu-
biese puesto los vectores v1 , vj2 , . . . , vjl .
(b) Pruebe que las columnas de à que no contienen pivotes, que están
entre la del pivote k y la del k + 1 (es decir ṽjk +1 , . . . , ṽjk+1 −1 ), son
combinación lineal de los vectores ṽ1 , ṽj2 , . . . , ṽjk .
Indicación: Use inducción en k.
(c) Dado un conjunto de vectores {u1 , . . . , um } ∈ Rn y una matriz
R
invertible E ∈ Mnn ( ), demuestre que:
105
R
2. Sea un conjunto de vectores v1 , . . . , vm ∈ n , con U = h{v1 , . . . , vm }i y
Problemas
R
P1. Sea P3 ( ) el conjunto de los polinomios de grado menor o igual a 3
R
con coeficientes reales. Se define la transformación T : P3 ( ) → P3 ( ) R
por:
106
P3. Sean V , W e. v.’s sobre R. En V ×W se definen la suma y ponderación
Gf = {(v, w) ∈ V × W : w = f (v)} .
107
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
de donde
v = T (u) = αν+1 T (uν+1 ) + .... + αn T (un ),
pues T (u1 ) = ... = T (uν ) = 0. Es decir v es combinación de los elementos
de β ′ . Probemos ahora que son l.i., para ello consideremos
o equivalentemente
αν+1 = ... = αn = 0,
108
Es directo del TNI que: si dim U = n, y el rango de T es n se tiene
◭ Ejercicio
109
4.7. Matriz Representante de una Transformación Lineal
K
Sean U, V espacios vectoriales sobre un cuerpo , dim U = p, dim V = q.
Sean βU = {u1 , ..., up }, βV = {v1 , ..., vq } bases de U y V respectivamente.
Consideremos finalmente una transformación lineal T : U → V .
o bien,
T (u1 ) = a11 v1 + a21 v2 + ... + aq1 vq
T (u2 ) = a12 v1 + a22 v2 + ... + aq2 vq
..
.
T (up ) = a1p v1 + a2p v2 + ... + aqp vq
110
Departamento de Ingenierı́a Matemática - Universidad de Chile
Observación: Una pregunta interesante es: ¿Qué sucede con esta
matriz si cambiamos las bases?. Esto lo responderemos en breve.
Ejemplo:
Sea T : R4 → R3, definida por
x1
1 1 0 0
x
T (x) = 0 1 1 0 2 .
x3
0 0 1 1
x4
n 1β=β1U={e
Consideremos , e2 , e3 , e4 }, base canónica de 4 ,
1o R
β ′ = βV = 1 , 0 , 1
0 1
0
1
R
base de 3 . Se tiene entonces:
1
1 1 1 1 1 1 0
T (e1 ) = T 00 = 0 = 1 + 0 − 1
0 0 2 0 2 1 2 1
0 1 1 0
1
T (e2 ) = T 10 = 1 = 1 1 + 0 0 + 0 1
0 0 0 1 1
0 0 1 1 0
T (e3 ) = T 0 = 1 =0 1 +0 0 +1 1
1 1 0 1 1
0
0 0
0 1 1 1 1 1 0
T (e4 ) = T 0 = 0 =− 1 + 0 + 1
1 1 2 0 2 1 2 1
de donde: 1
2 1 0 − 21
Mββ ′ (T ) =
1
2 0 0 1
2
∈ M34 ( )
R
− 21 0 1 1
2
n 1 0 0 o
Tomemos ahora, en R3, la base canónica, β′ = 0 , 1 , 0
0 0
:
1
1
T (e1 ) = 0 = 1e′1 + 0e′2 + 0e′3
0
1
T (e2 ) = 1 = 1e′1 + 1e′2 + 0e′3
0
0
T (e3 ) = 1 = 0e′1 + 1e′2 + 1e′3
1
0
T (e4 ) = 0 = 0e′1 + 0e′2 + 1e′3
1
Luego,
1 1 0 0
Mββ ′ (T ) = 0 1 1 0
0 0 1 1
¡Sorpresa!, esta matriz representante no sólo es distinta de la anterior,
sino que corresponde a la matriz que define T en forma natural. Con-
cluı́mos entonces que: la matriz representante depende de las bases ele-
gidas y que la matriz representante con respecto a las bases canónicas
111
es la matriz asociada a T . Esto último lo podemos verificar en el caso
general:
Se tiene entonces:
0 a
a11 ... a1j ... a1p .. 1j
. a2j
.. .. .. 1 =
TA (ej ) = Aej = .
. . . ...
aq1 ... aqj ... aqp ..
aqj
0
o bien:
q
X
TA (ej ) = a1j e′1 + ... + aqj e′m = aij e′i
i=1
u = α1 u1 + ... + αp up ,
Pp Pq
y por lo tanto T (u) = j=1 αj T (uj ) pero T (uj ) = i=1 mij vi y por lo
tanto p q q X p
X X X
T (u) = αj mij vi = ( αj mij )vi .
j=1 i=1 i=1 j=1
112
Es directo que LK (U, V ), dotado de las operaciones: LK (U, V )
LK (U, V ) ∼
= Mqp ( ) K
En efecto, sean βU , βV bases de U y V respectivamente y definamos la
función.
ϕ : LK (U, V ) → Mqp ( ) K
T → ϕ(T ) = MβU βV (T )
Es decir, a una transformación lineal arbitraria le asociamos su matriz
representante con respecto a las bases βU y βV .
113
2. ϕ es biyección. Sean T ∈ Ker(ϕ) ⇔ ϕ(T ) = MβU βV (T ) = 0 ∈
K
K
A = (aij ) ∈ Mqp ( ), le asociamos la transformación lineal T , que
q
P
a la base de U asocia: T (uj ) = aij vi . Es directo que ϕ(T ) =
i=1
Mqp (T ) = A, luego ϕ es epiyectiva. De (1) y (2) concluı́mos que ϕ es
un isomorfismo.
Directamente, de este resultado se tiene: dim LK (U, V ) = dim Mqp ( ) = K
pq = dim U dim V . Es decir, la dimensión del espacio de transformaciones
q
X
T (uk ) = bjk vj 1≤k≤p
j=1
Xr
L(vj ) = aij wi 1≤j≤q
i=1
Calculemos ahora:
Xq
(L ◦ T )(uk ) = L(T (uk )) = L( bjk vj ) =
j=1
q
X Xq Xr
= bjk L(vj ) = bjk ( aij wi )
j=1 j=1 i=1
r X
X q
= ( aij bjk )wi 1≤k≤p
i=1 j=1
114
obteniendo
115
Una aplicación inmediata de este resultado es
(Mββ ′ (T ))−1 = Mβ ′ β (T −1 ).
K
Teorema 4.5. Para toda matriz A ∈ Mnn ( ), las propiedades siguientes
son equivalentes
1. A es invertible.
2. TA : Kn → Kn, v → TA(v) = Av es un isomorfismo.
3. El conjunto {A•j}nj=1 es base de Kn .
116
4.8. Matriz de Pasaje o de Cambio de Base
Mβ ′ β (idV ),
n
P
Pero, además, v = αi vi .
i=1
Como la representación es única, concluı́mos:
n
X
αi = pij α′j 1≤i≤n
j=1
matricialmente: α = P α′ .
117
Esta ecuación establece la relación entre las coordenadas de un mismo vec-
Estudiaremos ahora la relación que existe entre las distintas matrices re-
presentantes de una misma transformación lineal. Esto lo deduciremos de
la regla que tenemos para la matriz representante de una composición de
aplicaciones lineales. Sea T : U → V lineal y consideremos cuatro bases:
β, β̃ bases de U
β ′ , β̃ ′ bases de V.
idV ◦ T ◦ idU = T,
y por lo tanto
C = P AQ.
Diremos que entonces A y C son semejantes. Como ejercicio, probar que matrices semejantes
esta es una relación de equivalencia. Un caso importante es cuando Q = ◭ Ejercicio
P −1 , es decir
C = P AP −1 .
118
En este caso especial diremos que A y C son similares. Esta también es matrices similares
119
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 9
Álgebra Lineal 08-1
Ejercicios
(a) T (W ) es subespacio de V.
(b) dim T (W ) ≤ dim U .
(c) Si T es inyectiva dim T (W ) = dim W .
3. T : U → V es una transformación lineal y β, β ′ son bases de U y V Ejercicio 4.3
respectivamente entonces
(a) T es invertible ssi Mββ ′ (T ) es una matriz invertible.
(b) Si T es invertible,
(Mββ ′ (T ))−1 = Mβ ′ β (T −1 ).
Problemas
R
P1. Sean M22 ( ) el espacio vectorial de las matrices de 2×2 a coeficientes
R R
reales sobre el cuerpo . Sea P2 ( ) el espacio vectorial de los polino-
mios de grado menor o igual a 2 a coeficientes reales sobre el cuerpo
R. Sea
T: R
M22 ( ) −→ P2 ( ) R
a b
c d 7−→ T ( ac db ) = (a + d) + (b + c)x + (a + b + 2c + d)x2 .
120
P2. Considere las funciones lineales f y g tales que
y las bases
B1 =
1
3
2
4
,
1 0
−1 2
,
0 3
0 −1
,
2 5
2 −4
de M22 ( ) R
y
2 0 1
B2 = 1 , 1 , −2 de 3
R
−1 3 1
1 11 1
Sea A = −2 0 0 1 la matriz representante de la función f con
R R3.
2 1 1 −1
respecto a las bases B1 en M22 ( ) y B2 en
(a) Encuentre la matriz representante de B de la función g con res-
R R
pecto a las bases canónicas de 3 y 2 respectivamente.
(b) Obtenga la matriz representante de g ◦ f con respecto a la base
R
B1 en M22 ( ) y a la base canónica de 2 . R
P3. Sea T : V → V una aplicación lineal con V espacio vectorial de dimen-
sión finita. Demuestre que
R
(a) Encuentre la base β ′ de P2 ( ) tal que Q sea representante de la
R R
identidad de P2 ( ) con β ′ en P2 ( )con β. Si le sirve, si denotamos
por [p]β el vector de coordenadas de p con respecto a la base β,
[p]β = Q[p]β ′ R
∀p ∈ P2 ( ).
R R
(b) Sea T : P2 ( ) → 3 la transformación lineal cuya matriz repre-
R
sentante con respecto a las bases β en P2 ( ) y canónica en 3 es R
la matriz
0 1 0
A = 0 0 2 .
0 0 0
Calcule la matriz representante de T con respecto a las bases β ′
R R
en P2 ( ) y canónica en 3 , donde β ′ es la base encontrada en
(a).
121
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
◭ Ejercicio
r(A) = r(B).
Notemos dos cosas: primero que hemos dado un orden especial a esta base
donde los vectores que agregamos van al principio; y segundo que del teo-
K
rema del núcleo imagen p = dim p = dim ImA + dim KerA y por lo tanto
necesitamos agregar tanto vectores como rango de A es decir r = r(A).
Tomemos ahora X = {v1 , ..., vr } donde vi = Awi , i = 1, ...r. Probaremos
que X es un conjunto l.i.. En efecto si
λ1 v1 + ... + λr vr = 0,
se tendrá que
122
es decir el vector λ1 w1 + ... + λr wr está en el KerA. Como lo hemos hecho
λ1 w1 + ... + λr wr = α1 u1 + ... + αν uν ,
λ1 w1 + ... + λr wr − α1 u1 − ... − αν uν = 0,
A = P HQ.
K
Por otro lado si A, B ∈ Mqp ( ) tienen el mismo rango entonces se demues-
tra que existen matrices invertibles P, Q, R, S tal que
r(A) = r(At ).
123
Usando la forma normal de Hermite, se deduce que existen matrices inver-
tibles P, Q tal que
◭ Ejercicio
124
Definición 5.1 (Vector y valor propio). Diremos que x ∈ V es un Vector y valor propio
∃λ ∈ K, Ax = λx.
K
Proposición 5.1. Dada A ∈ Mnn ( ), son equivalentes:
(i) ∃x 6= 0 Ax = λx.
(ii) ∃x solución no trivial del sistema (A − λI)x = 0.
(iii) Ker(A − λI) 6= {0}
(iv) A − λI no es invertible.
K
Necesitamos una forma fácil de determinar qué valores de λ ∈ son valores
propios. Para ello serı́a útil que la condición (iv) pudiera expresarse como
una ecuación en λ. Veremos que el cálculo de los valores propios se reduce a
estudiar un polinomio de grado n cuyos coeficientes dependen de la matriz
A.
Ejemplo:
1 2 3
5 6
A = 4 5 6 A11 = .
8 9
7 8 9
125
n
P
(ii) Si A es de n × n |A| = (−1)i+1 ai1 |Ai1 |.
◭ Ejercicio
126
Proposición 5.2. Se tienen las siguiente propiedades:
Dada
σ permutación del conjunto {1, 2, ..., n}, se define signo(σ) =
una
eeσ(1)
σ(2)
. donde e1 , ..., en son las filas de la matriz identidad. De (2)
.
e.
σ(n) P
y (4) se obtiene que signo(σ) ∈ {−1, 1}. Se tiene además |A| =
σ
signo(σ) a1σ(1) a2σ(2) ...anσ(n) donde la suma se extiende sobre todas
las n! permutaciones de {1, ..., n}.
9. |AB| = |A||B|.
127
10. Si A es invertible entonces |A−1 | = 1/|A|.
n
X
|A| = (−1)i0 +j ai0 j |Ai0 j | (Cálculo de |A|, usando la fila i0 )
j=1
X n
Y
|A − λI| = signo (σ) (A − λI)iσ(i)
σ i=1
Ejemplo:
4 −5
A=
2 −3
128
¿Cuáles son los valores propios de A?. Para ello estudiemos A − λI.
Ejemplo:
0 −1 −λ −1
A= |A − λI| = = λ2 + 1 = 0
1 0 1 −λ
R
no tiene solución en , y por tanto A no tiene valores propios reales.
Sin embargo si el cuerpo donde estamos trabajando es C
entonces A
tiene dos valores propios.
Ejemplo:
R
Sea D( ) = { espacio de funciones infinitamente diferenciables de → R
R R
} se prueba fácilmente que D( ) es un espacio vectorial sobre . R
Consideremos
R
L : D( ) → D( )R
df ,
f → Lf =
dt
es decir Lf es la función derivada de f .
K
De la definición v es vector propio si v 6= 0 y ∃λ ∈ tal que Av = λv. Ası́,
λ es valor propio si y sólo si existe una solución no nula de la ecuación
(A − λI)v = 0
129
Si A y B son similares es decir si existe P invertible tal que A = P BP −1 ,
A − λI = P BP −1 − λP P −1 = P (B − λI)P −1
Ejemplo:
4 −5
Sea A = Sabemos que los valores propios son λ1 = 2, λ2 =
2 −3
−1. Calculemos los vectores propios asociados.
λ1 = 2 La ecuación de vectores propios es
x1 2 −5 x1 0
(A − 2I) = =
x2 2 − 5 x2 0
130
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
1. Si
a11 ··· a1n
..
.
à = ak1 + bk1 ··· akn + bkn ,
..
.
an1 ··· ann
entonces
a11 ··· a1n a11 ··· a1n
.. ..
. .
|Ã| = an1 ··· akn + bk1 ··· bkn = |A| + |B|.
. .
. ..
.
an1 ··· ann an1 ··· ann
131
entonces
···
Las matrices Ai1 y Aj1 de dimensión n−1×n−1 son iguales excepto que
la fila X esta en distinta posición. En Ai1 esta en la fila j −1. En Aj1 esta
en la fila i. Ası́ podemos llegar de la matriz Ai1 a la matriz Aj1 mediante
132
j −1−i permutaciones. Por cada permutación hay un cambio de signo en
A1• A1• A1• A1•
.. ..
.. ..
.
.
. .
Ai• Aj•
Ai• Ai•
.. .. . .
0 =| B |= . + = . + .. +
. .
A +A
i• j• Ai• + Aj• Ai• Aj•
. . . .
.. .. .. .
.
An• An• An• An•
A
A1• 1•
.. ..
. .
A
Aj• j•
. ..
+ .. + . = 0 + |A| + |Ã| + 0,
Ai• Aj•
.
. .
..
.
An• An•
133
y por lo tanto
6. Las filas de A son l.d. ⇐⇒| A |= 0. Supongamos que las filas de A son l.d.
es decir ∃λ1 , ..., λn no todos nulos tal que λ1 A1• +λ2 A2• +...+λn An• = 0
podemos suponer sin pérdida de generalidad que λ1 6= 0
λ1 A1• + λ2 A2• + ... + λn An•
A2•
à =
.. =
.
An•
0
n
X
A2•
= . = (−1)1+1 0· | Ã11 | + (−1)j+1 ãj1 |Ãj1 |,
..
j=2
An•
134
pero para j ≥ 2 la primera fila de Ãj1 es cero luego las filas de Ãj1 son
Falta probar que |A| = |At |. Esta proposición no es fácil, para ello
necesitamos la siguiente fórmula:
P
7. |A| = (signo σ) a1σ(1) a2σ(2) ...anσ(n) donde la suma se extiende sobre
σ
todas las permutaciones de {1, ..., n} y signo(σ) se define como
eσ(1)
signo (σ) = ... ,
e
σ(n)
1 2 3 ··· n
σ=
2 1 3 ··· n
eσ(1) = e2
eσ(2) = e1
eσ(i) = ei i≥2
135
0 1 0 ··· 0
Por lo tanto
ek
ek1
eℓ
X X ek2
|A| = a1k a2ℓ Aj• =
a1k1 a2k2 ...ankn .
.. ..
k6=ℓ k1 ,...,kn
. todos
ekn
a1k1 a2k2 ...ankn distintos
136
Supongamos que tenemos una función F que asigna a cada matriz cua-
K
Sea
K
F : Mnn ( ) → K
A → |AB|
probemos que F es n-lineal. En efecto
A1• A1•
.. ..
. .
C1 = X C2 = Y
. .
.. ..
An• An•
A1• A1• B
.. ..
. .
à = X + Y ÃB = XB + Y B ,
. .
.. ..
An• An• B
137
y por lo tanto
9. Si A es invertible entonces
1
|A−1 | =
|A|
1
en efecto, |A−1 A| = |I| = 1 = |A−1 | · |A| luego |A−1 | = |A| .
Demostración. Sean
eσ(1) eσ′ (1)
A = ... B = ...
eσ(n) eσ′ (n)
138
eσ◦σ′ (1) eσ(σ′ (1))
0 j 6= k
etj ek = , se tiene que la primera fila de BA tendrá la forma:
1 j=k
′ −1
(BA)1j = etσ′ (1) eσ−1 (j) = 1 σ (1) = σ (j) ,
0 sino
es decir (BA)1• es un vector de la base canónica, lo que debemos ave-
riguar es en que posición tiene el ”1”, pero esto se deduce de la ecua-
ción σ ′ (1) = σ −1 (j) pues entonces j = σ(σ ′ (1)) = σ ◦ σ ′ (1), luego
(B · A)1• = eσoσ′ (1) . Ası́ se obtiene:
eσ◦σ′ (1)
eσ◦σ′ (2)
BA = ..
.
eσ◦σ′ (n)
Por lo tanto C = B · A, de donde |C| = |B||A| y entonces
signo(σ ◦ σ ′ )= signo(σ) signo(σ ′ ). En particular signo(σ −1 )= signo(σ)
pues
signo(σ ◦ σ −1 ) = signo(id) = 1 = signo(σ) signo(σ −1 ),
donde id es la permutación identidad.
139
Fórmula para A−1
Si |A| =
6 0 definamos B mediante:
1
bij = (−1)i+j |Aji |.
|A|
Calculemos AB:
n
X n
X (−1)k+j
(AB)ij = aik bkj = aik |Ajk |.
|A|
k=1 k=1
n
P
2. j 6= i (AB)ij = (−1)k+j a|A|
ik
|Ajk |, que corresponde al determinante
k=1
de la siguiente matriz, calculado usando la fila j
a11 ···a1n
.. .. ..
. . .
ai1 ··· ain ← i
. .. ..
.
. . .
ai1 ain ← j
· · · · · · |A|
|A|
. .. ..
.. . .
an1 ··· ann
n
P ajk
Como las filas de esta matriz son l.d. se tiene (−1)k+j |A| |Ajk | = 0,
k=1
y por tanto AB = I lo que implica que
B = A−1 .
Ejemplo:
Sea
a b
A= .
c d
140
Se tendrá que
141
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 10
Álgebra Lineal 08-1
Ejercicios
r(A) = r(B).
3 0 1 0
2 1 0 0 3 2 2 3 −2 1
3 0 0
0 2 0 0 −2 1 −6 2 1 −1
1 3 0
0 0 3 1 −1 4 2 −6 4
0 0 0 3
Problemas
K
P1. (a) Pruebe que una matriz A ∈ Mmn ( ) tiene rango 1 si y sólo si
K K
existen u ∈ m , v ∈ n , ambos no nulos tales que A = uv t .
(b) Si α0 , α1 , ..., αn−1 ∈ R y n > 2, probar por inducción que el
polinomio caracterı́stico de la matriz
0 0 ... 0 −α0
1 0 ... 0 −α1
−α2
A = 0 1 ... 0
.. .. .. .. ..
. . . . .
0 0 ... 1 −αn−1
n−1
P
es igual a: (−1)n ( αk λk + λn ).
k=0
R
P2. Sean A, B ∈ Mn,n ( ) invertibles y α ∈ R, 0 < α < 1.
a) Sea PA−1 B (·) el polinomio caracterı́stico de A−1 B. Pruebe que
n α
|(αA + (1 − α)B)| = (1 − α) |A|PA−1 B .
α−1
142
P3. Sean A, B matrices de n×n con coeficientes reales tales que AB = BA
143
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
λ1 0 0
..
0 λ2 .
MB ′ B ′ (L) = .. .. = D que es diagonal.
. 0 . 0
0 0 λn
A
B → B
P −1 ↓ ↑ P.
D
B′ → B′
Por lo tanto A = P DP −1
n
Q
(2) |A| = |P DP −1 | = |P ||D||P −1 | = |D| = λi .
i=1
En efecto,
144
1
λ1 0
(4)
Am = (P DP −1 )m = (P DP −1 )(P DP −1 ) · · · (P DP −1 )
m
λ1 0
.. −1
= P Dm P −1 = P . P
0 λm
n
Demostración.
(⇒) Hemos visto que si A es diagonalizable entonces
λ1 0
A = P DP −1 donde D = ..
.
0 λn
y P = (v1 , . . . , vn ). Luego A es similar a una diagonal.
145
K
α1 v1 + · · · + αk vk = 0, (5.2)
α1 λ1 v1 + · · · + αk λk vk = A(α1 v1 + · · · + αk vk ) = A0 = 0.
146
k
2. Si Z = + Ui y Z es de dimensión finita, entonces son equivalentes:
k
M
(a) Z = Ui .
i=1
(b) (∀i ∈ {1, . . . , k})(∀ui ∈ Ui \ {0}) {u1 , . . . , uk } es l.i.
(c) La yuxtaposición de bases de los subespacios Ui es una base (y no
sólo un generador) de Z.
k
X
(d) dim(Z) = dim(Ui ).
i=1
lo cual es una combinación lineal nula, con escalares no nulos (todos 1), de
los vectores ui = wi − wi′ ∈ Ui \ {0}. Pero esto es una contradicción con el
hecho de que dichos vectores son l.i, por hipótesis.
Ası́ se tiene que la escritura es única y por ende la suma es directa
Lk
(a) ⇒ (b) Supongamos ahora que Z = i=1 Ui . Sea {u1 , . . . , uk }, con
ui ∈ Ui , ∀i ∈ {1, . . . , k}. Estudiemos
k
X
αi ui = 0.
i=1
∀i ∈ {1, . . . , k}, αi ui = 0.
147
Departamento de Ingenierı́a Matemática - Universidad de Chile
K
Teorema 5.3. Sea A ∈ Mnn ( ), λ1 , . . . , λk los valores propios (distintos)
de A y Wλi = Ker(A−λi I), i ∈ {1, . . . , k}. Si W = Wλ1 +Wλ2 +· · ·+Wλk ,
se tiene que
W = Wλ1 ⊕ Wλ2 ⊕ · · · ⊕ Wλk .
En particular, A es diagonalizable si y sólo si
Kn = Wλ 1 ⊕ Wλ2 ⊕ · · · ⊕ Wλk .
K
Corolario 5.1. Supongamos que A ∈ Mnn ( ) y que p(λ) = |A − λI|, el
polinomio caracterı́stico de A, tiene n raı́ces distintas en K
: λ1 , . . . , λn ,
entonces
1. Wλi = Ker(A − λi I) es de dimensión 1.
2. Sea vi ∈ Wλi con vi 6= 0 entonces {v1 , . . . , vn } es una base de vectores
propios.
K
Este teorema da un criterio simple para que A ∈ Mnn ( ) sea diagonizable,
éste es que A tenga n valores propios distintos.
Ejemplo:
Sea
1 −1 −1
A= −1 1 −1
−1 −1 1
1−λ −1 −1
p(λ) = |A − λI| = −1 1−λ −1
−1 −1 1 − λ
148
Ejemplo:
K
Teorema 5.4. Una matriz A ∈ Mnn ( ) es diagonalizable ssi la suma de
las multiplicidades geométricas de sus valores propios es n.
K
Definición 5.7 (Multiplicidad algebraica). Sean A ∈ Mnn ( ) y λ un Multiplicidad
valor propio de A. Definimos la multiplicidad algebraica de λ, αA (λ), algebraica, αA (λ)
como la máxima potencia de (x − λ) que divide al polinomio caracterı́stico
de A, pA (x) = |A − xI|.
K
Proposición 5.5. Sean A ∈ Mnn ( ) y λ0 un valor propio de A, entonces:
1 ≤ γA (λ0 ) ≤ αA (λ0 ) ≤ n.
◭ Ejercicio
149
Departamento de Ingenierı́a Matemática - Universidad de Chile
2. Sea γ = γA (λ0 ). Considere una base βλ0 = {v1 , . . . , vγ } de Wλ0 =
Ker(A − λ0 I).
3. Extienda dicha base a una base β = {v1 , . . . , vγ , vγ+1 , . . . , vn } de
K
n
.
4. Calcule la matriz representante de T (x) = Ax, con respecto a la
base β. Es decir, Mββ (T ).
5. Pruebe que
K
Corolario 5.2. Sea A ∈ Mnn ( ) y pA (λ) su polinomio caracterı́stico. Se
tiene entonces que A es diagonalizable si y sólo si pA (λ) se factoriza com-
pletamente en K
en factores lineales. Es decir:
Pk
De donde i=1 αA (λi ) = n.
Ahora
n = gr(pA (λ)) = gr(cA · (λ − λ1 )αA (λ1 ) (λ − λ2 )αA (λ2 ) . . . (λ − λk )αA (λk ) ) + gr(q(λ))
k
X
= αA (λi ) + gr(q(λ)).
i=1
| {z }
n
150
Ası́, gr(q(λ)) = 0. Es decir, es una constante y se tiene la fatorización
Mk k
X k
X
dim( Wλi ) = γA (λi ) < n = αA (λi ).
i=1 i=1 i=1
C
Corolario 5.3. A ∈ Mnn ( ) es diagonalizable si y sólo si para todo valor
propio λ de A, se tiene que
γA (λ) = αA (λ).
151
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 11
Álgebra Lineal 08-1
Ejercicios
K
2. Pruebe que, dados A ∈ Mnn ( ) y λ0 un valor propio de A, entonces: Proposición 5.5
1 ≤ γA (λ0 ) ≤ αA (λ0 ) ≤ n.
Para ello
(a) Pruebe las desigualdades 1 ≤ γA (λ0 ) y αA (λ0 ) ≤ n.
(b) Sea γ = γA (λ0 ). Considere una base βλ0 = {v1 , . . . , vγ } de Wλ0 =
Ker(A − λ0 I).
(c) Extienda dicha base a una base β = {v1 , . . . , vγ , vγ+1 , . . . , vn } de
Kn
.
(d) Calcule la matriz representante de T (x) = Ax, con respecto a la
base β. Es decir, Mββ (T ).
(e) Pruebe que
pA (λ) = |A − λI| = (λ − λ0 )γ q(λ).
En donde q(λ) es un polinomio de grado n − γ.
Indicación: Pruebe y use que A y Mββ (T ) son similares.
(f ) Concluya el resultado.
Problemas
R
P1. (a) Sea P2 ( ) el espacio vectorial de los polinomios a coeficientes
reales de grado menor o igual a 2, y sea T : P2 ( ) → P2 ( ) la R R
transformación lineal definida por
152
(1) Verifique que la matriz representante de T con respecto a la
R
sea diagonalizable.
R
P2. Sea a ∈ . Se define una sucesión de números reales (un )n∈N de la
siguiente manera: u0 = 1, u1 = a, (∀n ≥ 2) un = aun−1 − un−2 .
Sean x0 = ( 10 ), (∀n ≥ 1) xn = ( uun−1
n
).
R
P3. Sean R, S ∈ Mnn ( ), con S invertible. Considere A = RS y B = SR.
R
(a) Pruebe que v ∈ n es vector propio de A asociado al valor propio
λ ∈ R ssi Sv es vector propio de B asociado al mismo valor propio
λ. Concluya que A y B tienen los mismos valores propios.
(b) Sean Wλ (A) = Ker(A− λI) el subespacio propio de A asociado al
valor propio λ ∈ R
y Wλ (B) el subespacio propio de B asociado
a λ. Pruebe que dim(Wλ (A)) = dim(Wλ (B)).
(c) Pruebe que A es diagonalizable ssi B es diagonalizable.
153
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
Pk
Demostración. Sea i=1 αi vi una combinación lineal nula de los elemen-
tos de {v1 , . . . , vk }. Sea j ∈ {1, . . . , k}, luego por propiedades del producto
interno:
* k + k
X X
αi vi , vj = 0 ⇔ αi hvi , vj i = 0.
i=1 i=1
154
1. Si x ∈ W ,
2. Si x ∈ Rn y definimos
k
X
z= hx, ui i ui ∈ W,
i=1
Demostración.
1. Como {u1 , . . . , uk } es una base de W y x ∈ W , luego
k
X
x= αi ui .
i=0
2. Sea x ∈ Rn , z = Pk
hx, ui i ui y w ∈ W , veamos:
i=1
* k k
+
X X
hx − z, wi = hx, wi − hz, wi = hx, wi − hx, ui i ui , hw, uj i uj ,
i=1 j=1
155
y como {u1 , . . . , uk } es ortonormal, hui , uj i = 0, ∀i 6= j y
De esta manera
de donde se concluye.
Definimos entonces:
Definición 6.2 (Proyección ortogonal sobre un s.e.v.). Sea W un Proyección ortogonal
R
subespacio vectorial n y {u1 , . . . , uk } una base ortonormal de W . Defi-
nimos la proyección ortogonal sobre W como la función
P: Rn −→ W
k
P
x 7−→ P (x) = hx, ui i ui ∈ W.
i=1
156
Departamento de Ingenierı́a Matemática - Universidad de Chile
Observación: Notemos que esta definición es correcta, es decir que
P no depende de la base ortonormal considerada y que es función.
Gracias a la Proposición 6.2.2, sabemos que independiente de la base
ortonormal considerada para definirla, la proyección es aquella que mi-
nimiza la distancia de x a W . Ası́, si hubiese dos proyecciones z1 , z2 ,
asociadas a bases distintas y fuesen distintas, luego:
W ⊥ = {u ∈ Rn | ∀w ∈ W hw, ui = 0}.
Proposición 6.5.
(i) W ⊥ es un subespacio de Rn .
(ii) Rn = W ⊕ W ⊥ . Rn = W ⊕ W ⊥
(iii) dim(W ⊥ ) = n − dim(W ).
Demostración.
R
(i) Sea u, v ∈ W ⊥ y λ ∈ , debemos probar que λu + v ∈ W ⊥ . Sea
w ∈ W:
hw, λu + vi = λ hw, ui + hw, vi = 0
lo que es válido para todo w ∈ W . Luego λu + v ∈ W ⊥ por lo tanto
W ⊥ es un subespacio vectorial de n .R
157
R
(ii) Es claro que W + W ⊥ ⊆ n . Para la otra inclusión, dado x ∈ Rn ,
h{v0 , . . . , vm }i = h{u0 , . . . , uk }i .
158
Departamento de Ingenierı́a Matemática - Universidad de Chile
Algoritmo 1 Método Gram-Schmidt
v
1: Partamos con w1 = kv1 k ∗.
1
2: Luego, proyectamos v2 sobre el subespacio generado por u1 :
z2 = hv2 , v1 i u1
w2 = v2 − z2
w2
perpendicular a h{u1 }i y normalizamos, u2 = kw2 k ∗.
3: Luego podemos pasar a trabajar con v2
z3 = hv3 , u1 i u1 + hv3 , u1 i u2
w3 = v3 − z3 ,
w3
perpendicular a h{u1 , u2 }i y normalizamos, u3 = kw 3k
∗.
4: se sigue del mismo modo: una vez obtenidos {u1 , . . . , uk }, proyectamos
vk+1 sobre h{u1 , . . . , uk }i y definimos
k
X
zk+1 = hvk+1 , ui i ui
i=0
wk+1 = vk+1 − zk+1 ,
wk+1
perpendicular a h{u1 , . . . , uk }i y normalizamos, uk+1 = kw k+1 k
∗.
5: El proceso termina cuando hemos procesado todos los vi .
159
Con k = dim(h{v0 , . . . , vm−1 }i).
R tales que
k−1
P hvm ,ul i
Pero gracias a (6.1), existen α0 , . . . , αm ∈ kwk k ul =
l=0
m
P
αl ul . Ası́ uk ∈ h{v0 , . . . , vm }i y luego
l=0
h{u0 , . . . , uk }i ⊆ h{v0 , . . . , vm }i .
160
Obteniendo lo buscado.
Observación:
Notemos que como corolario del Teorema 6.1, se obtiene la Pro-
posición 6.3.
Además, el Teorema 6.1 puede ser aplicado en particular a una
R
base {v0 , . . . , vn−1 } de n .
Observación: ∗
Observar que si alguno de los vectores a normalizar, v1 o los wi , vale
0, significa que el vi correspondiente no aportará un nuevo vector a la
base, y simplemente se descarta, pasándose a trabajar con vi+1 .
Esto trae como consecuencia que el número de vectores ui sea menor
que el de los vj si estos últimos son l.d.
En general, esto hará que al procesar el k-ésimo vk , estemos producien-
do un ui , con i < k, pero no hemos introducido esto en la descripción
del algoritmo para no confundir la notación.
Ejemplo:
0 1 1 1
0 , 1 , 1 , 0 en
R3 .
1 0 1 1
1
0
u0 = v0 / hv0 , v0 i , como hv0 , v0 i = 1 se tiene u0 = 0
2
1
* +
1 1 0 0 1
w1 = 1 − 1 , 0 0 = 1 .
0 0 1 1 0
1
1 1
hw1 , w1 i = 2 ⇒ u1 = √ w1 = √ 1
2 2 0
* + * +
1 1 0 0 1 1 1
1 1
w2 = 1 − 1 , 0 0 − 1 , √ 1 √ 1
1 1 1 1 1 2 0 2 0
1 0 1 0
1 1
= 1 − 0 − √ √ · 21 = 0
1 1 2 2 0 0
161
1
w2 = 0, por ende ignoramos 1 y redefinimos w2 .
n
X
hu, viH = uj vj .
j=1
◭ Ejercicio
162
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
C
Sea A ∈ Mnn ( ) entonces el polinomio caracterı́stico p(λ) = |A − λI| es
un polinomio de grado n con coeficientes complejos y por lo tanto tiene n
C
raı́ces en (con posibles repeticiones). Denotaremos por
σ(A) = {λ ∈ C/|A − λI| = 0}
al conjunto de las raices del polinomio caracterı́stico. Este conjunto lo lla-
R
maremos el espectro de A. Como Mnn ( ) ⊆ Mnn ( ) podemos definir de C espectro, σ(A)
igual manera el espectro de A, para A ∈ Mnn ( ). R
En general el espectro de A es un subconjunto de , aún cuando A ∈ C
R
Mnn ( ), como lo muestra el próximo ejemplo.
163
Ejemplo:
C
Teorema 6.2. Sea A ∈ Mnn ( ) hermı́tica entonces el espectro de A es
subconjunto de .R
pero
hAv, viH = hv, AviH = hv, λviH = λ̄ hv, viH
R
como v 6= 0 hv, viH 6= 0 entonces λ = λ̄ es decir λ ∈ . Se tiene que para A
hermı́tica el polinomio caracterı́stico p(λ) = |A − λI| tiene todas sus raı́ces
reales.
R
Corolario 6.1. Si A ∈ Mnn ( ) es simétrica entonces σ(A) ⊆ R.
C
Teorema 6.3. Si A ∈ Mnn ( ) es hermı́tica y λ1 6= λ2 son valores propios
y v1 , v2 son vectores propios asociados a λ1 y λ2 respectivamente entonces
hv1 , v2 iH = 0.
164
R C
Notemos que si u, v ∈ n ⊆ n , entonces hu, viH = hu, vi, por lo tanto se
R R
Lema 2. L : n → n es simétrica si y sólo si la matriz representante
R
con respecto a la base canónica de n es simétrica.
◭ Ejercicio
ϕ: W −→ Rn α1
!
Pk ..
x= i=0 αi ui 7−→ ϕ(x) = . .
αk
R
Teorema 6.4. Sea W subespacio de n , dim W ≥ 1 y L : W → W lineal,
simétrica, entonces existe una base ortonormal de W de vectores propios
de L.
165
Departamento de Ingenierı́a Matemática - Universidad de Chile
Demostración. Por inducción sobre la dimensión de W . Si dim W = 1.
Entonces W = h{v}i, con v 6= 0. Notemos que
L(v) ∈ W = h{v}i ,
luego existe λ ∈ R
tal que L(v) = λv. Es decir, λ es un valor propio de L
y v vector propio de L.
Definiendo
1
ṽ = v,
kvk
se tendrá Lṽ = λṽ y además {ṽ} es una base ortonormal de W . Esto prueba
el caso en que la dimensión sea 1.
L̃ : W̃ → W̃
(la restricción de L a W̃ ),
u → L̃u = Lu
166
R
Corolario 6.3. Sea A ∈ Mnn ( ), simétrica, entonces A es diagonalizable
por lo tanto P t P = I.
◭ Ejercicio
Ejercicio 6.3: Verificar que P es ortogonal si y sólo si
∀u, v ∈ Rn hP u, P vi = hu, vi .
◭ Ejercicio
Ejercicio 6.4: Probar que Pθ =
cosθ
−senθ
senθ
cosθ
es unitaria en R2 .
Ejemplo:
2 0 0
A = 0 2 0
0 0 1
los valores propios son λ = 2 y λ = 1 en efecto:
167
2−λ 0 0
168
El Teorema 6.4 también es cierto para L(x) = Ax, con A hermı́tica, y la
1. P 2 = P .
En efecto: P (u) = w ∈ W luego w = w + 0 es la única descompo-
sición, de donde
P P (u) = P (w) = w.
Se tiene además P (I − P ) = 0.
2. Im(P ) = W y Ker(P ) = W ⊥ .
En efecto, es claro que Im(P ) ⊆ W . Por otro lado, si w ∈
W P (w) = w, luego Im(P ) = W . Ahora si v ∈ W ⊥ v = 0 + v es
la descomposición única y por tanto P (v) = 0, ası́ W ⊥ ⊆ Ker(P ).
Sea v ∈ Ker(P ), luego P (v) = 0 y por tanto v = 0 + v es decir
v ∈ W ⊥.
3. P es simétrica.
En efecto sean u1 = w1 + v1 , u2 = w2 + v2 , luego
169
(Γ1 , . . . , Γn ). Escogemos {Γ1 , . . . , Γr } una base ortonormal de W , la cual
R
170
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 13
Álgebra Lineal 08-1
Ejercicios
ϕ: W −→ Rn α1
!
Pk ..
x= i=0 αi ui 7−→ ϕ(x) = . .
αk
∀u, v ∈ Rn hP u, P vi = hu, vi .
3. Probar que Pθ =
cos θ
− sen θ
sen θ
cos θ
es ortogonal en R2 . Ejercicio 6.4
Problemas
P1. Considere la matriz A ∈ M33 ( ) R siguiente,
2 1 1
A = 1 2 −1 .
1 −1 2
A = α1 · v1 v1t + α2 · v2 v2t .
172
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 07-2
Ejemplo:
q: R 2
→ R, q(x1 , x2 ) = x21 + 2x1 x2 + x22 = (x1 , x2 )
1 1
1 1
x1
x2
.
Se tiene q(1, −1) = 0, en realidad q(x1 , −x1 ) = 0.
A es semidefinida positiva si ∀x xt Ax ≥ 0.
A es definida negativa ∀x 6= 0 xt Ax < 0.
A es semidefinida negativa ∀x xt Ax ≤ 0.
173
Ejemplo:
R
Teorema 7.1. Supongamos que A ∈ Mnn ( ) es simétrica. Entonces las
siguientes proposiciones son equivalentes.
1. ∀x 6= 0 x t Ax > 0 (A es definida positiva)
3. Sea
a11 a12 ··· a1n
a21 a22 ··· a2n
A=
...
an1 an2 ··· ann
a11 a12 a13
a11 a12
A(1) = [a11 ] A(2) = A(3) = a21 a22 a23 . . .
a21 a22
a31 a32 A33
. . . A(n) = A
entonces |A(1) | = a11 > 0 , |A(2) | > 0, · · · |A(i) | > 0 · · · |A(n) | =
|A| > 0
174
(2) ⇒ (1). Sabemos que por ser A simétrica tiene la descomposición A =
xt Ax = xt P DP t x = (P t x)t DP t x,
xt Ax = z t Dz = λ1 z12 + · · · + λn zn2 ≥ 0,
pues los valores propios son positivos. Más aún la única forma en que esta
suma de cuadrados sea cero es que z1 = · · · = zn = 0 es decir z = 0, pero
entonces P t x = 0 ⇒ x = P 0 = 0 (recordemos que P −1 = P t ).
a!
0
(1) ⇒ (3). Sea a 6= 0 y definamos x = .. , entonces
.
0
n
X n
X n
X
0 < xt Ax = xi (Ax)i = xi aij xj
i=1 i=1 j=1 .
2
= a a11 , luego a11 > 0
De donde A(1) , A(2) , . . . , A(n) = A son todas definidas positivas. Pero una
matriz definida positiva tiene todos sus valores propios positivos (por lo ya
demostrado). Como el determinante es el producto de los valores propios
entonces el determinante es positivo. Luego
|A(1) | > 0, . . . , |A(n) | > 0.
(3) ⇒ (4).
Por inducción sobre i a11 > 0 es el primer pivote. En la etapa i tendremos
a11 ã12 ··· ã1i · · · ã1n
.. ..
0 ã22 . .
. .. ..
.. . ãi−1i−1 .
B1 B2
..
Ãi =
0 ··· ··· 0 ãii
. = .
.. B3 B4
0 ··· ··· 0 ãii+1 .
. .. .. .. ..
.. . . . .
0 ··· ··· 0 ãin ãnn
175
Donde B1 : i × i, B2 : i × n − i, B3 : n − i × i, B4 : n − i × n − i. Por hipótesis
(4) ⇒ (1).
Como todos los pivotes son positivos y no hay que hacer intercambios de
filas se tendra que A = LDU , con L triangular inferior D diagonal y U
triangular superior. U y L tienen 1 en la diagonal y dii = ãii . Como A es
simétrica U = Lt entonces
√ √ √
A = LDLt = (L D) ( DLt ) = RRt , con R = L D
y
√
ã11 √ 0
√ ã22
D=
.. .
.
√
0 ãnn
Dado que |A| = |Ã| = ã11 ã22 , . . . , ãnn > 0 entonces 0 < |A| = |RRt | = |R|2
luego |R| =
6 0, y por lo tanto R es invertible y ası́ su traspuesta.
Hemos probado de paso la que toda matriz definida positiva tiene la si-
guiente descomposición.
Definición 7.3 (Descomposición de Cholesky). Decimos que A ∈ Mnn ( ) Descomposición de R
admite una descomposición de Cholesky si existe R matriz triangular infe- Cholesky
rior, con diagonal estrictamente positiva tal que
A = RRt .
176
Notemos que A es definida positiva ssi ∃R triangular inferior con diagonal
Ejemplo:
√ !
√ 1 3
q(x) = x21 + 2x22 + 3x1 x2 = xt √
3
2 x.
2 2
177
Consideremos A la matriz que define esta forma cuadrática.
178
Consideremos el cambio de variables:
donde:
Definamos p
zi = λi yi i = 1, . . . , p
p
zi = −λi yi i = p + 1, . . . , r
zi = yi i = r + 1, . . . , n
es decir,
√λ 0
1 √
λ2
..
.
p
λp
p
−λp+1
z= ..
y = Qy.
.
√
−λr
1
..
.
0 1
179
r r
Teorema 7.2. Sea xt Ax una forma cuadrática, existe L invertible tal que
si z = Lx, entonces en términos de las variables z la forma cuadrática se
expresa como q̂(z) = z12 + · · · + zp2 − (zp+1
2
+ · · · + zr2 ), donde r=rango A =
número de valores propios 6= 0, p = número de valores propios > 0.
7.3. Cónicas en R 2
donde
xa cd
A= , g= , v=
yc bf
t λ1 0
Supongamos que A = P DP , con D = y P = (v1 v2 ). Entonces
0 λ2
la ecuación de la cónica es:
e = v t P DP t v + g t v = v t P DP t v + gP P t v.
180
Sea u = P t v. En este nuevo sistema de coordenadas la ecuación de la cónica
1. λ1 = λ2 = 0 (⇔ a = b = c = 0)
El conjunto solución es {(x, y)/dy + f x = e} que en general es una
recta (pudiendo ser vacı́o si d = f = 0 y e 6= 0).
u′1 = u1 − α
u′2 = u2 − β
˜ ˜
Falta ver el caso λ1 = 6 0 y λ2 6= 0, tomamos α = − 2λf 1 y β = − 2λd2 .
En el sistema u′1 , u′2 tenemos la ecuación
λ1 (u′1 )2 + λ2 (u′2 )2 = ẽ
181
4. λ1 > 0 y λ2 < 0 podemos suponer que ẽ ≥ 0 de otra manera multi-
λ1 (u′1 )2 − |λ2 |(u′2 )2 = ẽ, que corresponde a una hipérbola con eje de
simetrı́a el eje u′1 . El caso λ1 < 0, λ2 > 0, ẽ ≥ 0 el conjunto solución
es una hipérbola con eje de simetrı́a u′2 .
Notemos que en general el sistema (u1 , u2 ) corresponde a una rotación con
respecto al eje (x, y) y sus ejes están en la dirección de los vectores propio.
El sistema (u′1 , u′2 ) corresponde a una traslación o cambio de origen del
sistema (u1 , u2 ).
182
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 14
Álgebra Lineal 08-1
Ejercicios
(a) q(x) = −2x21 − 21 x1 x2 + 5x22 . (c) q(x) = x21 +y22 −y32 −x1 x2 +x1 x3 .
(b) q(x) = x1 (2x1 − x2 ) + x2 (3x1 +
x2 ). (d) q(x) = (x1 + x2 )2 − (x1 + x3 )2 .
R
3. Sea A ∈ Mnn ( ) una matriz simétrica.
R
(a) Probar que v ∈ n es vector propio de A si y sólo si es vector propio
R
de I − A. Si λ ∈ es el valor propio de A asociado a v, ¿cuál es el
valor propio de I − A asociado a v?
(b) Probar que la matriz I − A es definida positiva si y sólo si todos los
valores propios de A son menores estrictos que uno.
Problemas
P1. Considere la cónica de ecuación 5x2 + 5y 2 + 6xy + 16x + 16y = −15.
Realice el cambio de variables que permite escribir la cónica de ma-
nera centrada y escriba la nueva expresión (escribir explı́citamente el
cambio de variables). Identifique la cónica resultante y dibújela.
R
P2. Sea A ∈ M22 ( ) simétrica definida postiva, b ∈ R2 , c ∈ R y f : R2 →
Rtal que
f (x) = xt Ax − bt x + c.
Se quiere minimizar f .
(a) Sea x0 = 21 A−1 b. Pruebe que f (x) = (x−x0 )t A(x−x0 )−xt0 Ax0 +c.
(b) Concluya que el único mı́nimo de f se alcanza en x0 , i.e., que
R
f (x) ≥ f (x0 ) para todo x ∈ 2 y que la igualdad se alcanza
solamente cuando x = x0 -
183
P3. Sea α ∈ R y considere la ecuación
184
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
185
1
Vemos que v11 es vector propio (cabeza de serie) asociado al valor propio
λ 1
1
..
. 1
0 λ1
..
.
λ1 1
..
. 1
0 λ1
..
.
λr 1
..
. 1
λr
..
.
λr 1
..
. 1
λr
donde los bloques son de tamaño s(1, 1), . . . , s(1, p1 ), . . . , s(r, 1), . . . , s(r, pr ),
Pp1 pr
P
y el espectro es σ(A) = {λ1 , . . . , λr }, con multiplicidades s(1, j), . . . , s(r, j),
j=1 j=1
respectivamente. La base se escribe:
1 1 1 1
βJ = {v11 , . . . , v1s(1,1) , v21 , . . . , v2s(1,2) , . . . , vp11 1 , . . . , vp11 s(1,p1 ) , . . . , vprr 1 , . . . , vprr s(r,pr ) }
↓ ↓ ↓ ↓ ↓
1 1
v11 v21 ··· vp11 1 ··· r
v11 r
v21 ··· vprr 1
1 1
v12 v22 ··· vp11 2 ··· r
v12 r
v22 ··· vprr 2
.. .. .. .. .. ..
. . . . . .
1 1
v1s(1,1) v2s(2,1) ··· vp11 s(1,p1 ) ··· r
v1s(r,1) r
v2s(r,2) ··· vprr s(r,pr )
↓ ↓ ↓ ↓ ↓
(8.1)
186
Departamento de Ingenierı́a Matemática - Universidad de Chile
vectores de la base vectores de la base
···
asociados a λ1 asociados a λr
las flechas indican el encadenamiento de los vectores de base. Por ejemplo
1 1
al vector v1s(1,1) le sigue v21 .
El primer elemento de cada columna corresponde a un vector propio. Bajo
un vector propio figuran las colas asociadas.
Además:
(
k
k k λk vij si j = 1 (1era fila de la tabla)
TA (vij ) = Avij = k k
(8.2)
vij−1 + λk vij si j > 1
Una base βJ , con estas caracterı́sticas se denomina base de Jordan asociada Base de Jordan
a la transformación lineal T y su matriz representante es justamente J.
También es claro que los subespacios propios son:
1
Vλ1 = v11 , . . . , vp11 1 , dim Vλ1 = p1
2
Vλ2 = v11 , . . . , vp22 1 , dim Vλ2 = p2
..
.
r
Vλr = v11 , . . . , vprr 1 , dim Vλr = pr
TA : Cn −→ n
C
x 7−→ TA (x) = Ax
187
Tenemos σ(J) = {λ1 = 8, λ2 = 0} con multiplicidades 2 y 3 respectivamen-
1 2
v12 v12
asociados a asociados a
Vλ1 Vλ2
188
En el primer caso v i es un vector propio y en el segundo lo denominaremos
C
Ejercicio 8.1: Suponga que Ni ∈ Mss ( ), pruebe entonces por in-
N
ducción que ∀m ∈ , ∀p, q ∈ {1, . . . , s},
1 si q = p + m,
m
(Ni )pq =
0 si q 6= p + m.
189
Departamento de Ingenierı́a Matemática - Universidad de Chile
Además deduzca que Nis = 0. Una matriz con esta propiedad, se dice
nilpotente.
Notar que los valores propios λ1 , . . . , λr son los valores propios de A con
posible repetición.
Se tiene que la matriz N es nilpotente, gracias al siguiente ejercicio:
◭ Ejercicio
C
Proposición 8.1. Dada A ∈ Mnn ( ), existen una matriz invertible P ,
una matriz diagonal D y una matriz nilpotente N , tales que
A = P (D + N )P −1 .
190
Usaremos lo anterior para calcular potencias de una matriz. Sea A ∈
C N
m
m−k
0 ... k λi 0
.. ..
. .
m m m m−k
k λi
(λi Ii )m−k Nik = λm−k
i Nik =
k k
.. ..
. .
0 0
m−k
En donde los términos m k λi están ubicados desde la posición (1, k)
C
hasta la (k, n). Notar además que, si λi + Ni ∈ Mss ( ), la matriz anterior
es nula para k ≥ s.
Finalmente, sumando sobre k, se obtiene:
m m
m−1 m
m−2 m
m−(s−1)
λi 1 λi 2 λi ... s−1 λi
..
0 λm m m−1 m m−2 .
i 1 λi 2 λi
(λi Ii + Ni )m = ... ..
.
..
.
..
.
..
. .
.
.. ... 0 λm m m−1
i 1 λi
m
0 ... ... 0 λi
(8.3)
Y tenemos entonces que
(λ1 I1 + N1 )m 0 ... 0
0 (λ2 I2 + N2 )m ... 0
−1
Am = P .. .. .. .. P ,
. . . .
0 0 ... (λr Ir + Nr )m
191
8.2.2. Matriz exponencial
C
Proposición 8.2. Dadas matrices B, C ∈ Mnn ( ), se tiene
−1
1. Si C es invertible, eCBC = CeB C −1 .
2. Si BC = CB, entonces eB+C = eB eC = eC eB .
3. Si B es diagonal, B = diag(b1 , . . . , bn ), entonces
eB = diag(eb1 , . . . , ebn ).
C
Sea entonces A ∈ Mnn ( ), que gracias a la Proposición 8.1 se escribe como
A = P (D + N )P −1 , con D matriz diagonal con los vectores propios de A y
N una matriz nilpotente.
Calculamos entonces la exponencial de A, utilizando la Proposición 8.2 y
el hecho de que D y N conmutan (ya se sus bloques conmutan):
eA = P e(D+N ) P −1 = P (eD eN )P −1 .
Veamos eN ,
∞
X 1 k
eN = N .
k!
k=0
Gracias al Ejercicio 8.2 y sumando en k, se tiene que (este paso se puede
formalizar, pero no lo haremos aquı́)
N1
e 0 ... 0
0 eN 2 . . . 0
eN = . . . .. .
.. .. .. .
0 0 . . . eN r
192
Además, por la Proposición 8.2,
C
Ya que si suponemos Ni ∈ Mss ( ), como Ni es nilpotente, para k ≥ s se
tiene Nik = 0. Ası́:
λi 1 λi 1 λi 1 λi
e 1! e 2! e ... (s−1)! e
..
0 eλi 1 λi 1 λi .
1! e 2! e
eλi eNi = ... ..
.
..
.
..
.
..
. (8.4)
.
.. ... 0 eλi 1 λi
1! e
0 ... ... 0 eλi
Finalmente
eλ1 eN1 0 ... 0
0 eλ2 eN2 ... 0
−1
eA = P . .. .. .. P ,
.. . . .
0 0 ... eλr eNr
193
Departamento de Ingenierı́a Matemática - Universidad de Chile
Demostración. Consideremos A = P JP −1 , la forma de Jordan de A. Sa-
bemos que dos matrices similares tienen el mismo polinomio caracterı́stico,
luego
pA (x) = pJ (x).
Ahora, como J es triangular superior, pJ (x) puede ser calculado como:
pA (A) = pJ (A) = P ·pJ (J)·P −1 P (J −λ1 I)s1 (J −λ2 I)s2 . . . (J −λr I)sr P −1 .
Ahora, mirando el bloque i-ésimo del término i de este producto (de di-
mensiones s × s), tenemos que:
(Ji − λi Ii )s = Nis = 0,
194
C
Proposición 8.4. Sea A ∈ Mnn ( ), con valores propios distintos λ1 , . . . , λr .
195
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE
Álgebra Lineal 08-1
1
v12 vp11 2
.. ..
. . colas asociadas
1 1
v1s(1,1) vps(1,p1)
a los vectores propios de Vλ1
.. .. ..
. . .
m
v11 ··· vpmm 1 → vectores propios deVλm
m
v12 ··· vpmm 2
.. ..
. . colas asociadas
m
v1s(m,1) vpmm s(m,pm )
···
P
donde r = dim ImTA = s(i, j) y se verifica:
i,j
(
k
′ k λk vij si j = 1
T (vij ) = k k
vij−1 + λk vij si j > 1
196
Donde:
βJ = {w1 , . . . , wr } ∪ {z 1 , . . . , z n−r }
n−r
donde {wi }ri=1 es base de Jordan de ImTA y {z i }i=1 es una base del núcleo
de TA .
La matriz asociada es:
J11
..
.
Jpm m
J =
0 n − r bloques
..
. de 1 × 1 con
0 el valor propio 0
TA wi = λi wi ó TA wi = wi−1 + λi wi 1≤i≤r
y además, TA z i = 0z i
1 ≤ i ≤ n − r.
Subcaso 2: KerTA ∩ ImTA = u1 , . . . , up , subespacio de dimensión
p ≥ 1.
197
Es decir ui ∈ KerTA y ui ∈ ImTA . Estos vectores son propios TA (ui ) =
1 1
TA v11 = 0 · v11
1 1 1
TA v12 = v11 + 0 · v12
..
.
1 1 1
TA v1s(1,1) = v1s(1,1)−1 + 0 · v1s(1,1) (8.5)
..
.
1 1
TA vp1 = 0 · vp1
..
.
1 1 1
TA vps(1,p) = vps(1,p)−1 + 0 · vps(1,p)
Ay 1 = v1s(1,1)
1
Ay 2 = v2s(1,2)
1
..
.
Ay p = vps(1,p)
1
198
Más aún, los vectores {y j }pj=1 satisfacen:
199
Reemplazando según la recurrencia de Jordan y recordando que λ1 = 0:
y ∀k ≥ 1 (bloques asociados a λk ):
αk11 λk + αk12 = 0
αk12 λk + αk13 = 0
..
.
αk1s(k,1)−1 λk + αk1s(k,1) = 0
αk1s(k,1) λk = 0
200
donde {u1 , . . . , up } = ImTA ∩KerTA y h{z1 , . . . , zq }i es un suplementario
˜
J11
..
.
J˜p1
J12
..
.
Jp2 2
..
J =
.
J1m
..
.
Jpm m
0
···
0
donde J˜11 , . . . , J˜p1 son los bloques asociados a λ1 = 0 con la “cola” agre-
gada {yi }. El último grupo de q bloques de 0’s corresponde a la base del
suplementario de
ImTA ∩ KerTA en KerTA .
Con esto hemos demostrado que, si A es regular (no invertible), esta es
reductible a la forma de Jordan.
201
que:
◭ Ejercicio
202
Ingenierı́a Matemática
FACULTAD DE CIENCIAS
Guı́a
FÍSICAS Y MATEMÁTICAS
UNIVERSIDAD DE CHILE Semana 15
Álgebra Lineal 08-1
Ejercicios
N
Pruebe por inducción que ∀m ∈ , ∀p, q ∈ {1, . . . , s},
1 si q = p + m,
(Nim )pq =
6 p + m.
0 si q =
Además deduzca que Nis = 0. Una matriz con esta propiedad, se dice
nilpotente.
2. Sea B una matriz diagonal por bloques, es decir
B1 0 . . . 0
0 B2 . . . 0
B= . .. .. ..
.. . . .
0 0 . . . Br
(b) Considere
4 −1 −3
0 4 1 .
0 0 2
Encuentre P invertible y J en forma de Jordan tal que A =
P JP −1 .
(c) Para la matriz A de la parte anterior y n ≥ 1 cualquiera calcule
An explı́citamente, encontrando expresiones para los coeficientes
de An en función de n.
204