Apuntes para La Práctica de Álgebra II: Sugerencias, Desarrollos Teóricos y Ejercicios Resueltos
Apuntes para La Práctica de Álgebra II: Sugerencias, Desarrollos Teóricos y Ejercicios Resueltos
Apuntes para La Práctica de Álgebra II: Sugerencias, Desarrollos Teóricos y Ejercicios Resueltos
Álgebra II
Sugerencias, desarrollos teóricos y ejercicios resueltos
Maximiliano Contino
2021
Resumen
Este apunte tiene por objetivo cubrir todos los temas de la práctica correspondiente a la
asignatura Álgebra II de la Facultad de Ingeniería de la Universidad de Buenos Aires. En cada
capítulo, se hace un repaso de los contenidos teorícos mínimos para resolver los distintos ejercicios
haciendo hincapié en las respectivas demostraciones. En varios casos, se agregaron aplicaciones
teóricas que amplian el alcance de algunos conceptos de la materia.
Los ejercicios específicos que corresponden a la guía de Álgebra II tienen la misma numeración
que en dicha guía. Como referencia se tomó la versión de la guía de marzo de 2021 aunque con el
paso de los cuatrimestres dichos ejercicios podrían cambiar de numeración o desaparecer. También,
se agregaron ejercicios similares a los que figuran en la guía o ejercicios de parciales y finales con el
objetivo de profundizar en algunos conceptos determinados, dichos ejercicios aparecen ordenados
con letras mayúsculas.
En el Capítulo 0 se comienza con las definiciones básicas y la notación que se usará a lo largo de
todo el apunte. En el Capítulo 1, estudiamos las nociones de espacio vectorial, subespacios, sistema
de generadores e independencia lineal. En el Capítulo 2, se definen y estudian las transformaciones
lineales y se comienza con el estudio de ecuaciones diferenciales a coeficientes constantes. En
el Capítulo 3, seguimos con las nociones de espacios con producto interno reales y complejos y
las proyecciones ortogonales. La diagonalización de matrices, las formas de Jordan en espacios
de dimensión finita y los sistemas de ecuaciones diferenciales se desarrollan a continuación en el
Capítulo 4 seguidas por el estudio de matrices hermíticas, matrices simétricas y la descomposición
en valores singulares de matrices en el Capítulo 5. Concluimos con el estudio de formas cuadráticas
en el Capítulo 6.
Siempre serán bienvenidas todas las correcciones y aportes que permitan mejorar este apunte.
Maximiliano Contino
I
Índice general
Resumen I
0 Introducción 1
1 Espacios Vectoriales 5
1.1 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Combinaciones lineales y sistema de generadores . . . . . . . . . . . . . . . . . . . 13
1.4 Conjuntos linealmente independientes . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5 Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.6 Bases de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.7 Igualdad de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.8 Ecuaciones diferenciales de segundo orden . . . . . . . . . . . . . . . . . . . . . . 29
1.9 Subespacios fundamentales de una matriz . . . . . . . . . . . . . . . . . . . . . . 31
1.10 Algoritmos para producir una base a partir de un sistema de generadores . . . . . 36
1.11 Coordenadas de un vector en una base . . . . . . . . . . . . . . . . . . . . . . . . 41
1.12 Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.13 Operaciones entre subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2 Transformaciones Lineales 55
2.1 Imagen y núcleo de una transformación lineal . . . . . . . . . . . . . . . . . . . . 57
2.2 Buena definición de transformaciones lineales . . . . . . . . . . . . . . . . . . . . 63
2.3 Transformaciones lineales inversibles . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.4 Matriz de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.5 Proyectores y simetrías . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.6 Rotaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.7 Ecuaciones diferenciales. Operador derivación . . . . . . . . . . . . . . . . . . . . 96
III
Índice general
4 Diagonalización 185
4.1 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
4.2 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
4.3 Polinomios matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4.4 Teorema espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
4.5 Formas de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
4.6 Matrices semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
4.7 Sistemas de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . 221
4.8 Sistemas de ecuaciones diferenciales: caso no diagonalizable . . . . . . . . . . . . . 225
4.9 Sistema de ecuaciones diferenciales no homogéneo . . . . . . . . . . . . . . . . . . 232
Bibliografía 301
IV
CAPÍTULO 0
Introducción
Conjuntos de números
N denota el conjunto de todos los números naturales, N = {1, 2, · · · }, Z el conjunto de los
números enteros, Z = {· · · , −2, −1, 0, 1, 2, · · · }, Q denota el conjunto de números racionales, es
decir
m
Q = { : m ∈ Z, n ∈ N}.
n
Finalmente R denota el conjunto de números reales y C el conjunto de los números complejos.
Por definición z ∈ C si z = a + ib con a, b ∈ R e i2 = −1. Si z = a + ib ∈ C entonces z := a − ib
es el conjugado de z. Observar que si z, y ∈ C entonces
z = z, z + y = z + y, zy = z y y
z = z, si y sólo si z ∈ R.
Además, si z = a + ib ∈ C tenemos que
In := ... . . . ... .
0 0 1
1
0. Introducción
0
0 0
1 0
· · · , · · · , en =
, se denomina la base canónica de Kn .
···
0 1
Dado un intervalo I ⊆ R,
C(I) := {f : I → R : f es continua},
y para cada n ∈ N, C n (I) denota el conjunto de las funciones de C(I) que son n veces derivables
y cuyas derivadas son continuas. C ∞ (I) denota el conjunto de todas las funciones infinitamente
derivables.
K[x] denota el conjunto de polinomios con coeficientes en K. Es decir,
Finalmente, dado n ∈ N, Kn [x] denota el conjunto de polinomios de K con grado menor o igual a n
unión el polinomio nulo 0(x) := 0. Es decir,
Conjuntos en general
Sean A, B dos conjuntos, las siguientes son algunas operaciones básicas que usaremos:
A ∩ B := {x : x ∈ A y x ∈ B}.
A ∪ B := {x : x ∈ A ó x ∈ B}.
A \ B := {x : x ∈ A y x 6∈ B}.
A × B := {(a, b) : a ∈ A, b ∈ B}.
2
Sean A, B dos conjuntos, las siguientes son algunas relaciones básicas entres A y B
Funciones en general
Sean X, Y dos conjuntos. Una función f : X → Y (de X a Y ), es una relación entre X e Y que
a cada elemento x ∈ X le asigna un único elemento del conjunto Y que se denota f (x).
Un ejemplo de función, es la función identidad, definida por idX : X → X,
idX (x) := x.
f −1 es una función, pues como f es sobreyectiva, para cada elemento de Y existe un elemento de
x ∈ X tal que f (x) = y. Además como f es inyectiva, el elemento x ∈ X es único.
Sean X, Y, Z conjuntos. f : X → Y y g : Y → Z dos funciones. La composición de g con f es la
relación g ◦ f : X → Z, definida por
para cada x ∈ X. Es fácil ver que, la composición de funciones, también es una función.
3
CAPÍTULO 1
Espacios Vectoriales
4. Las operaciones + y · tienen elemento neutro, es decir existe un elemento que llamaremos
0 ∈ K tal que a + 0 = 0 + a = a para todo a ∈ K y existe un elemento que llamaremos 1 ∈ K
tal que a · 1 = 1 · a = a para todo a ∈ K.
Ejemplo 1.a.
5
1. Espacios Vectoriales
pues r1 + s1 ∈ Q y r2 + s2 ∈ Q y además,
√ √ √ √
a · b = (r1 + s1 3) · (r2 + s2 3) = r1 · r2 + 3s1 · s2 + r1 · s2 3 + s1 · r2 3
√
= (r1 · r2 + 3s1 · s2 ) + (r1 · s2 + r1 · r2 ) 3 ∈ F,
De ahora en más, usaremos los cuerpos de escalares (R, +, ·) y (C, +, ·) con las suma y
producto usuales. En general, cuando no queramos diferenciar entre el cuerpo real o complejo,
directamente usaremos la notación K para referirnos a los mismos.
Definición. Sea K un cuerpo (K = R ó K = C). Sea V un conjunto no vacío donde se define una
operación + llamada suma entre dos elementos de V y una acción · llamada producto por escalares
entre un elemento de V y un escalar del cuerpo K. Diremos que (V, +, K, ·) es un K-espacio vectorial
si:
1. La suma + es una ley de composición interna, es decir u + v ∈ V para todo u, v ∈ V.
2. La suma + es conmutativa, es decir u + v = v + u para todo u, v ∈ V.
3. La suma + es asociativa, es decir (u + v) + w = u + (v + w) para todo u, v, w ∈ V.
4. La suma + tiene elemento neutro, es decir existe un elemento que llamaremos 0V ∈ V tal que
u + 0V = 0V + u = u para todo u ∈ V.
5. Para cada u ∈ V existe un elemento inverso respecto de la suma +. Es decir, para cada u ∈ V
existe un elemento que llamaremos −u ∈ V tal que u + (−u) = (−u) + u = 0V , donde 0V es
un elemento neutro de la suma.
6. El producto por escalares · es una ley de composición externa, es decir α · v ∈ V para todo
α ∈ K y para todo v ∈ V.
7. El producto por escalares · es distributivo respecto de los escalares, es decir (α+β)·u = α·u+β·u
para todo α, β ∈ K y para todo u ∈ V.
8. El producto por escalares · es distributivo respecto de la suma de vectores, es decir
α · (u + v) = α · u + α · v para todo α ∈ K y para todo u, v ∈ V.
9. El producto por escalares · es asociativo respecto de los escalares, es decir (αβ) · u = α · (β · v)
para todo α, β ∈ K y para todo u ∈ V.
6
1.1. Espacios vectoriales
Para el cuerpo de escalares K = R definimos la acción producto por escalares de R en C(I) como
Antes de comenzar el ejercicio, dado que vamos a trabajar con igualdad de funciones, repasemos
qué significa eso. Supongamos que tenemos f, g : I → R (es decir dos funciones definidas en un
intervalo I ⊆ R que toman valores en R). Entonces
En palabras, dos funciones son iguales si y sólo si tienen el mismo dominio y coinciden en todo
punto de su dominio. (
13 si x = 0
Por ejemplo, consideremos f, g : R → R con f (x) = y g(x) = x. Entonces f 6= g
x si x 6= 0
simplemente porque f (0) 6= g(0).
Dem. Vamos a verificar que se cumplen los axiomas de los espacios vectoriales.
Observemos que C(I) es un conjunto no vacío. Por ejemplo si definimos la función 0 : I → R
como 0(x) = 0, para todo x ∈ I. Claramente 0 ∈ C(I).
Ax. 1: Veamos que + es una ley de composición interna. Sean f, g ∈ C(I) entonces f +g ∈ C(I),
esto es así debido a que la suma usual (tal como se definió en este caso) de funciones continuas es
también una función continua. Esta propiedad se vio en el curso de Análisis Matemático del CBC.
Ax. 2: La suma + es conmutativa en C(I). Queremos probar que f + g = g + f para todo
f, g ∈ C(I).
Vamos a probar que la igualdad anterior ocurre para todo x ∈ I. Sean f, g ∈ C(I) y x ∈ I,
entonces (f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x), donde usamos que la suma de
números reales es conmutativa. Entonces como (f + g)(x) = (g + f )(x), para todo x ∈ I (fijarse que
la igualdad anterior la obtuvimos para cualquier x), entonces (aplicando la definición de igualdad
de funciones) f + g = g + f.
Ax. 3: La suma + es asociativa en C(I). Queremos probar que (f + g) + h = f + (g + h) para
todo f, g, h ∈ C(I). Vamos a operar de manera similar a lo que hicimos en la prueba del axioma 2.
Sean f, g, h ∈ C(I) y x ∈ I, entonces ((f + g) + h)(x) = (f + g)(x) + h(x) = f (x) + g(x) + h(x) =
f (x) + (g(x) + h(x)) = f (x) + (g + h)(x) = (f + (g + h))(x), donde usamos que la suma de números
reales es asociativa. Como la igualdad anterior vale para todo x ∈ I, tenemos lo que queríamos
probar.
Ax. 4: Existe un elemento neutro en C(I) respecto de la suma. En este ítem, tenemos que
proponer un elemento de C(I) que sea elemento neutro para la suma y verificar que dicho elemento
cumple. Por ejemplo, podemos proponer como elemento neutro la función nula 0 ∈ C(I) que
definimos arriba. Veamos que f + 0 = f para todo f ∈ C(I). Sean f ∈ C(I) y x ∈ I, entonces
(f + 0)(x) = f (x) + 0(x) = f (x) + 0 = f (x). Como la igualdad anterior vale para todo x ∈ I,
tenemos lo que queríamos probar.
Observación: Se puede probar que el elemento neutro de un espacio vectorial es único. Por lo
tanto, en este caso, la función nula 0 ∈ C(I), no sólo es “un” elemento neutro sino que es “el”
elemento neutro. Meditar sobre la diferencia de estas expresiones.
7
1. Espacios Vectoriales
Ax. 5: Para cada f ∈ C(I) existe opuesto (inverso aditivo) en C(I) respecto de la suma.
En este ítem, tenemos que proponer un elemento de C(I) que sea un inverso aditivo para la
suma y verificar que dicho elemento cumple, es decir, queremos proponer una función g ∈ C(I)
tal que para cada f ∈ CC(I) se cumple f + g = 0 (observar que ya verificamos que 0 es el
elemento neutro para la suma). Sean f ∈ C(I) y x ∈ I. Se define la función g : I → R por
g(x) = −f (x). Entonces veamos que g es un inverso aditivo de f . Claramente g ∈ C(I) porque el
producto de una función continua por el escalar −1 es también una función continua. Por otra
parte (f + g)(x) = f (x) + g(x) = f (x) + −f (x) = 0 = 0(x) y como la igualdad anterior vale para
todo x ∈ I, tenemos lo que queríamos probar.
Observación: Se puede probar que el inverso aditivo de cada vector de un espacio vectorial es
único.
Ax. 6: Veamos que el producto por escalares · es una ley de composición externa. Sean f ∈ C(I)
y α ∈ R entonces α · f ∈ C(I); esto es así debido a que en primer lugar, αf (x) ∈ R para todo x ∈ I
y además, porque el producto de un número real por una función continua (tal como se definió) es
también una función continua. Esta propiedad se vio en el curso de Análisis Matemático del CBC.
Ax. 7: El producto por escalares · es distributivo respecto de la suma de escalares. Queremos
ver que (α + β) · f = α · f + β · f, para todo f ∈ C(I) y α, β ∈ R. Sean f ∈ C(I), x ∈ I y α, β ∈ R,
entonces ((α + β) · f )(x) = (α + β)f (x) = αf (x) + βf (x) = (α · f )(x) + (β · f )(x) = (α · f + β · f )(x),
donde usamos la propiedad distributiva de los números reales. Finalmente, como la igualdad anterior
vale para todo x ∈ I, tenemos lo que queríamos probar.
Ax. 8: El producto por escalares · es distributivo respecto de la suma de vectores. Queremos
ver que α · (f + g) = α · f + α · g, para todo f, g ∈ C(I) y α ∈ R. Sean f, g ∈ C(I), x ∈ I y α ∈ R,
entonces (α · (f + g))(x) = α((f + g)(x)) = α(f (x) + g(x)) = αf (x) + αg(x) = (α · f )(x) + (α · g)(x) =
(α · f + α · g)(x), donde usamos la propiedad distributiva de los números reales. Finalmente, como
la igualdad anterior vale para todo x ∈ I, tenemos lo que queríamos probar.
Ax. 9: El producto por escalares · es asociativo respecto de los escalares. Queremos ver que
(αβ) · f = α · (β · f ), para todo f ∈ C(I) y α, β ∈ R. Sean f ∈ C(I), x ∈ I y α, β ∈ R, entonces
((αβ) · f )(x) = (αβ)f (x) = α(βf (x)) = α((β · f )(x)) = (α · (β · f ))(x), donde usamos la propiedad
asociativa de los números reales. Finalmente, como la igualdad anterior vale para todo x ∈ I,
tenemos lo que queríamos probar.
Ax. 10: El escalar 1 ∈ R cumple que 1 · f = f, para todo f ∈ C(I). Sean f ∈ C(I) y x ∈ I,
entonces (1 · f )(x) = 1f (x) = f (x) y como la igualdad anterior vale para todo x ∈ I, tenemos lo
que queríamos probar.
El siguiente ejercicio recopila algunas propiedades importantes respecto del elemento neutro y
el inverso aditivo de un espacio vectorial.
Ejercicio 1.C. Sea K un cuerpo y (V, +, K, ·) un K-espacio vectorial. Sea 0V el elemento neutro de
V y dado v ∈ V notaremos como −v al inverso aditivo de v. Demostar que, para todo v ∈ V,
0 · v = 0V y − v = (−1) · v.
Para demostrar estas propieades usaremos los axiomas que verifican los espacios vectoriales.
Dem. Por el Ax. 7, vale que 0 · v = (0 + 0) · v = 0 · v + 0 · v. Sea w el inverso aditivo de 0 · v, que
existe por el Ax.5. Entonces:
0V = 0 · v + w = (0 · v + 0 · v) + w = 0 · v + (0 · v + w) = 0 · v + 0V = 0 · v.
Donde se usaron los Ax. 3, 4 y 5.
Finalmente,
v + (−1) · v = 1 · v + (−1) · v = (1 − 1) · v = 0 · v = 0V .
Donde se usaron los Ax. 7 y 10 y la igualdad anterior. Por lo tanto (−1) · v es el inverso aditivo de
v, es decir −v = (−1) · v.
8
1.1. Espacios vectoriales
x1
Ejemplo 1.b. Sean V := { ∈ R2 : x1 , x2 > 0} y K = R. Se define
x2
x1 x2 x1 y1 x1 y1
⊕ := para cada x = ∈ V, y = ∈Vy
y1 y2 x2 y2 x2 y2
xα
x1 x1
α := 1
para cada x = ∈ V, α ∈ R.
x2 xα
2 x2
Demostrar que (V, ⊕, R, ) es un R-espacio vectorial.
Dem. Vamos a verificar que se cumplen los axiomas de los espacios vectoriales.
Observemos que V es un conjunto no vacío. Por ejemplo (1, 1) ∈ V.
x1 y1
Ax. 1: Veamos que ⊕ es una ley de composición interna. Sean x = , y= ∈V
x2 y2
entonces
x1 y1
x⊕y = ∈ V,
x2 y2
esto es así debido a que como x, y ∈ V, tenemos que x1 , x2 > 0 e y1 , y2 > 0. Entonces
x1 x2 > 0, y1 y2 > 0.
x1 y1
Ax. 2: La suma ⊕ es conmutativa en V. Sean x = , y= ∈ V entonces
x2 y2
x1 y1 y1 x1
x⊕y = = = y ⊕ x,
x2 y2 y2 x2
1 x1 1
x1 x1
x ⊕ 0V = ⊕ = = = x.
x2 1 x2 1 x2
1
Por lo tanto, 0V = ∈ V es el elemento neutro para la suma.
1
5: Para cada x ∈ V existe opuesto (inverso aditivo) en V respecto
Ax. 1 de la suma. Sea
x1
x= ∈ V, vamos proponer como inverso aditivo al vector −x := x1
1 ∈ V. El vector −x
x2 x2
que definimos es un elemento de V pues como x ∈ V tenemos que x1 , x2 > 0 y el inverso de un
número real positivo es otro número real positivo. Entonces
1 x1
1
x1
x ⊕ −x = ⊕ x1
= x1
= = 0V .
x2 1
x2
x2
x2 1
1
Por lo tanto, −x := x1
1 ∈ V es el inverso aditivo de x.
x2
9
1. Espacios Vectoriales
esto es así debido a que como x ∈ V, tenemos que x1 , x2 > 0 y entonces xα 1 , x2 > 0.
α
(x1 y1 )α
α α α α
x1 y1 x1 x2 x1 y1
α (x ⊕ y) = α = = = ⊕ = α x ⊕ α y,
x2 y2 (x2 y2 )α y1α y2α xα2 y2α
Los siguientes ejemplos son algunos de los K-espacios vectoriales con los que trabajaremos con
más frecuencia:
Ejemplo 1.c.
Sea K = R ó K = C. En Cn definimos, para x, y ∈ Cn y α ∈ K la suma como
x1 + y1
x1 y1
x2 y2 x2 + y2
x+y = . + . = ..
.
. . . .
xn yn xn + yn
10
1.2. Subespacios
Sea K = R y
1.2. Subespacios
Cuando un subconjunto S de un K-espacio vectorial V es en sí mismo un K-espacio vectorial
con las mismas operaciones definidas en V diremos que S es un subespacio. Es decir, si V es un
K-espacio vectorial, un subespacio de V es un subconjunto de V que es un K-espacio vectorial con
las mismas operaciones + y · restringidas a dicho subconjunto.
Definición. Sea K un cuerpo y (V, +, K, ·) un K-espacio vectorial. Un subconjunto S ⊆ V es un
subespacio de V si (S, +, K, ·) es un K-espacio vectorial.
Teorema 1.2.1. Sea K un cuerpo y (V, +, K, ·) un K-espacio vectorial. Un subconjunto S ⊆ V es
un subespacio de V si y sólo si:
i) S =
6 ∅,
ii) si u, v ∈ S entonces u + v ∈ S,
iii) si α ∈ K y v ∈ S entonces α · v ∈ S.
11
1. Espacios Vectoriales
De hecho, si el item i) del teorema anterior se reemplaza por la condición i0 ), claramente tenemos
que S es no vacío (pues 0V ∈ S) y recuperamos i) del teorema anterior.
Recíprocamente, en la demostración del teorema anterior, vimos que que si valen i), ii), iii)
entonces 0V ∈ S.
Dem. Vamos a usar el teorema anterior para probar esta afirmación. Entonces, para probar que
los conjuntos en cuestión son subespacios, basta ver los items i), ii), iii) del Teorema 1.2.1.
1.2 (b).
Pn
iii) Si p ∈ S, entonces
Pn p(x) =P k=0 bk xk , para ciertos b0 , b1 , · · · bn ∈ R. Sea α ∈ R, entonces
n
αp(x) = α k=0 bk xk = k=0 (αbk )x . Entonces αp ∈ S, con ai = αbi ∈ R para cada
k
i ∈ {0, 1, · · · , n}.
Como se cumple i), ii), iii), por el Teorema 1.2.1, S es un subespacio de R[x].
12
1.3. Combinaciones lineales y sistema de generadores
v = a1 v1 + a2 v2 + · · · + ar vr .
Notaremos como gen{v1 , · · · , vr } al conjunto de todas las combinaciones lineales de los vectores
v1 , · · · , vr . Es decir,
gen{v1 , v2 , · · · , vr } := {v : v = a1 v1 + a2 v2 + · · · + ar vr : a1 , a2 , · · · , ar ∈ K}.
Usando las ideas del Ejercicio 1.2 b, d), es claro que el conjunto gen{v1 , v2 , · · · , vr } es un subespacio
de V. Por otra parte, sea G := {v1 , v2 , · · · , vr } un subconjunto de r elementos de V. Entonces,
gen{G} := gen{v1 , v2 , · · · , vr }.
S = gen{G} = gen{v1 , · · · , vr }.
Ejercicio 1.6 c, d). En cada uno de los siguientes casos describir el subespacio S mediante un
sistema de generadores minimal.
2 0 2 0
S = {X ∈ R2×2 : X = X}.
0 3 0 3
R1 R1
S = {p ∈ R3 [x] : −1
p(x)dx = −1
xp(x)dx = 0}.
a b
Dem. 1.6 (c). Si X ∈ S entonces X ∈ R 2×2
, es decir X = con a, b, c, d ∈ R y además
c d
2 0 2 0
a b a b
= .
c d 0 3 0 3 c d
13
1. Espacios Vectoriales
2a = 2a
3b = 2b
2c = 3c
3d = 3d.
2 0 2 0
S = {X ∈ R 2×2
:X = X}
0 3 0 3
1 0 0 0
= {X ∈ R 2×2
:X=a +d : a, d ∈ R}
0 0 0 1
1 0 0 0
= gen{ , }.
0 0 0 1
1 0 0 0
Además el conjunto G := { } es un sistema de generadores minimal de S.
,
0 0 0 1
1 0
Cualquier subconjunto propio de G por ejemplo G0 := { } ( G (¿qué otros subconjuntos
0 0
propios tiene G?) no es un sistema de generadores de S (¿por qué?).
1.6 (d). Sea p ∈ S entoces p ∈ R3 [x], es decir p(x) = ax3 + bx2 + cx + d con a, b, c, d ∈ R y
R1 R1
−1
p(x)dx = −1 xp(x)dx = 0. Entonces
1
2
Z
a 4 b 3 c 2
0= (ax3 + bx2 + cx + d)dx = x + x + x + dx|1−1 = b + 2d
−1 4 3 2 3
y
1
2 2
Z
a 5 b 4 c 3 d 21
0= x(ax3 + bx2 + cx + d)dx = x + x + x + x |−1 = a + c.
−1 5 4 3 2 5 3
Es decir
( nos quedó el siguiente sistema:
2
3 b + 2d = 0
5 a + 3 c = 0.
2 2
5 5
S = {p ∈ R3 [x] : p(x) = c(− x3 + x) + d(−3x2 + 1) : c, d ∈ R} = gen{− x3 + x, −3x2 + 1}.
3 3
14
1.3. Combinaciones lineales y sistema de generadores
S := gen{G} = gen{v1 , v2 , v3 , v4 }
Para obtener un sistema de generadores minimal del subespacio generado por G (que llamamos
S), tenemos que pensar en 6 casos:
Caso 1: v1 y v3 son LI. En este caso, los subconjuntos de G que pueden ser un sistema de
generadores minimal de S son: {v1 , v3 }, {v1 , 2v1 + v3 } y {v3 , 2v1 + v3 }. Veamos por qué:
a) Los conjuntos {v1 , v3 }, {v1 , 2v1 + v3 }, {v3 , 2v1 + v3 } son subconjuntos (todos distintos entre
sí) de G.
c) Los subconjuntos propios de {v1 , v3 } son: {v1 }, {v3 } y ∅. Claramente, ninguno de los tres
subconjuntos propios de {v1 , v3 } generan S (por ejemplo, el conjunto {v1 } no genera S pues
v3 ∈ S pero v3 6∈ gen{v1 } porque estamos suponiendo que v1 y v3 son LI, la misma idea se
puede usar para ver que los otros subconjuntos propios de {v1 , v3 } no generan S). Por lo
tanto {v1 , v3 } no sólo es un sistema de generadores de S sino que también es minimal. De la
misma manera podemos que ver que los conjuntos {v1 , 2v1 + v3 } y {v3 , 2v1 + v3 } también
son sistemas de generadores minimales de S.
Por a), b) y c), los conjuntos {v1 , v3 }, {v1 , 2v1 + v3 }, {v3 , 2v1 + v3 } son los subconjuntos de G
que pueden ser un sistema de generadores minimal del subespacio generado por G.
Por si alguien se hizo esta pregunta: Observar que el conjunto {15v1 , 16v3 } es un sistema
de generadores minimal de S (además es distinto a los 3 que ya enumeramos en este caso) pero
como NO es un subconjunto de G, no aparece como uno de los sistema de generadores minimales
de S que nos pide el ejercicio.
c) El único subconjunto propio de {v1 }, {v3 } y {2v1 + v3 } es ∅ que claramente no genera S. Por
lo tanto {v1 }, {v3 } y {2v1 + v3 } no sólo son sistemas de generadores de S sino que también
son todos minimales.
15
1. Espacios Vectoriales
Por a), b) y c), los conjuntos {v1 }, {v3 } y {2v1 + v3 } son los subconjuntos de G que pueden ser
un sistema de generadores minimal del subespacio generado por G.
Acá hacemos la siguiente aclaración. Si en este caso, tenemos la suerte de que v1 = v3 . Entonces
en realidad tenemos sólo dos conjuntos (distintos entre sí) que pueden ser un sistema de generadores
minimal del subespacio generado por G, serían los conjuntos {v3 } y {2v1 + v3 } = {3v3 }.
Si en este caso, tenemos la suerte de que v1 = −v3 entonces tenemos sólo dos conjuntos (distintos
entre sí) que pueden ser un sistema de generadores minimal del subespacio generado por G : {v1 } y
{v3 } = {−v1 }.
Por último, con las hipótesis del caso 2, si v1 6= v3 y v1 6= −v3 , los tres conjuntos {v1 }, {v3 } y
{2v1 + v3 } son todos distintos entre sí.
El último caso excede los alcances de la materia pero lo vamos a ver igual para
aquellos que tengan curiosidad.
Caso 6: v1 = 0 y v3 = 0. Entonces 2v1 + v3 = 0 y G = {0, 0, 0} = {0}.
En este caso (veremos a continuación que) el único subconjunto de G que puede ser un sistema
de generadores minimal de S es ∅. Veamos por qué:
16
1.3. Combinaciones lineales y sistema de generadores
a) ∅ es un subconjunto de G.
b) S = gen{0} = {0} = gen{∅}. Para probar esto vamos a tener que definir qué entendemos por
“gen{∅}”. Ver más abajo.
Por a), b) y c), el conjunto ∅ es el único subconjunto de G que puede ser un sistema de generadores
minimal de S.
Veamos por qué podemos decir que vale que {0} = gen{∅}
Antes de contestar esta pregunta, vamos a probar una propiedad que nos será muy útil.
Proposición 1.3.1. Sea V un K-espacio vectorial. Consideremos H = {v1 , v2 , · · · , vr } donde
v1 , v2 , · · · , vr ∈ V. Entonces, si S es cualquier subespacio de V, vale que
\
gen{H} = S.
H⊆S
v ∈ gen{H} := {a1 v1 + a2 v2 + · · · + ar vr : a1 , a2 , · · · , ar ∈ K}
entonces,
v = a1 v1 + a2 v2 + · · · + ar vr ,
para ciertos a1 , a2 , · · · , ar ∈ K. Entonces, sea S cualquier subespacio de V que contiene al conjunto
H. Como v1 , v2 , · · · , vr ∈ H, tenemos que v1 , v2 , · · · , vr ∈ S y como S es un subespacio, se sigue
que a1 v1 + a2 v2 + · ·T· + ar vr ∈ S. Como lo anterior vale para cualquier S subespacio que contenga
a H, entonces v ∈ S.
H⊆S
Recíprocamente, si v ∈ S, entonces v ∈ S para todo S subespacio de V que contiene a H.
T
H⊆S
Como (ya vimos que) el conjunto gen{H} = {a1 v1 + a2 v2 + · · · + ar vr : a1 , a2 , · · · , ar ∈ K} es un
subespacio de V y claramente
H ⊆ {a1 v1 + a2 v2 + · · · + ar vr : a1 , a2 , · · · , ar ∈ K}
{0} = gen{∅}.
Para probar esto último, es necesario definir qué entendemos por gen{∅}. Hasta ahora, sólo vimos
qué entendemos por gen{H} cuando H es un conjunto (finito) de vectores (de hecho definimos
gen{H} como todas las combinaciones lineales de los elementos de H) y con esa definición podemos
hacer prácticamente todos los ejercicios de la Guía (salvo quizás el Caso 6) del Ejercicio 1.5).
17
1. Espacios Vectoriales
Vamos a dar una definición (razonable) de gen{∅} que a su vez extienda la definición para el
caso en que H sea no vacío (que fue la que ya vimos). Entonces, por lo que acabamos de probar en
la Proposición 1.3.1, resulta natural definir:
\ \
gen{∅} := S= S,
∅⊆S S
donde la última igualdad vale porque todo conjunto (en particular todo subespacio) contiene al
conjunto vacío.
Veamos entonces, que S = {0}. De hecho, es claro que 0 ∈ S para todo S subespacio de V,
T
S
entonces \
{0} ⊆ S.
S
Con estas ideas y la prueba del Ejercicio 1.7 (a continuación) se puede demostrar también
que el conjunto ∅ es (la única) base del subespacio {0}.
a1 v1 + a2 v2 + · · · + ar vr = 0V
2 4
con la suma y producto por escalares usuales en R2 . Entonces el conjunto { , } es LD
1 1
en (V, ⊕, R, ) pero es LI en (R2 , +, R, ·).
2 4
Tenemos una combinación lineal no nula de los vectores y igualada a 0V . Por lo
1 1
2 4
tanto, concluimos que el conjunto { , } es LD en (V, ⊕, R, ).
1 1
18
1.4. Conjuntos linealmente independientes
2 4 0
a +b = 0R2 = .
1 1 0
Entonces 2a + 4b = 0 y a + b = 0.Ese
sistema sólo tiene como solución a = b = 0. Por lo tanto,
2 4
concluimos que el conjunto { , } es LI en (R2 , +, R, ·).
1 1
Para resolver el próximo ejercicio, vamos a usar la ayuda que nos dan. La ayuda nos pregunta
qué significa que G sea un sistema de generadores que no es minimal. Si lo hacemos de esta manera
estaremos probando el contrarrecíproco del ejercicio, es decir probaremos que vale “no p si y sólo si
no q” que es equivalante a “p si y sólo si q”.
Ejercicio 1.7. Sea V un K-espacio vectorial y G = {v1 , v2 , v3 } un sistema de generadores de V.
Probar que G es un sistema de generadores minimal de V si y sólo si G es LI.
Si sacamos factor común los vectores v1 , v2 , · · · , vn en la expresión de arriba, nos queda que:
19
1. Espacios Vectoriales
Como el conjunto {v1 , v2 , · · · , vn } es LI (por hipótesis) y arriba tenemos una CL de dichos vectores
igualada a 0V tenemos que cada escalar que multiplica a dichos vectores es nulo, es decir:
a11 ··· a1n
.. .. .. ∈ Kn×n , el sistema de ecuaciones anterior es equivalente
Como A = [aij ] = . . .
an1 ··· ann
a
α1
α2
A · · · = 0. (1.3)
αn
Por lo tanto {w1 , w2 , · · · , wn } es LI si y sólo si α1 = α2 = · · · = αn = 0, si y sólo si la única
solución del sistema (1.3) es la trivial, si y sólo si A es inversible (acá usamos que A es cuadrada),
si y sólo si det(A) 6= 0.
Dem. 1. : Es obvio.
2. : Se deja como ejercicio.
3. : Supongamos que el conjunto {v1 , v2 , · · · , vi , · · · , vj , · · · , vr } es LI.
Queremos ver que {v1 , v2 , · · · , vi , · · · , vj + λvi, · · · , vr } con λ ∈ K es LI. Lo haremos por
definición. Sean a1 , a2 , · · · , ar ∈ K tales que
a1 v1 + a2 v2 + · · · + ai vi + · · · + aj (vj + λvi) + · · · + ar vr = 0V .
a1 v1 + a2 v2 + · · · + (ai + aj λ)vi + · · · + aj vj + · · · + ar vr = 0V .
20
1.4. Conjuntos linealmente independientes
Ejercicio 1.10 a). Determinar cuáles de los siguientes subconjuntos son LI en su correspondiente
espacio vectorial:
1 3 0
El subconjunto { 3 , 5 , −5 }.
−2 −6 6
a 3 +b 5 +c −5 = 0 .
−2 −6 6 0
1 3 0 0
a
Operando, nos queda el siguiente sistema a resolver, 3 5 −5 b = 0 .
−2 −6 6 c 0
Resolviendo el sistema, obtenemos que a = b = c = 0. Entonces el conjunto es LI.
Triangulando la matriz
que resulta de colocar los vectores en fila:
1 3 0
21
1. Espacios Vectoriales
En la Proposición 1.4.1, vimos que las operaciones que realizamos entre los vectores (colocados
en las filas de una matriz) cuandotriangulamos dicha
matriz no modifican su independencia lineal.
1 0 0
Es decir, si llamamos v10 = 3 , v20 = −4 y v30 = 0 , entonces claramente {v10 , v20 , v30 }
−2 0 6
es un conjunto LI. Entonces, por la Proposición 1.4.1, el conjunto original {v1 , v2 , v3 } era LI.
Ejercicio 1.12 a). Hallar todos los valores de a ∈ R para los cuales los siguientes subconjuntos son
linealmente dependientes (LD) en su correspondiente espacio vectorial.
Dem. Para este ejercicio no podemos usar la Proposición 1.4.1 (no tenemos vectores de Rn sino
polinomios) así que lo haremos por definición. Sean α, β, γ ∈ R tales que
donde 0 denota al polinomio nulo (es decir al elemento neutro de R2 [x]). Como sabemos que el
conjunto {1, x, x2 } es LI en R2 [x] y tenemos una CL de dichos vectores igualada al elemento neutro
de R2 [x] vale que α + 4β + aγ = aα + 5β + γ = 3α + 7β + γ = 0. Escrito de manera matricial, el
sistema anterior es equivalente a
1 4 a 0
α
a 5 1 β = 0 .
3 7 1 γ 0
Como tenemos una matriz cuadrada de 3 × 3, sabemos que el determinante de dicha matriz es
no nulo si y sólo si la solución del sistema anterior es la trivial (α = β = γ = 0) si y sólo si el
subconjunto de vectores iniciales es LI. Equivalentemente, el determinante de la matriz en cuestión
es nulo si y sólo si la solución del sistema es no trivial si y sólo si el subconjunto de vectores iniciales
es LD. Calculemos eldeterminante:
1 4 a
1.5. Wronskiano
En este sección vamos a estudiar una condición suficiente para determinar la independencia
lineal de un conjunto de funciones. Sea I ⊆ R un intervalo y sean {f1 , f2 , · · · , fn } un conjunto de
22
1.5. Wronskiano
n funciones pertenecientes a C n−1 (I) (es decir funciones continuas con n − 1 derivadas continuas).
Se define el wronskiano de {f1 , f2 , · · · , fn } en x0 ∈ I como
f1 (x0 ) f2 (x0 ) fn (x0 )
···
f10 (x0 ) f20 (x0 ) ··· fn0 (x0 )
W (f1 , · · · , fn )(x0 ) = det .. .. . . .
. . .. ..
f1n−1 (x0 ) f2n−1 (x0 ) · · · fnn−1 (x0 )
En este sección 0 denotará a la función nula (es decir al elemento neutro de C(I)).
Veamos un ejemplo. Sean f1 (x) = x2 , f2 (x) = x, f3 (x) = 1. Claramente, {f1 , f2 , f3 } es un
conjunto de 3 funciones pertenecientes a C 2 (R) (en realidad son infinitamente derivables con
derivadas continuas). Entonces
x x 1
2
a1 f1 + a2 f2 + · · · + an fn = 0
a1 f10 + a2 f20 + · · · + an fn0 = 0
.. .
.
a1 f1n−1 + a2 f2n−1 + · · · + an fnn−1 = 0.
Sea
f1 (x0 ) f2 (x0 ) fn (x0 )
···
f10 (x0 ) f20 (x0 ) ··· fn0 (x0 )
A := .. .. .. .. .
. . . .
f1n−1 (x0 ) f2n−1 (x0 ) · · · fnn−1 (x0 )
Entonces, el sistema anterior, nos queda escrito matricialmente como
0
a1
a2 0
A . = . .
.. ..
an 0
23
1. Espacios Vectoriales
donde para la última igualdad usamos la hipótesis. Entonces, rg(A) = n y por lo tanto, la solución
del sistema anterior es la trivial. Es decir, a1 = a2 = · · · = an = 0. Entonces, el conjunto
{f1 , f2 , · · · , fn } es LI.
Observar que el Teorema 1.5.1 NO es un “si y sólo si”. Es un teorema del tipo “si p entonces
q”. Es decir, con ese teorema podemos decir que si el conjunto de funciones es LD, entonces el
Wronskiano se anula en todo punto (“no q entonces no p”). El Teorema NO nos dice qué pasa si el
Wronskiano se anula en todo punto. De hecho, el Ejercicio 1.E que veremos más adelante, es un
ejemplo de un conjunto LI cuyo Wronskiano se anula en todo punto.
Dem. Vamos a resolverlo de dos maneras. Usando el teorema anterior y por definición.
Para eso llamemos, f (x) = 1 + 3 sin(x) − 2 cos(x), g(x) = 3 + 5 sin(x) − 6 cos(x), h(x) =
−5 sin(x) + 6 cos(x).
Usando el Teorema anterior:
Claramente f, g, h ∈ C 2 (R) (de hecho son infinitamente derivables con derivadas continuas).
Calculamos el wronskiano.
W (f, g, h)(x) =
1 + 3 sin(x) − 2 cos(x) 3 + 5 sin(x) − 6 cos(x) −5 sin(x) + 6 cos(x)
Como encontramos un punto (en este caso x = 0) donde W no se anula, por el Teorema 1.5.1,
concluimos que el conjunto es LI.
Por definición: Sean a, b, c ∈ R tales que
af + bg + ch = 0. (1.4)
24
1.5. Wronskiano
vectorial C(R) (de manera similar se puede probar que 0 es el elemento de neutro de C n (R) para
cualquier n ∈ N). Observar que en (1.4) tenemos una igualdad de funciones. Entonces, usando lo
que vimos arriba para igualdad de funciones, tenemos que vale que:
Donde ahora el 0 obviamente es el número real 0. Escribiendo la expresión de las funciones, nos
queda:
a(1 + 3 sin(x) − 2 cos(x)) + b(3 + 5 sin(x) − 6 cos(x)) + c(−5 sin(x) + 6 cos(x)) = 0 para todo x ∈ R.
Usando esa expresión, tenemos que probar que a = b = c = 0. Como la ecuación anterior vale
para todo x ∈ R, podemos proponer 3 valores de x y evaluar dicha ecuación en esos valores. Si
hacemos eso, nos quedará un sistema de 3 ecuaciones con 3 incógnitas, resolvemos el sistema y
vemos si su solución es la trivial.
Por ejemplo, si proponemos x = 0, nos queda: −a − 3b + 6c = 0. Si proponemos, x = π2 , nos
queda 4a + 8b − 5c = 0. Por último, si proponemos x = − π2 , nos queda −2a − 2b + 5c = 0.
−a − 3b + 6c = 0
Es decir, nos queda el sistema: 4a + 8b − 5c = 0 .
−2a − 2b + 5c = 0
Resolviendo, nos queda que a = b = c = 0, es decir la única solución es la trivial. Por lo tanto el
conjunto {f, g, h} es LI.
Ejercicio 1.D. Supongamos que con los 3 valores de x que propusimos en la resolución del ejercicio
anterior (por definición) hubieramos obtenido un sistema de ecuaciones indeterminado. En ese caso,
¿se puede concluir entonces que el sistema es LD?
Spoiler alert: NO. Tratar de meditar esto.
Ejercicio 1.E. Sean f, g ∈ C 1 (R) las funciones definidas por f (x) := x3 y g(x) := |x|3 . Comprobar
que {f, g} es un conjunto LI pero el Wronskiano de dicho conjunto es nulo para todo x ∈ R.
Dem. Notar que g = x3 si x ≥ 0 y g(x) = −x3 si x < 0. Además, es claro que g 0 (x) = 3x2 si x > 0,
g 0 (x) = −3x2 si x < 0 y, por definición, podemos probar que g 0 (0) = 0. Entonces,
f (x) g(x)
W (f, g)(x) = det( ).
f 0 (x) g 0 (x)
Calculemos el Wronskiano para los distintos valores que puede tomar x. Si x > 0, tenemos que
3
x3
x
W (f, g)(x) = det( ) = 0.
3x2 3x2
25
1. Espacios Vectoriales
donde 0 denota la función nula (el elemento neutro del espacio vectorial C 1 (R)). Entonces
Ejercicio 1.F (De Parcial). Observar que el siguiente conjunto de funciones está contenido en el
R-espacio vectorial C ∞ (R) y comprobar que es linealmente independiente.
{eλ1 x , eλ2 x , · · · , eλn x }, donde λ1 < λ2 < · · · < λn .
Observar que si λ1 < λ2 < · · · < λn como λi − λn < 0 para todo i ∈ {1, 2, · · · , n − 1} vale que
para todo i ∈ {1, 2, · · · , n − 1}. Este es un resultado visto en el CBC en Análisis Matemático (si no
están convencidos, vuelvan a repasar eso).
Más aún, si a1 , · · · , an−1 ∈ R, usando las propiedades de límite (de sucesiones convergentes)
también vale que
n−1
X
lı́m ai e(λi −λn )x = 0.
x→∞
i=1
Dem. Claramente {eλ1 x , eλ2 x , · · · , eλn x } ⊆ C ∞ (R), ya que todas las funciones del conjunto en
cuestión son infinitamente derivables con derivadas continuas.
A continuación vamos a probar que el conjunto dado es LI por inducción en i.
Si i = 1, el conjunto {eλ1 x } es LI, porque tiene un sólo elemento (que no es la función nula).
Si i = 2 (no es necesario probar este caso pero lo vamos a hacer para fijar ideas) el conjunto
{eλ1 x , eλ2 x } también es LI. Supongamos que no, es decir supongamos que dicho conjunto es LD.
Entonces existe a1 ∈ R tal que
Equivalentemente, como eλ2 x > 0 para todo x (es decir nunca se anula), tenemos que
eλ1 x
1 = a1 = a1 e(λ1 −λ2 )x para todo x ∈ R.
eλ2 x
Ahora, tomando límite a ambos lados de la igualdad anterior, tenemos que
donde usamos lo que probamos arriba. Por lo tanto llegamos a un absurdo y el conjunto {eλ1 x , eλ2 x }
no puede ser LD. Entonces es LI.
Hipótesis inductiva (HI): para i = n − 1, el conjunto {eλ1 x , eλ2 x , · · · , eλn−1 x } es LI.
Con la HI, vamos a probar que para i = n el conjunto {eλ1 x , eλ2 x , · · · , eλn−1 x , eλn x } también es
LI. Supongamos que no, es decir que dicho conjunto es LD. Entonces, por hipótesis inductiva, no
queda otra que eλn x sea una CL de los elementos de {eλ1 x , eλ2 x , · · · , eλn−1 x } (antes de continuar,
pensar por qué pasa esto). Es decir, existen a1 , · · · , an−1 ∈ R, tales que
26
1.6. Bases de espacios vectoriales
Ahora, tomando límite a ambos lados de la igualdad anterior (como en el caso i = 2), tenemos que
n−1
X
1 = lı́m 1 = lı́m ai e(λi −λn )x = 0,
x→∞ x→∞
i=1
donde usamos lo que probamos arriba. Por lo tanto llegamos a un absurdo y el conjunto
{eλ1 x , eλ2 x , · · · , eλn−1 x , eλn x } no es LD. Por lo tanto es LI y probamos lo que queríamos.
i) S = gen{v1 , v2 , · · · , vr },
Ejercicio 1.5 a). Hallar una base y determinar la dimensión de cada uno de los siguientes
subespacios:
Por lo tanto, S = {p ∈ R2 [x] : p(x) = b(−x2 +x)+c(−x2 +1) con b, c ∈ R} = gen{−x2 +x, −x2 +1}.
Una base de S, podría ser
BS = {−x2 + x, −x2 + 1}.
Entonces, dim(S) = 2.
Ejercicio 1.G. Hallar una base y determinar la dimensión del siguiente subespacio:
Dem. Primero entendamos qué elementos de R[x] viven en S. Observar que p ∈ R[x] pertenece a
S si y sólo si p(n) = 0. Donde p(n) denota la derivada n-ésima de p y 0 denota al polinomio nulo, es
decir el polinomio que vale 0 en todo punto (en otros ejercicios lo hemos notado como 0). Como
verán, tenemos en realidad una igualdad de polinomios (de funciones), es decir, p ∈ S si y sólo si
p(n) (x) = 0 para todo x ∈ R, donde ahora 0 denota al número real 0.
Paréntesis para ver si se entendió lo de arriba: Es crucial entender cuándo el 0 denota
una función y cuando denota un número real dado que la notación del ejercicio no diferencia
entre ambos casos, pero por contexto lo podemos inferir. Es decir como p(n) es un polinomio, no
tendría sentido la igualdad p(n) = 0 con 0 un número real, porque un polinomio y un número no
se comparan. En cambio, como p(n) (x) es un número real (es decir al evaluar un polinomio en un
punto x obtenemos un número real) en la igualdad p(n) (x) = 0, el símbolo 0 denota al número real
0. Fin del paréntesis
27
1. Espacios Vectoriales
v = a1 v1 + a2 v2 + · · · + am vm .
Entonces v ∈ Rn puesto que es la combinación lineal real de m vectores de Rn . Como v era cualquiera
concluimos entonces que Cn ⊆ Rn (básicamente porque cualquier vector v de Cn pertenece también
a Rn ). Eso claramente es absurdo, por ejemplo el vector v = [i 0 · · · 0]T ∈ Cn pero v 6∈ Rn (la
primera componente es no real). El absurdo se produjo por creer que B es una base de V. Por lo
tanto B no puede ser base de V.
28
1.8. Ecuaciones diferenciales de segundo orden
Dem. Como S y T son subespacios, podemos usar el Teorema 1.7.1 y probar para qué valores
de m se cumple que T ⊆ S y dim(S) = dim(T ). Si pasa eso, entonces por el resultado anterior,
S =T.
Llamemos p(x) = x2 + mx + 1, q(x) = x3 + x2 − 5x + (5 + m), r(x) = −x3 + (m + 3)x2 + x − 1.
Entonces T ⊆ S si y sólo si p, q, r ∈ S ( ¿por qué?).
Verifiquemos si p ∈ S. Evaluando p(1) = m + 2 = 0 entonces m = −2 y p0 (1) = 2(1) + m =
2 − 2 = 0. Entonces m = −2 (si m toma otro valor, no hay manera de que T ⊆ S). Reemplazando
m = −2, tenemos que p(x) = x2 − 2x + 1, q(x) = x3 + x2 − 5x + 3, r(x) = −x3 + x2 + x − 1. Falta
verificar que q, r ∈ S (si eso no ocurre entonces no existe tal m y nunca podría pasar que S = T ).
Verificando, se ve que q(1) = 0, q 0 (1) = 0 y r(1) = 0, r0 (1) = 0. Entonces, si m = −2, T ⊆ S. Falta
verificar que para ese valor de m, vale que dim(S) = dim(T ). En ese caso, observar dim(S) = 2, pues
S = gen{x3 − 3x + 2, x2 − 2x + 1}. Además, como q+r 2 = p, vale que T = gen{p, q, r} = gen{q, r}.
Como q y r no son multiplos entonces son LI y dim(T ) = 2 = dim(S). Entonces, si m = −2 tenemos
que S = T .
a) cualesquiera sean a, b ∈ R con b = 6 a, el conjunto de funciones {eax , ebx } es una base del
espacio solución de la ecuación y − (a + b)y 0 + aby = 0;
00
(b) para cualquier a ∈ R, el conjunto de funciones {eax , xeax } es una base del espacio solución de
la ecuación y 00 − 2ay 0 + a2 y = 0;
(c) cualesquiera sean a, b ∈ R con b 6= 0, el conjunto de funciones {eax cos(bx), eax sin(bx)} es
una base del espacio solución de la ecuación y 00 − 2ay 0 + (a2 + b2 )y = 0.
29
1. Espacios Vectoriales
Notar que las funciones eax y ebx son soluciones de la ecuación y 00 − (a + b)y 0 + aby = 0. De
hecho,
(eax )00 − (a + b)(eax )0 + ab(eax ) = a2 eax − a(a + b)eax + ab(eax ) = 0.
De la misma manera se prueba que ebx es una solución de la ecuación y 00 − (a + b)y 0 + aby = 0. Por
lo tanto eax ∈ S y ebx ∈ S. Veamos que el conjunto {eax , ebx } es LI, podemos probarlo calculando
el Wronskiano (por ejemplo):
eax ebx
W (eax , ebx )(x) = det( ) = (b − a)e(a+b)x 6= 0,
aeax bebx
donde usamos que e(a+b)x > 0 para todo x ∈ R y b 6= a. Por lo tanto, {eax , ebx } es un conjunto LI.
Conclusión: tenemos 2 vectores LI de S (que es un subespacio de dimensión 2). Entonces, por el
Ejercicio 1.I, el conjunto {eax , ebx } es una base de S o equivalentemente, {eax , ebx } es una base del
espacio solución de la ecuación y 00 − (a + b)y 0 + aby = 0.
b) : Se resuelve igual que el item a) viendo que los vectores eax y xeax son soluciones de la
ecuación y 00 − 2ay 0 + a2 y = 0 y observando que el conjunto {eax , xeax } es un conjunto LI (pueden
probarlo calculando el Wronskiano por ejemplo). Tomando, a1 = −2a y a0 = a2 en (1.5), tenemos
que el subespacio que es el conjunto de soluciones de la ecuación y 00 − 2ay 0 + a2 y = 0 tiene dimensión
2. Por lo tanto, por el Ejercicio 1.I, el conjunto {eax , xeax } es una base del espacio solución de la
ecuación y 00 − 2ay 0 + a2 y = 0.
c) : Se resuelve igual que el item a) viendo que los vectores eax cos(bx) y eax sin(bx) son
soluciones de la ecuación y 00 − 2ay 0 + (a2 + b2 )y = 0 y observando que, como b 6= 0, el conjunto
{eax cos(bx), eax sin(bx)} es un conjunto LI (pueden probarlo calculando el Wronskiano por ejemplo).
Tomando a1 = −2a y a0 = a2 + b2 en (1.5), tenemos que el subespacio que es el conjunto de
soluciones de la ecuación y 00 − 2ay 0 + (a2 + b2 )y = 0 tiene dimensión 2. Por lo tanto, por el
Ejercicio 1.I, el conjunto {eax cos(bx), eax sin(bx)} es una base del espacio solución de la ecuación
y 00 − 2ay 0 + (a2 + b2 )y = 0.
Veamos una aplicación del Ejercicio 1.17.
Ejercicio 1.18 b). Hallar la solución y ∈ C ∞ (R) de la ecuación diferencial indicada que satisface
las siguientes condiciones: y(0) = 1, y 0 (0) = 1.
y 00 + 4y 0 + 4y = 0.
y 00 − 2(−2)y + (−2)(−2)y = 0.
Buscamos de todas las soluciones, aquellas que cumplen que y(0) = 1, y 0 (0) = 1. Es decir,
1 = y(0) = αe−2·0 + β0e−2·0 = α y como y 0 (x) = −2αe−2x + β(e−2x − 2xe−2x ), tenemos que
1 = y 0 (0) = −2α + β = −2 · 1 + β. Entonces β = 3. Por lo tanto la solución de la ecuación diferencial
que satisface y(0) = 1, y 0 (0) = 1 es
30
1.9. Subespacios fundamentales de una matriz
La demostración del Teorema 1.9.1 se vio en el CBC, de todas maneras, más adelante
enunciaremos y demostraremos una generalización de este teorema para transformaciones lineales.
Proposición 1.9.2. Sea A ∈ Km×n y b ∈ Kn . Entonces, si existe solución del sistema Ax = b,
todas las soluciones xs del sistema Ax = b se pueden expresar como
xs = xp + xh ,
donde xp es una solución particular (es decir Axp = b) y xh ∈ nul(A) (es decir xh es solucion del
sistema homogéneo Ax = 0).
Dem. Primero veamos que efectivamente xs resuelve el sistema Ax = b. Esto es así pues,
Axs = A(xp + xh ) = Axp + Axh = b + 0 = b.
Por útlimo, veamos que toda solución del sistema se puede escribir como queremos. Sea xp
una solución particular del sistema Ax = b (que existe por hipótesis), entonces Axp = b. Por otra
parte, supongamos que xs es cualquier solución del sistema Ax = b. Entonces Axs = b. Restando
estas dos ecuaciones, nos queda que 0 = b − b = Axs − Axp = A(xs − xp ), entonces si llamamos
xh := xs − xp , claramente xh ∈ nul(A). Finalmente, xs = xp + (xs − xp ) = xp + xh , con xp una
solución particular y xh ∈ nul(A), y obtenemos lo que queríamos probar.
El siguiente ejercicio parece sencillo a primera vista, pero requiere bastante atención.
1 i
Ejercicio 1.20. Sea A = . Hallar una base de cada uno de los cuatro subespacios
i −1
fundamentales de A.
2 − 3i
Sea b = . ¿Existe x ∈ C2 tal que Ax = b? Si la respuesta es afirmativa, hallar todas
3 + 2i
las soluciones del sistema Ax = b.
31
1. Espacios Vectoriales
Dem.
Primero
vamos
a obtener el subespacio col(A). Fácilmente vemos que col(A) =
1 i
gen{ , }. La dificultad del ejercicio está en que no se aclara el cuerpo donde se
i −1
está trabajando. Veremos que las respuestas serán distintas si tomamos como cuerpo R ó C.
1
i
Si pensamos a C como C-espacio vectorial, como
2
= −i , entonces
i −1
1 1
col(A) = gen{ } y una base de col(A) puede ser Bcol(A) = { }. Por otra parte, si
i i
1
i
pensamos a C2 como R-espacio vectorial, no existe a ∈ R tal que =a , por
i −1
1
i
lo tanto el conjunto { , } el LI y en este caso, una base de col(A) puede ser
i −1
1
i
Bcol(A) = { , }.
i −1
Para el calculo de nul(A) también tendremos que pensar en esos dos casos. Si pensamos a
C2 como C-espacio vectorial, como en este caso dim(C2C ) = 2, el Teorema de la Dimensión
1.9.1, nos dice que dim(nul(A)) + rg(A) =
2. Entonces, dim(nul(A)) = 2 − rg(A) = 2 −
1 =1.
1 1
Entonces, como (por ejemplo) el vector ∈ nul(A), tenemos que nul(A) = gen{ }.
i i
Otra forma de encontrar nul(A) (en este caso
donde pensamos a C2 como C-espacio vectorial)
0
es resolver el sistema homogéneo Ax = . Conclusión, una base de nul(A) podría ser
0
1
Bnul(A) = { }.
i
Por otra parte, si pensamos a C2 como R-espacio vectorial (recordemos que en este caso
dim(C2R ) = 4), también por el Teoremade la Dimensión 1.9.1, tenemos que dim(nul(A)) =
1
i
4 − rg(A) = 4 − 2 = 2. Entonces como y ∈ nul(A) y además, como no existe
i −1
1 1
i i
a ∈ R tal que =a , el conjunto { , } es LI. Por lo tanto, una
−1 i i −1
1
i
base de nul(A) podría ser Bnul(A) = { , }.
i −1
Otra forma de hallar nul(A) cuando pensamos a C2 como R-espacio vectorial es la siguiente:
x pertenece
anul(A) si x ∈ C yademás
2
Ax = 0. En este caso, una base de C2R puede ser
1 0 0
i
BC2R = { , , , } y se ve claramente que dim(C2R ) = 4. Como x ∈ C2 ,
0 0 1 i
existen a, b, c, d ∈ R tales que
1 0 0
i
x=a +b +c +d .
0 0 1 i
0 1 0 0
i
Entonces, si 0 = Ax tenemos que = A(a +b +c +d )=
0 0 0 1 i
1
i i −1
a +b +c +d . Operando, nos queda el sistema 0 =
i −1 −1 −i
a + bi + ci − d, 0 = ai − b − c − di. Entonces,
(b + c)i = d − a y b + c = (a − d)i.
32
1.9. Subespacios fundamentales de una matriz
igual al número real a − d multiplicado por i), pero el único número que es real y complejo
puro a la vez es 0. Por lo tanto b + c = 0, por lo que c = −b y d = a.
1 0 0
i
Volviendo a la expresión de x, tenemos que x = a +b +c +d =
0 0 1 i
1 0 0 1
i i
a +b + (−b) +a =a +b , con a, b ∈ R. Por lo
0 0 1 i i −1
1
i
tanto nul(A) = gen{ , } y como esos generadores son LI, una base de nul(A)
i −1
1
i
podría ser Bnul(A) = { , }.
i −1
Para obtener fil(A) y nul(AT ), observar que en este caso en particular (es decir en este
ejercicio) AT = A. Entonces nul(AT) = nul(A) ycomo fil(A) = col(AT ), tenemos que
1
i
fil(A) = col(AT ) = col(A) = gen{ , }. Entonces, si pensamos a C2 como
i −1
1
C-espacio vectorial, una base de fil(A) puede ser Bfil(A) = { } y una base de
i
1
nul(AT ) = nul(A) podría ser Bnul(AT ) = { }.
i
Si pensamos
a C como R-espacio vectorial, una base de fil(A)
2
puede
ser Bfil(A) =
1 i 1 i
{ , } y una base de nul(AT ) podría ser Bnul(AT ) = { , }.
i −1 i −1
2 − 3i 1 2
i
Finalmente, observar que b = =2 + (−3) =A . Entonces,
3 + 2i i −1 −3
2
si llamamos xp := ∈ C2 , tenemos que Axp = b, es decir el sistema Ax = b tiene al
−3
menos una solución (es compatible).
Cuando existe solución del sistema Ax = b, vimos en la Proposición 1.9.2, que todas las
soluciones de dicho sistema se pueden expresar como xs = xp + xh , donde xp es una
solución particular y xh ∈ nul(A). Entonces, si pensamos aC2
como C-espacio vectorial,
2 1
todas las soluciones del sistema son xs = +a , con a ∈ C. Por otra
−3 i
parte, si pensamos a C como
2
R-espacio vectorial, todas las soluciones del sistema son
2 1
i
xs = +a +b , con a, b ∈ R.
−3 i −1
Dem. a): Vamos a suponer que A = [A1 A2 · · · Am ], donde A1 , A m ∈ K son las columnas
2 , · · · , A
n
x01
x02
de A. Si el sistema Ax = b es compatible, entonces existe x0 = . ∈ Km tal que Ax0 = b.
..
x0m
33
1. Espacios Vectoriales
x01
x02
Entonces, tenemos que b = Ax0 = [A1 A2 · · · Am ] .. = x01 A1 + x02 A2 + · · · + x0m Am . Por
.
x0m
lo tanto (como b es combinación lineal de las columnas de A) b ∈ gen{A1 , A2 , · · · , Am } = col(A).
Recíprocamente, si b ∈ col(A), entonces existen a1 , a2 , · · · , am ∈ K tales que
b = a1 A1 + a2 A2 + · · · + am Am .
a1
a2
Operando, nos queda que b = a1 A1 + a2 A2 + · · · + am Am = [A1 A2 · · · Am ] .. . Llamando
.
am
a1
a2
x0 := .. ∈ Km , claramente Ax0 = b (es decir encontramos x0 ∈ Km tal que b = Ax0 ).
.
am
Entonces el sistema Ax = b es compatible.
b): Si b ∈ col(A), entonces por a) vale que el sistema Ax = b es compatible, es decir tiene al menos
una solución x0 ∈ Km tal que Ax0 = b. Supongamos que el sistema tiene otra solución x00 ∈ Km , es
decir Ax00 = b. Restanto estas dos igualdades nos queda que 0Kn = b − b = Ax0 − Ax00 = A(x0 − x00 ).
Por lo tanto x0 − x00 ∈ nul(A). Entonces nul(A) = {0} si y sólo si x0 − x00 = 0Km si y sólo si x0 = x00
(y el sistema Ax = b tiene una única solución).
A partir del Ejercicio 1.K, tenemos otra manera de caracterizar el espacio col(A):
Proposición 1.9.3. Sea A ∈ Kn×m . Entonces
Dem. Vamos probar la doble inclusión, sea y ∈ col(A), entonces, por el Ejercicio 1.K,
el sistema Ax = y es compatible, es decir existe x0 ∈ Km tal que y = Ax0 , entonces
y ∈ {y ∈ Kn : existe x ∈ Km : y = Ax}.
Reciprocamente, si y ∈ {y ∈ Kn : existe x ∈ Km : y = Ax}, entonces existe x ∈ Km tal que
y = Ax. Entonces el sistema es compatible y, por el Ejercicio 1.K, y ∈ col(A).
Ejercicio 1.L (De Parcial). Si A ∈ R5×4 es una matriz tal que rg(A) = 4 y b ∈ R5 , entonces el
sistema Ax = b no tiene solución cuando la matriz ampliada del sistema [A b] ∈ R5×5 es inversible.
Dem. Vamos a probar el contrarrecíproco de lo que queremos ver. Es decir, vamos a probar que
si la matriz ampliada del sistema [A b] ∈ R5×5 no es inversible, entonces el sistema Ax = b tiene
solución (es decir probaremos “no q entonces no p” por lo que también valdrá que “p entonces q”).
Supongamos que A = [A1 A2 A3 A4 ], donde A1 , A2 , A3 , A4 ∈ R5 son las 4 columnas de A.
Si la matriz ampliada del sistema [A b] ∈ R5×5 no es inversible, eso significa que el conjunto
{A1 , A2 , A3 , A4 , b} (es decir, el conjunto de las columnas de la matriz ampliada [A b]) no es LI
(ó lo que es lo mismo es LD). Pero como 4 = rg(A) = dim(col(A)), tenemos que el conjunto
{A1 , A2 , A3 , A4 } (las columnas de A) es LI. Por lo tanto, la única posibilidad que queda es que b
sea una CL de A1 , A2 , A3 , A4 (si no están convencidos de esto, meditarlo un poco). Es decir, existen
a1 , a2 , a3 , a4 ∈ R, tales que
a1 a1
a2 a2
b = a1 A1 + a2 A2 + a3 A3 + a4 A4 = [A1 A2 A3 A4 ]
a3 = A a3 .
a4 a4
34
1.9. Subespacios fundamentales de una matriz
a1
a2
Llamando x0 := a3 ∈ R . Tenemos que Ax0 = b, y el sistema es compatible. En conclusión
4
a4
probamos que si [A b] es no inversible entonces el sistema Ax = b tiene solución, por contrarrecíproco
vale que si Ax = b no tiene solución entonces [A b] es inversible y probamos lo que queríamos.
Dem. a) : Para probar col(AB) ⊆ col(A), tomemos y ∈ col(AB) y veamos que y ∈ col(A). Sea
y ∈ col(AB), entonces por la Proposición 1.9.3), existe x ∈ Rn tal que y = ABx = A(Bx); entonces
si llamamos x0 := Bx ∈ Rm , claramente y = Ax0 . Encontramos un vector x0 tal que y = Ax0 ,
entonces (por la misma proposición) y ∈ col(A). Y probamos que col(AB) ⊆ col(A).
Si rg(B) = m, entonces como col(B) ⊆ Rm y dim(col(B)) = rg(B) = m, tenemos que
col(B) = Rm (usamos la propiedad que dice que dos subespacios son iguales si y sólo si uno
está contenido en el otro y tienen misma dimensión). Entendida esta observación, veamos la otra
inclusión. Sea y ∈ col(A) entonces, existe x ∈ Rm tal que y = Ax, pero como x ∈ Rm = col(B),
existe z ∈ Rn tal que x = Bz, por lo tanto y = Ax = A(Bz) = (AB)z y tenemos que y ∈ col(AB).
Entonces probamos que col(A) ⊆ col(AB) y como siempre vale la otra inclusión, en este caso,
tenemos que col(AB) = col(A).
La recíproca no vale. Es decir col(AB) = col(A), no implica que rg(B) = m. De hecho, si
tomamos A = 0Rp×m , B = 0Rm×n tenemos que col(A) = {0Rp } y rg(B) = 0 6= m. Sin embargo,
col(AB) = col(0Rp×n ) = {0Rp } = col(A).
b) : Si x ∈ nul(B) entonces Bx = 0. Entonces, ABx = A(Bx) = A0 = 0, por lo tanto
x ∈ nul(AB) y tenemos la inclusión nul(B) ⊆ nul(AB).
Si rg(A) = m, por el Teorema de la dimensión, tenemos que dim(nul(A)) = m − rg(A) = 0.
Entonces nul(A) = {0}. En este caso, veamos que tenemos la otra inclusión. Si x ∈ nul(AB)
entonces 0 = ABx = A(Bx). Entonces Bx ∈ nul(A), pero como nul(A) = {0}, tenemos que Bx = 0
y por lo tanto x ∈ nul(B). Entonces tenemos que nul(AB) ⊆ nul(B) y como siempre vale la otra
inclusión, concluimos que nul(AB) = nul(B).
La recíproca no vale. Es decir nul(AB) = nul(B), no implica que rg(A) = m. Observar que sirve
el mismo ejemplo que usamos en a).
c) : Por el ítem a) tenemos que col(AB) ⊆ col(A), entonces rg(AB) = dim(col(AB)) ≤
dim(col(A)) = rg(A). Por otra parte, por el ítem b), tenemos que dim(nul(B)) ≤ dim(nul(AB)).
Entonces, por el Teorema de la dimensión, tenemos que rg(AB) = n − dim(nul(AB)) ≤
n − dim(nul(B)) = rg(B). Esto implica que rg(AB) ≤ mı́n{rg(A), rg(B)}.
Para enteder mejor por qué vale esto, observar que sólo tenemos dos opciones
mı́n{rg(A), rg(B)} = rg(A) ó mı́n{rg(A), rg(B)} = rg(B).
Por ejemplo si rg(A) < rg(B), tendremos la primera opción. Como vimos que rg(AB) ≤ rg(B) y
rg(AB) ≤ rg(A), tenemos lo que queríamos probar.
AB = 11 −11 −4 7 ,
11 −11 −5 6
donde rg(A) = 3, y B satisface que B[1 1 1 1]T = [0 3 1]T , B[1 0 1 0]T = [5 7 6]T . Hallar todas las
soluciones del sistema Bx = [5 1 4]T .
35
1. Espacios Vectoriales
B([1 0 1 0]T − 2[1 1 1 1]T ) = B[1 0 1 0]T + (−2)B[1 1 1 1]T = [5 7 6]T − 2[0 3 1]T = [5 1 4]T .
Entonces, el vector [1 0 1 0]T − 2[1 1 1 1]T = [−1 − 2 − 1 − 2]T es una solución del sistema
Bx = [5 1 4]T . En la Proposición 1.9.2 vimos que como existe solución del sistema Bx = [5 1 4]T ,
todas las soluciones xs del sistema se pueden expresar como
xs = xp + xh ,
pero por el Ejercicio 1.M, como rg(A) = 3, vale que nul(AB) = nul(B) (notar que en general sólo
vale que nul(B) ⊆ nul(AB), pero como vimos en el Ejercicio 1.M, en este caso como rg(A) = 3
tenemos la igualdad).
Por lo tanto nul(B) = gen{[1 1 0 0]T , [−1 0 − 1 1]T } y todas las soluciones del sistema
Bx = [5 1 4]T son
0
2 −5 8 9 3 8
0
0 0 −2 1 7 −2
A= . Entonces, A2∗ = −2 , A∗3 = y A25 = 7.
0 0 0 1 4 0
1
0 0 0 0 0 0
7
36
1.10. Algoritmos para producir una base a partir de un sistema de generadores
Si la matriz A es escalonada, entonces las entradas con índices (i, pi ) con 1 ≤ i ≤ r se llaman
pivotes. A las columnas correspondientes A∗pi con i ≤ i ≤ r las llamamos columnas pivotales.
Veamos ejemplos de matrices que son escalonadas por filas y matrices que no lo son:
Ejemplo 1.e.
2 −5 8 9 3
0 0 −2 1 7
A= .
0 0 0 1 4
0 0 0 0 0
Entonces, r = 3, A1∗ =
6 0, A2∗ 6= 0, A3∗ =
6 0 y A4∗ = 0. Por otra parte, p1 = 1, p2 = 3 y p3 = 4
y tenemos que p1 < p2 < p3 . Por lo tanto, A es escalonada por filas.
0 −5 7 1
A = 0 0 −2 0
0 0 0 0
Entonces, r = 2, A1∗ =6 0, A2∗ 6= 0 y A3∗ = 0. Por otra parte, p1 = 2 y p2 = 3 y tenemos que
p1 < p2 . Por lo tanto, A es escalonada por filas.
2 −5 8 9 3
0 0 0 0 0
A= 0 0 −2 1 7 .
0 0 0 0 0
Entonces, r = 2 pero A2∗ = 0. Entonces, A NO es escalonada por filas.
2 −5 8 9 3
A = 0 1 3 4 0 .
0 5 −2 1 7
Entonces, r = 3, p2 = p3 = 2. Por lo tanto p2 6< p3 . Entonces, A NO es escalonada por filas.
Una matriz se llama escalonada reducida (por filas) si cumple con las propiedades 1. y 2. y
además con las siguientes propiedades 3. y 4.:
3. Aipi = 1 para todo 1 ≤ i ≤ r. Es decir, en cada fila no nula, el elemento delantero diferente
de cero (pivote) es igual a uno.
Veamos ejemplos de una matriz que es escalonadas reducida (por filas) y otra que no:
Ejemplo 1.f.
0 1 0 0 0 4
0 0 0 1 0 0
A= .
0 0 0 0 1 6
0 0 0 0 0 0
Entonces, r = 3, A1∗ 6= 0, A2∗ 6= 0, A3∗ =
6 0 y A4∗ = 0. Por otra parte, p1 = 2, p2 = 4 y p3 = 5
y tenemos que p1 < p2 < p3 . Por lo tanto, A es escalonada por filas. Además, A1p1 = A12 = 1,
A2p2 = A24 = 1 y A3p3 = A35 = 1. Finalmente, A1p2 = A14 = 0, A1p3 = A15 = 0,
A2p3 = A25 = 0. Por lo tanto, A es escalonada reducida por filas. En este caso A∗2 , A∗4 y A∗5
son las columnas pivotales de A.
1 1 0
A = 0 1 0 .
0 0 0
37
1. Espacios Vectoriales
0 0 0 0 0 1 4
correspondientes a las columnas pivotales de E (la forma reducida por filas de A) forman una base
de col(A).
En primer lugar, obtengamos E la forma escalonada reducida (por filas) de A. De hecho,
triangulando A podemos ver que
0 1 0 −2 3 0 −24
0 0 1 −2 2 0 −7
E=0
.
0 0 0 0 1 4
0 0 0 0 0 0 0
Entonces, r = 3 y los índices de E son p1 = 2, p2 = 3 y p3 = 6. Las columnas pivotales de E son
E∗p1 = E∗2 , E∗p2 = E∗3 y E∗p3 = E∗6 . Claramente, el conjunto {E∗p1 , E∗p2 , E∗p3 } es un conjunto
LI, pues E∗p1 = e1 , E∗p2 = e2 y E∗p3 = e3 , donde e1 , e2 , e3 son los primeros 3 elementos de la base
canónica de R4 .
Recordemos que como E es la forma escalonada reducida (por filas) de A vale que
Ax = 0 si y sólo si Ex = 0. (1.6)
Es decir, las soluciones al sistema homogéneo asociado a A y a E coinciden.
Veamos que las columnas de A correspondientes a las columnas pivotales de E que son
{A∗p1 , A∗p2 , A∗p3 } = {A∗2 , A∗3 , A∗6 } forman un conjunto LI. De hecho, sean a1 , a2 , a3 ∈ R tales
que
a1 A∗p1 + a2 A∗p2 + a3 A∗p3 = 0.
0 0
a1 a1
a2 a2
Entonces A 0 = 0 y, por (1.6), tenemos que E 0 = 0 = a1 E∗p1 + a2 E∗p2 + a3 E∗p3 . Pero,
0 0
a3 a3
0 0
como {E∗p1 , E∗p2 , E∗p3 } es un conjunto LI, tenemos que a1 = a2 = a3 = 0 y por lo tanto,
{A∗p1 , A∗p2 , A∗p3 } = {A∗2 , A∗3 , A∗6 } es un conjunto LI.
0
−2
0 −2
Por otra parte, las columnas no pivotales de E son u1 = E∗1 = 0 , u2 = E∗4 = 0 ,
0 0
3
−24
2 −7
u3 = E∗5 = y u4 = E∗7 = . Como
0 4
0 0
uik = 0 para todo 1 ≤ i ≤ 4, 3 < k ≤ 4,
38
1.10. Algoritmos para producir una base a partir de un sistema de generadores
se sigue las columnas ui para i = 1, 2, 3, 4 son una C.L. de las 3 columnas pivotales de E. Es decir,
0 0 0, −1
0 0 0, −1
Entonces
Por lo tanto las columnas de A correspondientes a las columnas no pivotales de E que son
A∗1 , A∗4 , A∗5 , A∗7 , son C.L. de las columnas de A correspondientes a las columnas pivotales de E.
Por lo tanto, col(A) = gen{A∗1 , A∗2 , A∗3 , A∗4 , A∗5 , A∗6 , A∗7 } = gen{A∗2 , A∗3 , A∗6 }. Entonces
{A∗2 , A∗3 , A∗6 } es un conjunto LI que genera col(A) por lo tanto es una base de col(A) y probamos
lo que queríamos.
Demostración. (de la Proposición 1.10.1)
Sea E := [wp1 wp2 · · · wpr u1 · · · un−pr ] la forma escalonada reducida (por filas) de A. Donde,
wp1 , wp2 , · · · , wpr son las r columnas pivotales de E y u1 , · · · , un−pr son las columnas no pivotales
de E. Nota: para simplificar la demostración estamos suponiendo que las primeras r filas de E
corresponden a las columnas pivotales de E. Eso no tiene por qué ocurrir en general, pero la prueba
sería similar si las columnas pivotales de E tuvieran otro orden.
Entonces, si ei denota el elemento i de la base canónica de Km , tenemos que
w p1 = e 1 , w p2 = e 2 , · · · , w pr = e r .
Por lo tanto, como p1 < p2 < · · · < pr , es claro que {wp1 , wp2 , · · · , wpr } es un conjunto LI. Por
otra parte, como u1 , · · · , un−pr son las columnas no pivotales de E, por definición vale que
39
1. Espacios Vectoriales
Entonces, es claro que las columnas ui son una C.L. de las r columnas pivotales de E. Es decir
r
X r
X
ui = uik wpk = uik ek . (1.7)
k=1 k=1
Recordemos que, como E es la forma escalonada reducida (por filas) de A vale que
Ax = 0 si y sólo si Ex = 0. (1.8)
Pero, como {wp1 , wp2 , · · · , wpr } es un conjunto LI, tenemos que a1 = a2 = · · · = ar = 0 y por lo
tanto, {vp1 , vp2 , · · · , vpr } es un conjunto LI.
Por otra parte, observar que por (1.7), si i = 1, vale que
r
X
0 = −u1 + u1k wpk .
k=1
u11 u11
u12 u12
· · · · · ·
u1r
Es decir, E = −u1 + r u1k wp = 0 entonces, por (1.8), A u1r = −z1 + Pr u1k vp =
P
−1 k=1 k −1 k=1 k
0 0
· · · · · ·
0 0
Pr
0. Por lo tanto z1 = k=1 uik v p k
y z 1 es C.L. de las las columnas de A correspondientes a
las columnas pivotales de E. De la misma manera, se prueba que las otras columnas de A
correspondientes a las columnas no pivotales de E que son z2 , · · · , zn−pr son C.L. de las columnas
de A correspondientes a las columnas pivotales de E. Por lo tanto,
Entonces {vp1 , vp2 , · · · , vpr } es un conjunto LI que genera col(A) por lo tanto es una base de col(A)
y probamos lo que queríamos.
Ejercicio 1.13. Explicar por qué los siguientes algoritmos producen una base B de un subespacio
S a partir de un sistema de generadores G del mismo.
40
1.11. Coordenadas de un vector en una base
Luego, triangulando A obtenemos E la matriz escalonada por filas de A y listamos las filas no
nulas de E que llamaremos {Ep1 ∗ , · · · , Epr ∗ }. Entonces, por la Proposición 1.4.1, se sigue que
S = fil(A) = fil(E) = gen{Ep1 ∗ , · · · , Epr ∗ } y además, como {Ep1 ∗ , · · · , Epr ∗ } es un conjunto LI,
tenemos que {Ep1 ∗ , · · · , Epr ∗ } es una base de fil(A) = fil(E) = S. Por lo tanto, el algoritmo produce
una base B de S a partir del sistema de generadores G.
b :) Sea G := {v1 , · · · , vn } ⊆ Km un sistema de generadores de S. Construimos la matriz cuyas
columnas son v1 , · · · , vn , es decir tomamos
Luego, construimos E la matriz escalonada por filas reducida de A y listamos las columnas de A
que corresponden a las columnas pivotales de E. Entonces, por la Proposición 1.10.1, las columnas
de A correspondientes a las columnas pivotales de E forman una base de col(A) = S. Por lo tanto,
el algoritmo produce una base B de S a partir del sistema de generadores G.
an
CB (x) ó por [x]B .
Vamos a usar la notación [x]B , que es la que se usa en la guía. Para entender la definición (y la
notación) que acabamos de ver, supongamos que estamos en R2 [x] y tomamos B = {1, x2 , x} que es
41
1. Espacios Vectoriales
1
una base de R2 [x]. Si q(x) = 1−x entonces [q]B = 0 ∈ R3 , porque q(x) = 1·x+0·x2 +(−1)·x,
−1
para todo x ∈ R.
1
Notar que la expresión [ 0 ]B NO tiene sentido. En la notación que definimos: [v]B , el vector
−1
1 1
a1
..
[v] = . ∈ Kn entonces v = a1 v1 + · · · + an vn y recuperamos al vector v.
B
an
an bn
y w = b1 v1 + · · · + bn vn . Entonces, αv + βw = α(a1 v1 + · · · + an vn ) + β(b1 v1 + · · · + bn vn ) =
(αa1 + βb1 )v1 + · · · + (αan + βbn )vn . Por lo tanto,
αa1 + βb1
[αv + βw]B = ..
= α[v] + β[w] .
B B
.
αa1 + βb1
Este tema suele traer muchas confusiones por lo que a continuación vamos resolver algunos
ejercicios para fijar ideas.
Ejercicio 1.N. Sean V = gen{1, ex , e−x } un R-espacio vectorial, B = {1, ex , e−x } un conjunto de
V y g(x) = senh(x). Entonces:
a) Demostrar que B es una base de V.
b) Obtener [g]B .
1
c) Encontrar un vector h ∈ V tal que [h]B = 2 . ¿Existe otro vector h0 con esas
−1
coordenadas en la base B?
42
1.11. Coordenadas de un vector en una base
Antes de comenzar a resolver el ejercicio, es importante entender que cada elemento del conjunto
B es una función (no un número real). En general se suele abusar un poco de la notación y eso
puede llegar a confundir un poco. Estrictamente hablando, si definimos las funciones f1 (x) = 1 (la
función que siempre vale 1), f2 (x) = ex , f3 (x) = e−x , entonces B = {f1 , f2 , f3 } y es como se debe
interpretar esa notación. Meditar un poco sobre esto porque es crucial para resolver el ejercicio.
Dem. a): Observar que cada elemento de B pertenece a V. Por definición de V, el conjunto
{f1 , f2 , f3 } es un sistema de generadores de V. Sólo falta probar que el conjunto es LI. Para eso,
por ejemplo, podemos calcular el Wronskiano.
1 ex e−x
base B. Supongamos que sí, es decir, que existe h0 ∈ V tal que [h0 ]B = 2 . Entonces
−1
h0 (x) = 1 + 2ex − e−x = h(x) para todo x ∈ R. Entonces h0 = h.
Ejercicio 1.26. Sean p1 (x) = 12 (x − 1)(x − 2), p2 (x) = −x(x − 2) y p3 (x) = 21 x(x − 1).
b) Si p ∈ R2 [x] entonces
p(0)
[p]B = p(1) .
p(2)
Dem. a): Claramente, p1 , p2 , p3 ∈ R2 [x]. Recordar que en el Ejercicio 1.I, probamos que “n
vectores LI de un subespacio de dimensión n forman un base de dicho subespacio”. Entonces, como
dim(R2 [x])=3, sólo basta ver que B es un conjunto LI para probar que B es una base de R2 [x].
Veamos que es LI, por ejemplo, calculando el Wronskiano:
43
1. Espacios Vectoriales
0 1 0
Ejercicio 1.Ñ. Supongamos que estamos en R2 [x] y tomamos como bases B1 = {1, x, x2 } y
B2 = {p1 , p2 , p3 } (donde p1 , p2 , p3 son los polinomios definidos en el Ejercicio 1.26), obtener
MBB12 .
44
1.12. Matriz de cambio de base
Entonces, la matriz de cambio de base de B1 a B2 (como era de esperar) nos permite obtener
las coordenadas de v en la base B2 sabiendo las coordenadas de dicho v enbase B
1.
a1
a2
La prueba de esta propiedad es muy simple. Supongamos que [v]B1 = . , entonces
.
.
an
a1
a2
MBB12 [v]B1 = [[v1 ]B2 [v2 ]B2 · · · [vn ]B2 ] .. = a1 [v1 ]B2 + a2 [v2 ]B2 + · · · + an [vn ]B2 =
.
an
= [a1 v1 + a2 v2 + · · · + an vn ]B2 ,
donde usamos que tomar coordenadas es lineal (Proposición 1.11.1). Por lo tanto, como v =
a1 v1 + a2 v2 + · · · + an vn , tenemos que MBB12 [v]B1 = [a1 v1 + a2 v2 + · · · + an vn ]B2 = [v]B2 y probamos
lo que queríamos.
1 −2 3
Dem. a): Por definición MEB = [[1]B [x]B [x2 ]B ]. Entonces, si B = {q, r, s} (con q, r, s polinomios
a determinar), tenemos que
x = (−2) · q(x) + (−1) · r(x) + 1 · s(x) = −2 − r(x) + s(x), para todo x ∈ R, (1.11)
y finalmente,
Despejando en (1.11), nos queda que s(x) = x + 2 + r(x), para todo x ∈ R y reemplazando en
(1.12), tenemos que x2 = 3 + 2r(x) − s(x) = 3 + 2r(x) − (x + 2 + r(x)) = 1 − x + r(x), para todo
x ∈ R. Entonces r(x) = x2 + x − 1 y s(x) = r(x) + 2 + x = x2 + x − 1 + x + 2 = x2 + 2x + 1. Por lo
tanto, B = {q, r, s} = {1, x2 + x − 1, x2 + 2x + 1}.
Nota: En el próximo ejercicio, veremos que la matriz de cambio de base siempre es inversible y
que (MEB )−1 = MBE . Entonces, otra manera de resolver este ejercicio sería calcular
1 −1 1
45
1. Espacios Vectoriales
a
b): Si p ∈ R2 [x] tiene como expresión p(x) = a+bx+cx2 con a, b, c ∈ R, entonces [p]E = b .
c
Por lo tanto
1 −2 3 a − 2b + 3c
a
[p]B = MEB [p]E = 0 −1 2 b = −b + 2c .
0 1 −1 c b−c
c): Si p ∈ R2 [x] es tal que [p]B = [p]E , entonces, usando que [p]B = MEB [p]E , nos queda que
Entonces
0
1 −2 3 0 −2 3
MEB − I = 0 −1 2 − I = 0 −2 2 .
0 1 −1 0 1 −2
1
Resolviendo, tenemos que nul(MEB − I) = gen{ 0 }. Entonces, [p]B = [p]E si y sólo si [p]E ∈
0
1 1
a
gen{ 0 }. Es decir, [p]E = a 0 = 0 , con a ∈ R. Entonces, p(x) = a·1+0·x+0·x2 = a,
0 0 0
con a ∈ R. Escrito de otra manera {p ∈ R2 [x] : [p]E = [p]B } = gen{1}.
Ejercicio 1.P (De Parcial). Sea V un K-espacio vectorial de dimensión n y sean B1 , B2 , B3 tres
bases de V. Demostrar las siguientes afirmaciones:
a) MBB12 es una matriz inversible y además vale que MBB21 = (MBB12 )−1 .
Veamos que las columnas de la matriz MBB12 (que son vectores de Kn ) son LI. Sean a1 , a2 , · · · , an ∈ K
tales que
a1 [v1 ]B2 + a2 [v2 ]B2 · · · an [vn ]B2 = 0K n .
Entonces, como tomar coordenadas es lineal (Proposición 1.11.1), tenemos que
Entonces,
a1 v1 + a2 v2 + · · · + an vn = 0w1 + · · · + 0wn = 0V .
Finalmente, como {v1 , · · · , vn } es un conjunto LI (forman una base), y tenemos una CL de dichos
elementos igualada al elemento neutro de V, se sigue que a1 = a2 = · · · = an = 0. Es decir las
46
1.13. Operaciones entre subespacios
columnas de MBB12 son LI. Por lo tanto rg(MBB12 ) = dim(col(MBB12 )) = n y como MBB12 ∈ Kn×n ,
tenemos que MBB12 es inversible.
Por otra parte, sabemos que para todo v ∈ V vale que [v]B2 = MBB12 [v]B1 . Entonces, multiplicando
por (MBB12 )−1 a ambos lados de la igualdad anterior, tenemos que
También sabemos que [v]B1 = MBB21 [v]B2 . Entonces, igualando ambas expresiones, nos queda que
1
0
Siempre que hacemos A . obtenemos la primera columna de la matriz A (si no se ve, hacer la
..
0
cuenta). Entonces, la igualdad anterior nos indica que la primera columna de MBB21 y de (MBB21 )−1
coinciden. Si hacemos lo mismo para v = w2 , tendremos que la segunda columna de dichas matrices
coinciden y así sucesivamente. En definitiva, todas la columnas de ambas matrices coinciden y por
lo tanto son iguales.
b) : Sabemos que para todo v ∈ V vale que [v]B2 = MBB12 [v]B1 , [v]B2 = MBB32 [v]B3 y
[v] = MBB13 [v]B1 . Entonces
B3
MBB12 [v]B1 = [v]B2 = MBB32 [v]B3 = MBB32 (MBB13 [v]B1 ) = MBB32 MBB13 [v]B1 para todo v ∈ V.
Es decir, MBB12 [v]B1 = MBB32 MBB13 [v]B1 para todo v ∈ V. Por lo tanto, con la misma justificación que
usamos en a), tenemos que MBB12 = MBB32 MBB13 y probamos lo que queríamos.
Se llama intersección de S y T a S ∩ T := {v ∈ V : v ∈ S y v ∈ T }.
Se llama suma de S y T a S + T := {v ∈ V : ∃ s ∈ S, t ∈ T : v = s + t} = {s + t : s ∈
S, t ∈ T }.
47
1. Espacios Vectoriales
Antes de probar este resultado, es importante destacar que en esta proposición, con “mayor” y
“menor” nos referimos respecto a la inclusión de conjuntos.
La inclusión de conjuntos permite“ordenar” conjuntos. Pero notar que a diferencia del orden
que conocemos de los números reales, este orden de conjuntos no es un orden total. Es decir, si
a, b ∈ R, sabemos que sólo tenemos tres opciones a = b ó a < b ó b < a. En el caso de conjuntos (y
la inclusión) no necesariamente
pasa lo mismo que en R con el orden usual. Por ejemplo, en R ,
2
1 0
consideremos S1 = gen{ } y S2 = gen{ }. Observar que, S1 6= S2 , S1 6⊆ S2 y S2 6⊆ S1 ,
0 1
es decir, en este caso, S1 y S2 no se comparan (no podemos decir nada acerca de quien es “mayor,
menor ó igual” respecto del orden que provee la inclusión de conjuntos). Sin embargo, hay casos
(como el de esta proposición) donde los conjuntos se comparan y uno es “mayor” o “menor” que el
otro.
Dem. Se deja como ejercicio probar que S1 ∩ S2 es un subespacio. Veamos ahora que S1 ∩ S2 es el
mayor subespacio contenido en S1 y S2 . Por un lado, claramente S1 ∩ S2 ⊆ S1 , pues si x ∈ S1 ∩ S2
entonces x ∈ S1 (y también x ∈ S2 ) y tenemos la inclusión S1 ∩ S2 ⊆ S1 . De la misma manera,
S1 ∩ S2 ⊆ S2 . Es decir, probamos que S1 ∩ S2 es un subespacio que está contenido en S1 y S2 . Falta
ver que es el mayor (respecto de la inclusión). Para eso, supongamos que tenemos otro subespacio
T tal que T ⊆ S1 y T ⊆ S2 (es decir contenido en S1 y S2 ) entonces T ⊆ S1 ∩ S2 , pues si x ∈ T
por hipótesis, tenemos que x ∈ S1 y x ∈ S2 . Entonces x ∈ S1 ∩ S2 y vale la inclusión que escribimos.
Por lo tanto, como T era cualquiera, concluimos que S1 ∩ S2 es el mayor subespacio (respecto de la
inclusión) contenido en S1 y S2 .
Se deja como ejercicio probar que S1 + S2 es un subespacio. Finalmente, veamos que S1 + S2 es
el menor subespacio que contiene a S1 y S2 . Primero veamos que S1 ⊆ S1 + S2 . Si x ∈ S1 entonces
como x = x + 0V y 0V ∈ S2 (porque S2 es un subespacio), por definición de la suma de subespacios,
x ∈ S1 + S2 y probamos la inclusión. De la misma manera, se prueba que S2 ⊆ S1 + S2 . Hasta acá
vimos que S1 + S2 es un subespacio que contiene a S1 y a S2 . Falta ver que es el menor (respecto
de la inclusión). Para eso, supongamos que T es un subespacio tal que S1 ⊆ T y S1 ⊆ T . Entonces
S1 + S2 ⊆ T , porque si x ∈ S1 + S2 , existen y ∈ S1 y z ∈ S2 tales que x = y + z, pero por hipótesis
y ∈ T y z ∈ T . Además, como T es un subespacio x + y ∈ T (la suma de elementos de T pertenece
a T ) entonces x = y + z ∈ T y tenemos que S1 + S2 ⊆ T . Como T era cualquiera, concluimos que
S1 + S2 es el menor subespacio (respecto de la inclusión) que contiene a S1 a S2 .
La siguiente propiedad es muy útil para calcular un sistema de generadores de S + T conociendo
algún sistema de generadores de S y T . La idea vale para espacios vectoriales de cualquier dimensión,
pero para simplificar la notación, lo vamos a ver para un espacio vectorial de dimensión finita.
S + T = gen{v1 , · · · , vs , w1 , · · · , wt }.
v = s + t = a1 v1 + · · · + as vs + b1 w1 + · · · + bt wt ∈ gen{v1 , · · · , vs , w1 , · · · , wt }.
48
1.13. Operaciones entre subespacios
a1 v1 + · · · + as vs + b1 w1 + · · · + bt wt = 0V .
Entonces,
a1 v1 + · · · + as vs = −b1 w1 − · · · − bt wt ∈ T .
Por lo tanto, a1 v1 + · · · + as vs ∈ S ∩ T = {0}. Entonces a1 v1 + · · · + as vs = b1 w1 + · · · + bt wt = 0V y
como {v1 , · · · , vs } es una base de S y {w1 , · · · , wt } una base de T se sigue que a1 = · · · = as = b1 =
· · · = bt = 0. Por lo tanto, efectivamente {v1 , · · · , vs , w1 , · · · , wt } es una base de S + T . Entonces,
y vale la igualdad.
Finalmente, supongamos que S ∩ T 6= {0} y dim(S ∩ T ) = r > 0. Sea BS∩T = {u1 , · · · , ur }
una base de S ∩ T . Completemos dichos vectores para obtener bases de S y T es decir, sean
vr+1 , · · · , vs ∈ S tales que {u1 , · · · , ur , vr+1 , · · · , vs } es una base de S y sean wr+1 , · · · , wt ∈ T tales
que {u1 , · · · , ur , wr+1 , · · · , wt } es una base de T . Entonces, {u1 , · · · , ur , vr+1 , · · · , vs , wr+1 , · · · , wt }
es una base de S + T . Es claro que, por la Proposición 1.13.2, dicho conjunto es un sistema de
generadores de S +T . Veamos que dicho conjunto es LI. Sean, c1 , · · · , cr , ar+1 , · · · , as , br+1 , · · · , bt ∈
K tales que
Entonces,
−br+1 wr+1 − · · · − bt wt = d1 u1 + · · · + dr ur .
Entonces,
d1 u1 + · · · + dr ur + br+1 wr+1 + · · · + bt wt = 0V .
Pero, como {u1 , · · · , ur , wr+1 , · · · , wt } es una base de T , tenemos que d1 = · · · = dr = br+1 =
· · · = bt = 0. Entonces, c1 u1 + · · · + cr ur + ar+1 vr+1 + · · · + as vs = −br+1 wr+1 − · · · − bt wt = 0V .
De igual manera, como {u1 , · · · , ur , vr+1 , · · · , vs } es una base de S, se sigue que c1 = · · · = cr =
49
1. Espacios Vectoriales
y vale la igualdad.
En el siguiente ejercicio (muy similar al Ejercicio 1.31) veremos por qué la unión de subespacios
en general no es un subespacio.
Ejercicio 1.Q. Sea V un K-espacio vectorial y sean S1 y S2 dos subespacios tales que ninguno
contiene al otro. Entonces S1 ∪ S2 NO es un subespacio.
Ejercicio 1.32. Para las siguientes elecciones de S1 y S2 del espacio vectorial V, hallar una base
del mayor subespacio contenido en ambos y otra del menor subespacio que los contiene.
a) S1 := {x = [x1 x2 x2 x4 ]T ∈ R4 : x2 + x3 + x4 = 0} y S2 := {x = [x1 x2 x2 x4 ]T ∈ R4 :
x1 + x2 = x3 − 2x4 = 0}.
−1 1 1 1
−2
−1 0 3 −4 2
b) S1 = col(A) y S2 = nul(A) con A = −1 0 3 3
−5 .
−1 0 3 −6 4
−1 0 3 −6 4
1 1 4 2
0 1 2 0
c) S1 = gen{
2 , 1 } y S2 = gen{ 2 ,
}.
2
1 1 0 0
50
1.13. Operaciones entre subespacios
x1
x2
Dem. a) : Calculemos S1 ∩ S2 . Si x =
x3 ∈ S1 ∩ S2 entonces, por un lado x ∈ S1 y por lo tanto
x4
x2 + x3 + x4 = 0 y, por el otro lado x ∈ S2 y entonces x1 + x2 = 0 y x3 − 2x4 = 0. Entonces, x
cumple el sistema
x2 + x3 + x4 = x1 + x2 = x3 − 2x4 = 0.
3x4
x1
x2 −3x4
x=
x3 = 2x4 con x4 ∈ R.
x4 x4
3 3
−3 −3
Entonces S1 ∩ S2 = gen{ 2 } y una base de S1 ∩ S2 puede ser BS1 ∩S2 = { 2 }.
1 1
1 0 0 0
−1
0 −1 −1 1 0
Por otra parte, es claro que S1 = gen{ 0 , 1 , 0 } y S2 = gen{ 0 , 2}. Por lo
0 0 1 0 1
tanto, dim(S1 ) = 3 y dim(S2 ) = 2 y por el Teorema de la dimensión para la suma de subespacios
tenemos que dim(S1 + S2 ) = dim(S1 ) + dim(S2 ) − dim(S1 ∩ S2 ) = 3 + 2 − 1 = 4. Entonces
S1 + S2 = R4 y una base de S1 + S2 es cualquier base de R4 (por ejemplo la canónica).
b) Resolviendo el sistema homogéneo asociado a A, se puede ver que S2 := nul(A) =
3 3
−2 −2
−1 2 −1 2
0 , 1}. Una base de S2 = nul(A) puede ser BS2 = { 0 , 1}. Por otra parte,
gen{
1 0 1 0
1 0 1 0
por el Teorema de la Dimensión, vale que dim(col(A)) A−dim(nul(A))
= # columnas de =
1 1 1
−1 −2
−1 0 3 −4 2
5 − 2 = 3. Además, es claro que S1 := col(A) = gen{ −1 , 0 , 3 , −5 , 3}. Entonces,
−1 0 3 −6 4
−1 0 3 −6 4
para obtener una base de S1 = col(A) basta tomar 3 generadores LI de col(A). Por ejemplo,
1 1
−2
0 −4 2
BS1 = {0 , −5 , 3}. Ahora sólo resta calcular S1 ∩ S2 y S1 + S2 .
0 −6 4
0 −6 4
3
−2
−1 2
0 + b 1 con a, b ∈ R y,
Si x ∈ S1 ∩ S2 entonces, por un lado x ∈ S2 , por lo tanto x = a
1 0
1 0
51
1. Espacios Vectoriales
1 1
−2
0 −4 2
0 + d −5 + e 3 con c, d, e ∈ R. Por lo tanto
por el otro lado x ∈ S1 , entonces x = c
0 −6 4
0 −6 4
3 1 1 0
−2 −2
−1 2 0 −4 2 0
0 + b 1 − c 0 − d −5 − e 3 = 0 .
a
1 0 0 −6 4 0
1 0 0 −6 4 0
−2 3 −1 2 −1 a 0
−1 2 0 4 −2 b 0
0 1 0 5 −3 c = 0 .
1 0 0 6 −4 d 0
1 0 0 6 −4 e 0
3 3 1
−2 −2 −3
−1 2 −1 2 −4 2
x = a 0 + b 1 = (4e − 6d) 0 + (3e − 5d) 1 = d −5 + e 3 con d, e ∈ R.
1 0 1 0 −6 4
1 0 1 0 −6 4
1 1
−3 −3
−4 2 −4 2
Por lo tanto S1 ∩S2 = gen = {−5 , 3} y una base de S1 ∩S2 puede ser BS1 ∩S2 = {−5 , 3}.
−6 4 −6 4
−6 4 −6 4
3 1 1
−2 −2
−1 2 0 −4 2
Finalmente, es claro que S1 +S2 = gen{ 0 , 1 , 0 , −5 , 3}. Además, dim(S1 +S2 ) =
1 0 0 −6 4
1 0 0 −6 4
dim(S1 ) + dim(S2 ) − dim(S1 ∩ S2 ) = 2 + 3 − 2 = 3. Por lo tanto, debemos extraer 3 generadores LI
de S1 + S2 . Notar que
3 1 1 3
−2 −2 −2
−4 −1 2 0 2 −1 2
−5 = −6 0 − 5 1 + 0 y 3 = 4 0 + 3 1 .
1 0 0 4 1 0
−6
−6 1 0 0 4 1 0
3 1
−2
−1 2 0
Entonces, una base de S1 + S2 puede ser BS1 +S2 = { 0 , 1 , 0}.
1 0 0
1 0 0
52
1.13. Operaciones entre subespacios
1 1 0 0
Entonces sólo tenemos que extraer una base, viendo la independencia lineal de los generadores
de S1 + S2 . Lo podemos hacer por definición o colocando
los vectores en la fila de una matriz
2
0
y triangulando. De cualquier manera veremos que 2 es CL de los otros vectores. Entonces
0
1 1 4
0 1 2
BS1 +S2 = { 2 , 1 , 2 }. Finalmente, calculemos S1 ∩ S2 . Sea x ∈ S1 ∩ S2 entonces,
1 1 0
1 1 4 2
0 1 2 0
x ∈ S1 y x ∈ S2 . Entonces x = a
2 + b 1 con a, b ∈ R y x = c 2 + d 2 con
1 1 0 0
c, d ∈ R. Entonces
1 1 4 2
0 1 2 0
2 + b 1 = c 2 + d 2 .
a
1 1 0 0
Operando, nos queda el siguiente sistema de ecuaciones,
a + b − 4c − 2d = 0, b − 2c = 0, 2a + b − 2c − 2d = 0, a + b = 0.
Despejando
nos queda,
a = −2c, b = 2c, d = −2c. Volviendo a la expresión de x, nos queda
1 1 0
0 1 2
x=a 2 +b 1 =c
−2 , con c ∈ R. Nos hubiera dado lo mismo si reemplazamos en
1 1 0
4 2 0
2 0 2
la otra expresión de x. Es decir, x = c
2 + d 2 = c −2 con c ∈ R. En conclusión
0 0 0
0 0
2
S1 ∩ S2 = gen{ } y una base podría ser BS ∩S = { 2 }.
−2 1 2 −2
0 0
53
1. Espacios Vectoriales
Como la escritura de x es única (estamos suponiendo que S y T están en suma directa), entonces
x = 0V y se sigue que S ∩ T = {0}.
Recíprocamente, supongamos que S ∩ T = {0}. Sea v ∈ S + T y supongamos que
v = s1 + t1 = s2 + t2 con s1 , s2 ∈ S y t1 , t2 ∈ T . Entonces (s1 − s2 ) = (t2 − t1 ). Por lo
tanto, (s1 − s2 ) ∈ S ∩ T = {0}. Entonces s1 = s2 y t1 = t2 . Es decir, cada v ∈ S + T se escribe de
manera única como v = s + t con s ∈ S y t ∈ T . Por lo tanto, S y T están en suma directa.
S1 ⊕ T = S2 ⊕ T = R3 [x].
¿Es único?
Dem. Primero observar que S3 ⊆ S4 porque sino el ejercicio no tendría sentido. De hecho, si p ∈ S3
entonces p(x) = a(1 + x) + b(1 − x2 ) con a, b ∈ R. Entonces p(−1) = a · 0 + b · 0 = 0 y p ∈ S4 .
Entonces vale S3 ⊆ S4 .
Por otra parte, busquemos un sistema de generadores de S4 . Si p ∈ S4 entonces p(x) =
ax3 + bx2 + cx + d con a, b, c, d ∈ R y además p(−1) = −a + b − c + d = 0. Entonces a = b − c + d
y volviendo a la expresión de p, nos queda p(x) = b(x3 + x2 ) + c(x3 − x) + d(x3 + 1), entonces
S4 = gen{x3 + x2 , x3 − x, x3 + 1} y dim(S4 ) = 3. Entonces, el subespacio T que buscamos debe
cumplir 3 cosas:
1. T ⊆ S4 .
2. dim(T ) = dim(S3 ⊕ dim T ) − dim(S3 ) − dim(S3 ∩ T ) = dim(S4 ) − 2 − 0 = 3 − 2 = 1.
3. El generador de T debe ser LI con los dos generadores de S3 .
Proponemos T = gen{x3 + 1}. Claramente, T ⊆ S4 , dim(T ) = 1 y como el conjunto
{1 + x, 1 − x2 , x3 + 1} es LI entonces S3 ∩ T = {0}. Por lo tanto, el T propuesto cumple, ya
que T y S3 están en suma directa, T ⊕ S3 ⊆ S4 y dim(T ⊕ S3 ) = 3 = dim(S4 ), lo que nos da que
S3 ⊕ T = S4 .
En el ejercicio anterior, observar que, por ejemplo, el subespacio T 0 = gen{x3 } está en suma
directa con S3 y tiene dimensión 1, pero como T 0 6⊆ S4 no sirve, es decir S3 ⊕ T 6= S4 .
54
CAPÍTULO 2
Transformaciones Lineales
En este capítulo introduciremos el concepto de transformaciones lineales que son las funciones
con las que trabajaremos en la materia. Veremos varias propieadades y resultados asociados a estas
funciones.
Definición. Sean V y W dos K-espacios vectoriales. Una función T : V → W se llama transformación
lineal (TL) de V en W si cumple:
i) T (v + v 0 ) = T (v) + T (v 0 ), para todo v, v 0 ∈ V,
ii) T (αv) = αT (v), para todo α ∈ K, v ∈ V.
El conjunto de todas las transformaciones lineales de V a W se denota por L(V, W). Si V = W
escribimos L(V) := L(V, V). A las transformaciones lineales de V a W = K (es decir aquellas cuya
imagen cae en el cuerpo) se las llama funcionales lineales.
Ejercicio 2.1 c). Verificar que la siguiente aplicación es una transformación lineal: T3 : R3 → R3
definida por
T3 ([x1 x2 x3 ]T ) := [−3x2 + 2x3 3x1 − x3 − 2x1 + x2 ]T .
−3x2 + 2x3 0 −3 2
x1 x1
Dem. Observar que T3 ( x2 ) := 3x1 − x3 = 3 0 −1 x2 . Si llamamos
3x −2x 1 + x 2 −2 1 0 x3
0 −3 2
x1
A := 3 0 −1 entonces, si v = x2 ∈ R3 , tenemos que T3 (v) = Av. Con esto en
−2 1 0 x3
mente, verifiquemos i) y ii) de la definición de transformaciones lineales.
Sean α ∈ R y v, v 0 ∈ R3 , entonces
i) T (v + v 0 ) = A(v + v 0 ) = Av + Av 0 = T (v) + T (v 0 ).
ii) T (αv) = A(αv) = α(Av) = αT (v).
Por lo tanto, como T cumple con i) y ii) de la definición de transformaciones lineales, tenemos
que T es una transformación lineal, es decir T ∈ L(R3 ).
Operando tal como hicimos arriba podemos demostrar que si T ∈ L(Kn , Km ) entonces (siempre)
existe A ∈ Km×n tal que T (x) = Ax, para todo x ∈ Kn . Ver el Ejercicio 2.2.
55
2. Transformaciones Lineales
dn y dn−1 y dy
L[y] := + an−1 + · · · + a1 + a0 y
dxn dxn−1 dx
es una trasformación lineal de C ∞ (R) a C ∞ (R).
Recordemos las propiedades de la traza de una matriz (se sugiere verificarlas haciendo la cuenta):
Entonces como L cumple con i) y ii) de la definición de transformaciones lineales, tenemos que
L ∈ L(C ∞ (R)).
Dem. Por un lado, observar que como 0V = 0V + 0V y T es TL, tenemos que T (0V ) =
T (0V + 0V ) = T (0V ) + T (0V ). Entonces, si −T (0V ) es el inverso aditivo de T (0V ) (existe porque
W es un K-espacio vectorial), tenemos que 0W = T (0V ) + −T (0V ) = (T (0V ) + T (0V )) + −T (0V ) =
T (0V ) + (T (0V ) + −T (0V )) = T (0V ) + 0W = T (0V ).
Ejercicio 2.B. Explicar porque las siguientes funciones NO son transformaciones lineales:
a) T : K2×2 → K definida por T (X) := det(X).
56
2.1. Imagen y núcleo de una transformación lineal
1
Dem. Para demostrar que una función NO es una transformación lineal, basta con encontrar algún
contraejmplo donde i) o ii) de la definición de transformaciones lineales NO se cumpla.
1 0 0 0 1 0
a): Sean X = e Y = . Entonces T (X) + T (Y ) = det( )+
0 0 0 1 0 0
0 0 1 0 1 0
det( ) = 0 + 0 = 0 6= 1 = det( ) = T( ) = T (X + Y ). Entonces T NO
0 1 0 1 0 1
es una transformación lineal.
1 1
Ejercicio 2.C (De Parcial). Sean V y W dos K-espacios vectoriales y T ∈ L(V, W). Demostrar las
siguientes afirmaciones:
a) Nu(T ) es un subespacio de V.
b) Im(T ) es un subespacio de W.
c) Si S es un subespacio de V entonces T (S) es un subespacio de W.
57
2. Transformaciones Lineales
i) 0V ∈ Nu(T ) pues como T es una TL, tenemos que T (0V ) = 0W . Ver Ejercicio 2.A.
i) 0W ∈ Im(T ) pues como T es una TL, tenemos que T (0V ) = 0W (existe x ∈ V tal que
T (x) = 0W , en este caso x = 0V ). Ver Ejercicio 2.A.
ii) si u, v ∈ Im(T ) entonces existen x, y ∈ V tales que T (x) = u y T (y) = v. Entonces, como T
es TL, T (x + y) = T (x) + T (y) = u + v. Encontramos un vector, que en este caso es x + y,
tal que T (x + y) = u + v. Por lo tanto u + v ∈ Im(T ).
iii) si α ∈ K y v ∈ Im(T ) entonces existe x ∈ V tal que T (x) = v. Entonces, como T es TL,
T (αx) = αT (x) = αv. Encontramos un vector, que en este caso es αx, tal que T (αx) = αv.
Por lo tanto αv ∈ Im(T ).
i) Veamos que 0V ∈ T −1 (T ). Como T es una TL, T (0V ) = 0W (ver Ejercicio 2.A) y como T
es un subespacio 0W ∈ T . Conclusión, T (0V ) = 0W ∈ T entonces 0V ∈ T −1 (T ).
e): Tenemos que probar una igualdad de conjuntos, así que vamos a probar la doble inclusión.
Por un lado, como v1 , v2 , · · · , vr ∈ S, tenemos que T (vi ) ∈ T (S) para todo i = 1, 2, · · · , r
(recordar la definición de T (S)) y además observar que en el ítem c) probamos que T (S) es un
subspacio (porque S es un subespacio). Entonces
Veamos la otra inclusión. Supongamos que w ∈ T (S), entonces existe s ∈ S tal que w = T (s).
Entonces, como s ∈ S = gen{v1 , v2 , · · · , vr }, existen a1 , a2 , · · · , ar ∈ K tales que
s = a1 v1 + a2 v2 + · · · + ar vr .
58
2.1. Imagen y núcleo de una transformación lineal
Dem. Para demostrar lo que nos pide el ejercicio, basta con aplicar la definición de los subespacios
involucrados.
Por un lado, x ∈ Nu(TA ) si y sólo si
TA (x) = Ax = 0Kn ,
si y sólo si x ∈ nul(A). Finalmente, y ∈ Im(TA ) si y sólo si existe x ∈ Km tal que
y = TA (x) = Ax,
si y sólo si y ∈ col(A).
A continuación probaremos el teorema de la dimensión para transformaciones lineales:
Teorema 2.1.1. Sean V, W dos K-espacios vectoriales, V de dimensión finita y T ∈ L(V, W).
Entonces
dim(V) = dim(Nu(T )) + dim(Im(T )).
Dem. Sea n = dim(V) y r = dim(Nu(T )). Supongamos que 0 < r < n y sea {v1 , · · · , vr } una base
de Nu(T ). Sean vr+1 , · · · , vn ∈ V de manera tal que {v1 , · · · , vr , vr+1 , · · · , vn } es una base de V.
Afirmamos que {T (vr+1 ), · · · , T (vn )} es una base de Im(T ). De hecho, claramente
T (vr+1 ), · · · , T (vn ) ∈ Im(T ). Por lo que gen{T (vr+1 ), · · · , T (vn )} ⊆ Im(T ). Recíprocamente,
sea w ∈ Im(T ), entonces existe v ∈ V tal que w = T (v). Como {v1 , · · · , vr , vr+1 , · · · , vn } es una ba-
se de V, existen a1 , · · · , ar , ar+1 , · · · , an ∈ K tales que v = a1 v1 + · · · + ar vr + ar+1 vr+1 + · · · + an vn .
Entonces, usando que T es TL, tenemos que
w = T (v) = T (a1 v1 + · · · + ar vr + ar+1 vr+1 + · · · + an vn )
= a1 T (v1 ) + · · · + ar T (vr ) + ar+1 T (vr+1 ) + · · · + an T (vn )
= a1 0W + · · · + ar 0W + ar+1 T (vr+1 ) + · · · + an T (vn )
= ar+1 T (vr+1 ) + · · · + an T (vn ) ∈ gen{T (vr+1 ), · · · , T (vn )},
donde usamos que {v1 , · · · , vr } una base de Nu(T ). Entonces, Im(T ) = gen{T (vr+1 ), · · · , T (vn )}.
Veamos que {T (vr+1 ), · · · , T (vn )} es un conjunto LI. Sean αr+1 , · · · , αn ∈ K tales que
αr+1 T (vr+1 ) + · · · + αn T (vn ) = 0W .
Entonces, como T es TL tenemos que
T (αr+1 vr+1 + · · · + αn vn ) = 0W .
Entonces, αr+1 vr+1 + · · · + αn vn ∈ Nu(T ). Como {v1 , · · · , vr } una base de Nu(T ), existen
α1 , · · · , αr ∈ K tales que
αr+1 vr+1 + · · · + αn vn = α1 v1 + · · · + αr vr .
59
2. Transformaciones Lineales
Entonces
αr+1 vr+1 + · · · + αn vn − α1 v1 − · · · − αr vr = 0V .
dim(nul(A)) + rg(A) = m.
dim(nul(A)) + rg(A) = m.
Dem. Para demostrar este resultado, vamos a considerar la transformación lineal asociada a la
matriz A, es decir, la transformación lineal TA : Km → Kn definida por
TA (x) := Ax,
para cada x ∈ Km .
En el Ejercicio 2.D probamos que Nu(TA ) = nul(A) e Im(TA ) = col(A). Entonces,
dim(Nu(TA )) = dim(nul(A)) y dim(Im(TA )) = dim(col(A)) = rg(A). Entonces, si A ∈ Rn×m ,
TA ∈ L(Rm , Rn ) y como dim(Rm ) = m, por el Teorema 2.1.1, tenemos que m = dim(nul(A))+rg(A).
Análogamente, si A ∈ Cn×m y estamos trabajando en el cuerpo K = C, como dim(Cm C ) = m,
por el Teorema 2.1.1, tenemos que m = dim(nul(A)) + rg(A).
Finalmente, si A ∈ Cn×m y estamos trabajando en el cuerpo K = R, como dim(Cm R ) = 2m, por
el Teorema 2.1.1, tenemos que 2m = dim(nul(A)) + rg(A).
T (p) := p + (1 − x)p0 .
60
2.1. Imagen y núcleo de una transformación lineal
Dem. a) : Para ver que T está bien definida tenemos que probar que a cada elemento del dominio
de T (es decir a cada p ∈ R3 [x]) se le asigna un único elemento del conjunto de llegada (también
R3 [x]).
Observar que si p pertenece a R3 [x] (el dominio de T ) entonces p es derivable y la operación
p + (1 − x)p0 se puede hacer sin problemas. Entonces, a todo elemento del dominio se le puede
aplicar T. Por otra parte, si p pertenece a R3 [x], en primer lugar su derivada es única (esto ahora
suena obvio, pero en algún momento uno tuvo que probar, que la derivada de una función es única)
y además la derivada de un elemento de R3 [x] es un elemento de R2 [x] (es decir es un polinomio de
grado igual o menor a 2 o el polinomio nulo). Finalmente, es claro que, el producto de un polinomio
de R2 [x] y el polinomio 1 − x nos devuelve un polinomio de R3 [x] y la suma de elementos de R3 [x]
también es un elemento de R3 [x]. Por lo tanto, cuando hacemos la operación p + (1 − x)p0 obtenemos
un (único) elemento del espacio de llegada que es R3 [x]. Conclusión, a cada elemento del dominio
de T le corresponde un único elemento del espacio de llegada y entonces T está bien definida.
Ahora veamos que T es lineal, para eso, llamemos r(x) := 1 − x. Entonces, T (p) = p + rp0 .
Sean p1 , p2 ∈ R3 [x]. Usando que la derivada es lineal,
b) : Vamos a hallar una base de Nu(T ) = {p ∈ R3 [x] : T (p) = 0}. Si p ∈ Nu(T ) entonces
p ∈ R3 [x], es decir p(x) = a + bx + cx2 + dx3 con a, b, c, d ∈ R y, para todo x ∈ R,
Im(T ) = gen{1, 1, −x2 + 2x, 3x2 − 2x3 }− = gen{1, −x2 + 2x, 3x2 − 2x3 }.
Observar que los vectores 1, −x2 + 2x, 3x2 − 2x3 son LI, eso se puede ver (por ejemplo) observando
que los polinomios del conjunto son de distinto grado. Entonces, una base de Im(T ) puede ser
d) : Notar que
1 1
q(x) = 1 + x + x2 − x3 = 1 · 1 + · (−x2 + 2x) + · (3x2 − 2x3 ).
2 2
61
2. Transformaciones Lineales
Por lo tanto, q ∈ Im(T ) y entonces, la ecuación T (p) = q tiene solución. En este caso (al igual que
con ecuaciones matriciales) tenemos que T (p) = q si y sólo si
p = ph + pp ,
donde ph ∈ Nu(T )(solución del sistema homogéneo) y pp es una solución particular de T (p) = q.
Observar que
1 2 1 3 1 1
T (1 · 1 + · x + · x ) = 1T (1) + T (x2 ) + T (x3 )
2 2 2 2
1 1
= 1 · 1 + · (−x2 + 2x) + · (3x2 − 2x3 ) = q(x).
2 2
Por lo tanto, si pp (t) := 1 · 1 + 12 · x2 + 12 · x3 , tenemos que pp es una solución particular del
sistema T (p) = q. Entonces, usando que Nu(T ) = gen{1 − x}, tenemos que todas las soluciones de
la ecuación T (p) = q son
x2 x3
p(x) = 1 + + + a(1 − x) con a ∈ R.
2 2
Para resolver el siguiente ejercicio vamos a usar algunas de las propiedades que probamos en el
Ejercicio 2.C.
Ejercicio 2.7. Sean V y W dos R-espacios vectoriales, T : V → W una TL y V = {v1 , · · · , vn } ∈ V
un conjunto de n puntos de V. Sea
Xn n
X
C(V) := { pi vi : p1 , · · · , pn ∈ R+ y pi = 1}
i=1 i=1
Dem. Tenemos que probar una igualdad de conjuntos así que probaremos la doble inclusión.
Sea w ∈ T (C(V)), Pn entonces existe v ∈ C(V) tal que w = T (v). Como v ∈ C(V), existen
p1 , · · · , pn ∈ R+ y i=1 pi = 1 tales que v = p1 v1 + · · · + pn vn . Entonces, como T es TL,
w = p1 T (v1 ) + · · · + pn T (vn ).
A continuación, tenemos que probar que w ∈ T (C(V)), es decir debemos proponer v ∈ C(V) tal
que w = T (v). Proponemos
v := p1 v1 + · · · + pn vn ,
claramente v ∈ C(V) y por otra parte, como T es TL, tenemos que
y entonces w ∈ T (C(V)). Por lo tanto C(T (V)) ⊆ T (C(V)). Como probamos la doble inclusión,
concluimos que T (C(V)) = C(T (V)) que era lo que queríamos probar.
62
2.2. Buena definición de transformaciones lineales
Ejercicio 2.E (De Parcial). Sean V y W dos R-espacios vectoriales, B = {w1 , w2 , w3 } una base de
W. Dadas las funcionales lineales fi : V → R con i = 1, 2, 3, se define T : V → W como
Demostrar que:
a) T es una TL.
Dem. a) : Basta con probar que la función T cumple con i) y ii) de la definición de TL.
ii) Sea v ∈ V y α ∈ R. Usando que fi son funcionales lineales para i = 1, 2, 3, tenemos que
T (αv) = f1 (αv)w1 + f2 (αv)w2 + f3 (αv) = αf1 (v)w1 + αf2 (v)w2 + αf3 (v)w3 = αT (v).
b) : Tenemos que probar una igualdad de conjuntos. Vamos a probar la doble inclusión.
Si v ∈ Nu(f1 ) ∩ Nu(f2 ) ∩ Nu(f3 ) entonces v ∈ Nu(f1 ), v ∈ Nu(f2 ) y v ∈ Nu(f3 ). Es decir
f1 (v) = f2 (v) = f3 (v) = 0. Entonces
Observar que f1 (v), f2 (v), f3 (v) ∈ R (el cuerpo de W), entonces la ecuación anterior es una
combinación lineal de los vectores w1 , w2 , w3 igualada al elemento neutro de W. Como {w1 , w2 , w3 }
es una base de W, los escalares f1 (v), f2 (v), f3 (v) son todos nulos. Es decir f1 (v) = f2 (v) = f3 (v) = 0,
entonces v ∈ Nu(f1 ) ∩ Nu(f2 ) ∩ Nu(f3 ) y tenemos la otra inclusión, Nu(T ) ⊆ Nu(f1 ) ∩ Nu(f2 ) ∩
Nu(f3 ). Como probamos la doble inclusión, concluimos que Nu(T ) = Nu(f1 ) ∩ Nu(f2 ) ∩ Nu(f3 ).
63
2. Transformaciones Lineales
Dem. Buena definición. Una transformación lineal está bien definida si: a cada elemento v del
dominio de T (que en este caso es V) le corresponde un único elemento de W. A dicho elemento se
lo denota T (v).
Sea v ∈ V un elemento del dominio de T. Entonces, como B es una base de V, existen únicos
a1 , a2 , · · · , an ∈ K tales que v = a1 v1 + a2 v2 + · · · + an vn . Definimos
T (v) := a1 w1 + · · · + an wn ∈ W.
Por lo tanto T está bien definida, ya que a cada elemento del dominio de T le corresponde un único
elemento de W.
Veamos que T es una transformación lineal. Sean v, v 0 ∈ V, como B es una base de V, existen
únicos a1 , a2 , · · · , an ∈ K tales que v = a1 v1 +a2 v2 +· · ·+an vn y existen únicos b1 , b2 , · · · , bn ∈ K
tales que v 0 = b1 v1 + b2 v2 + · · · + bn vn . Entonces,
v + v 0 = a1 v1 + a2 v2 + · · · + an vn + b1 v1 + b2 v2 + · · · + bn vn = (a1 + b1 )v1 + · · · + (an + bn )vn .
Por lo tanto, por definición
T (v + v 0 ) = (a1 + b1 )w1 + · · · + (an + bn )wn = a1 w1 + · · · + an wn + b1 w1 + · · · + bn wn = T (v) + T (v 0 ).
De manera similar se prueba que si α ∈ K y v ∈ V entonces T (αv) = αT (v).
Unicidad. Supongamos que existe otra transformación lineal, digamos S : V → W, tal que
S(vi ) = wi , para cada i ∈ {1, 2, · · · , n}.
Sea v ∈ V (el dominio de S y de T ), como B es una base de V, existen únicos a1 , a2 , · · · , an ∈ K
tales que v = a1 v1 + a2 v2 + · · · + an vn . Entonces
S(v) = S(a1 v1 + · · · + an vn ) = a1 S(v1 ) + · · · + an S(vn ) = a1 w1 + · · · + an wn = T (v).
Como la igualdad anterior vale para todo v ∈ V, concluimos que S = T como queríamos ver.
El siguiente ejercicio que se relaciona con el Ejercicio 2.9, permite diferenciar entre los conceptos
de existencia, unicidad y buena definición de una transformación lineal. Estos tres conceptos suelen
generar confusión por lo que se recomienda meditar un poco sobre qué diferencia hay entre ellos.
Ejercicio 2.F. Consideremos:
1. T1 : R2 [x] → R3 , definida por
1 0 0
T2 (1) = 2 , T2 (x) = 1 , T2 (x + 1) = 0 .
3 0 0
T3 (1) = 2 , T3 (x) = 1 , T3 (x + 1) = 3 .
3 0 3
64
2.2. Buena definición de transformaciones lineales
a) Indicar si las transformaciones lineales de los items 1., 2. y 3. están bien definidas.
b) Indicar si existe una transformación lineal que satisfaga la condiciones de los items 1., 2. ó 3.
y de existir dicha transformación lineal, estudiar si es única.
Dem.
1. Como {1, x, x2 } es una base de R2 [x], por la Proposición 2.2.1, la transformación lineal T1
está bien definida. Por la misma proposición, T1 es la única transformación lineal que satisface
las condiciones del item 1.
2. Como el conjunto {1, x, 1 + x} NO es una base de R2 [x], la transformación lineal T2 NO está
bien definida. Observar que el vector x2 pertenece al dominio de T2 , sin embargo, por como
se definió T2 no hay ningún elemento de R3 asignado a x2 , por lo tanto T2 NO está bien
definida.
Observar por otra parte que,
1 0 1 0
T2 (1) + T2 (x) = 2 + 1 = 3 =
6 0 = T2 (1 + x).
3 0 3 0
Por lo tanto, NO puede existir ninguna transformación lineal que cumpla con las condiciones
del item 2.
3. Como el conjunto {1, x, 1 + x} NO es una base de R2 [x], la transformación lineal T3 NO está
bien definida. Hay elementos del dominio de T3 a los cuáles no se le asignó ningún elemento
de R3 .
En este caso, como
1 0 1
existen (infinitas) transformaciones lineales que cumplen las condiciones del item 3. Por
ejemplo, consideremos Tv : R3 [x] → R3 , definida por
1 0
2 4
−6
T (x2 + x) = −3 , T (x2 − x) = 9 , T (1) = −6 .
4 −12 8
65
2. Transformaciones Lineales
Dem. a): Para hallar T (2x2 + 3x + 5), primero escribimos al vector 2x2 + 3x + 5 como CL de los
elementos de la base B. Entonces, si
5 1 5 1
T (2x2 + 3x + 5) = T ( (x2 + x) − (x2 − x) + 5) = T (x2 + x) − T (x2 − x) + 5T (1) =
2 2 2 2
2 4 28
−6
5 1
= −3 − 9 + 5 −6 = −42 .
2 2
4 −12 8 56
0
b): Recordemos que Nu(T ) = {p ∈ R2 [x] : T (p) = 0 }. Entonces, si p ∈ Nu(T ), por un lado
0
p ∈ R2 [x] y, como B es una base de R2 [x], p(x) = a(x2 + x) + b(x2 − x) + c, con a, b, c ∈ R y, por el
otro lado,
0
0 = T (p) = T (a(x2 + x) + b(x2 − x) + c) = aT (x2 + x) + bT (x2 − x) + cT (1) =
0
2 4 2 4
−6 −6 a
= a −3 + b 9 + c −6 = −3 9 −6 b .
4 −12 8 4 −12 8 c
Entonces, basta con resolver el sistema homogéneo de arriba. Operando, nos queda que a = 3b − 2c.
Entonces, volviendo a la expresión de p, nos queda
p(x) = a(x2 + x) + b(x2 − x) + c = (3b − 2c)(x2 + x) + b(x2 − x) + c = b(4x2 + 2x) + c(−2x2 − 2x + 1),
con b, c ∈ R. Es decir Nu(T ) = gen{4x2 + 2x, −2x2 − 2x + 1} y una base de Nu(T ) puede ser
BNu(T ) = {4x2 + 2x, −2x2 − 2x + 1}.
2 4
−6
Im(T ) = gen{T (x2 + x), T (x2 − x), T (1)} = gen{ −3 , 9 , −6 }.
4 −12 8
Basta con extraer una base de ese conjunto. Por el Teorema de la dimensión, 2.1.1, sabemos que
Entonces, podemos
obtener una base de Im(T ) con cualquier generador de Im(T ), por ejemplo
−6
BIm(T ) = { 9 }.
−12
66
2.2. Buena definición de transformaciones lineales
1 1
c): Recordar que existe p ∈ R2 [x] tal que T (p) = 1 , si y sólo si 1 ∈ Im(T ) y eso vale
1 1
por definición
de Im(T ) = {v ∈ R
3
: ∃p ∈ R2 [x] : v = T (p)}.
1 1
−6
Como 1 6∈ Im(T ) = gen{ 9 } concluimos que no existe p tal que T (p) = 1 .
1 −12 1
En el siguiente ejercicio que se relaciona con los Ejercicio 2.11 y 2.12, aplicaremos varios de
los conceptos que vimos hasta acá.
Ejercicio 2.H (De Parcial). Sea T : R2 [x] → R2 la TL definida por
p(0) − p(1)
T (p) = .
p(0) + p(−1)
1
b) Sean S := {p ∈ R2 [x] : p(1) = p0 (1) = 0} y U := gen{ }. Hallar T (S) y T −1 (U).
1
0
Dem. a): Recordemos que Nu(T ) = {p ∈ R2 [x] : T (p) = }. Entonces p ∈ Nu(T ) si
0
0
p(x) = ax2 + bx + c, con a, b, c ∈ R y T (p) = . Observar que p(0) = c, p(1) = a + b + c y
0
p(−1) = a − b + c. Entonces
0
−a − b
= T (p) = .
0 a − b + 2c
0
−1 −1
Im(T ) = gen{T (1), T (x), T (x2 )} = gen{ , , } = R2 .
2 −1 1
Otra manera de resolver este item es usando el Teorema de la dimensión 2.1.1: como dim(Im(T )) =
dim(R2 [x]) − dim(Nu(T )) = 3 − 1 = 2 e Im(T ) ⊆ R2 , tenemos que Im(T ) = R2 .
b): Busquemos un sistema de generadores de S. Si p ∈ S entonces p(x) = ax2 + bx + c, con
a, b, c ∈ R y como p(1) = a + b + c y p0 (1) = 2a + b, tenemos que a + b + c = 2a + b = 0. Entonces
b = −2a y c = −a − b = −a + 2a = a. Entonces p(x) = ax2 − 2ax + a = a(x2 − 2x + 1), con a ∈ R.
Entonces S = gen{x2 − 2x + 1} y, por el Ejercicio 2.C,
1
T (S) = gen{T (x − 2x + 1)} = gen{
2
}.
5
67
2. Transformaciones Lineales
1
−a − b
Entonces, =λ con λ ∈ R. Entonces −a − b = λ y a − b + 2c = λ. Entonces
a − b + 2c 1
a = −b − λ y 2c = λ − a + b = λ + b + λ + b = 2b + 2λ, entonces c = b + λ. Por lo tanto,
Observar que en el ejercicio anterior Nu(T ) ⊆ T −1 (U), eso no es casualidad. En general, vale la
siguiente propiedad:
Dem. 1.: Vamos a probar las dos implicaciones. En primer lugar, supongamos que T es
monomorfismo y veamos que eso implica que Nu(T ) = {0V }.
Si T es monomorfismo, T es inyectiva y entonces, T (v1 ) = T (v2 ) implica que v1 = v2 .
Supongamos que v ∈ Nu(T ), entonces T (v) = 0W , por otra parte, como T es TL, siempre
vale que T (0V ) = 0W = T (v), entonces, por hipótesis, v = 0V y Nu(T ) = {0V }.
Recíprocamente, supongamos que Nu(T ) = {0V } y veamos que eso implica que T es
monomorfismo. Supongamos que T (v1 ) = T (v2 ) para ciertos v1 , v2 ∈ V. Entonces, como T es
TL, tenemos que T (v1 − v2 ) = T (v1 ) − T (v2 ) = 0W , entonces v1 − v2 ∈ Nu(T ) = {0V } por hipótesis.
Por lo tanto v1 = v2 y T es monomorfismo.
68
2.3. Transformaciones lineales inversibles
T −1 (w) := v.
La función T −1 está bien definida porque: T −1 está definida en todo elemento del dominio W
(justamente porque Im(T ) = W) y además a cada elemento del dominio le corresponde sólo un
elemento de V (justamente porque Nu(T ) = {0V }). Entonces, por como definimos T −1 , observar
que
T ◦ T −1 (w) = T (T −1 (w)) = T (v) = w = IW (w),
como esa igualdad vale para todo w ∈ W tenemos que T ◦ T −1 = IW . Además,
Ejercicio 2.I. Sea λ ∈ C \ {0}. Comprobar que la aplicación T : Cn [x] → Cn [x] definida por
T (p) = p0 − λp
es un isomorfismo.
Dem. Tomemos a Cn [x] como C-espacio vectorial (se deja como tarea pensar cómo se resuelve el
ejercicio si tomamos como cuerpo R) y probemos que T es monomorfismo, es decir veamos que
Nu(T ) = {0}. Sea p ∈ Nu(T ), entonces, por un lado p ∈ Cn [x] es decir
0 = T (p) = p0 − λp.
0 = xn (−λan ) + xn−1 (an n − λan−1 ) + · · · + x(a2 2 − λa1 ) + 1(a1 − λa0 ), para todo x ∈ C.
Entonces, usando por ejemplo que {xn , xn−1 , · · · , x, 1} es una base de Cn [x], (y arriba nos
quedó una CL de los elementos de la base igualada al elemento neutro de Cn [x]), tenemos que
69
2. Transformaciones Lineales
y como siempre vale que Im(T ) ⊆ Cn [x], tenemos que Im(T ) = Cn [x] y T es epimorfismo. Como T
es monomorfismo y epimorfismo, concluimos que T es isomorfismo.
Λ ◦ Φ = IV y Φ ◦ Λ = IKn .
Dem. a) : Basta con probar que la aplicación Λ cumple con i) y ii) de la definición de TL.
Sean x = [x1 · · · xn ]T , y = [y1 · · · yn ]T ∈ Kn . Entonces Pn
Λ(x + y) = Λ([x1 · · · xn ]T + [y1 · · · yn ]T ) = Λ([x1 + y1 · · · xn + yn ]T ) = j=1 (xj + yj )vj =
Pn Pn Pn
j=1 (xj vj + yj vj ) = j=1 xj vj + j=1 yj vj = Λ([x1 · · · xn ] ) + Λ([y1 · · · yn ] ) = Λ(x) + Λ(y).
T T
Recordemos que vimos que si tenemos un sistema de generadores (en particular una base) de
Kn entonces la imagen de Λ está generada por los transformados de dichos generadores de Kn .
Sean ei los vectores de Kn cuyas componentes son 0 en todos lados excepto en el lugar i donde
vale 1, por ejemplo, e1 = [1 0 0 · · · 0]T . Claramente {e1 , e2 , · · · , en } es una base de Kn (de hecho
es la base canónica de Kn ). Por lo tanto
70
2.3. Transformaciones lineales inversibles
v = x 1 v 1 + · · · + x n vn .
La siguiente propiedad vale cuando los espacios de salida y de llegada de una transformación
lineal tienen la misma dimensión:
Proposición 2.3.2. Sean V, W dos K-espacios vectoriales tales que dim(V) = dim(W) y sea
T ∈ L(V, W). Entonces son equivalentes:
i) T es isomorfismo,
ii) T es monomorfismo,
iii) T es epimorfismo.
71
2. Transformaciones Lineales
72
2.4. Matriz de una transformación lineal
entonces
a1 u1 + a2 u2 + · · · + ar ur ∈ Nu(Φ) = {0V },
0V = a1 u1 + a2 u2 + · · · + ar ur
[T ]B
B1 = [ [T (v1 )]
2 B2
[T (v2 )]B2 · · · [T (vn )]B2 ].
Es decir [T ]B
B1 es la matriz que en sus columnas tiene los vectores de coordenadas en base B2
2
[T (v)]B2 = [T ]B
B1 [v] , para cada v ∈ V.
2 B1
(2.1)
[T (v)]B2 = [a1 T (v1 )+a2 T (v2 )+· · ·+an T (vn )]B2 = a1 [T (v1 )]B2 +a2 [T (v2 )]B2 +· · ·+an [T (vn )]B2 =
73
2. Transformaciones Lineales
a1
a2
= [T ]B 2
.. = [T ]B
B1 [v] .
2 B1
B1
.
a4
T (x) := Ax.
[T ]F
E = A.
[T ]F
E = [ [T (e1 )] [T (e2 )]
F F
· · · [T (en )]F ] =
Hallar [T ]E
E 0 , donde E es la base canónica de R3 [x] y E la base canónica de R .
0 4
[T ]E
E 0 = [ [T (1)] [T (x)] [T (x )] [T (x )] ] =
E E 2 E 3 E
1 0 0 0 1 0 0 0
1 E 1 1 E 1 1 1 1 1
=[[
1 ] [ 10
] [
102 ] [ 103
] ] =
E E
.
1 10 102 103
1 100 104 106 1 100 104 106
El siguiente resultado lo usaremos ampliamente cuando trabajemos con una matriz de una
transformación lineal.
74
2.4. Matriz de una transformación lineal
[T ]B
B1 [v]
2 B1
= [T (v)]B2 = [0W ]B2 = 0Km
entonces existe z ∈ V tal que w = T (z), entonces por la ecuación (2.1), tenemos que
[w]B2 = [T (z)]B2 = [T ]B
B1 [z] .
2 B1
[w]B2 = [T ]B
B1 x.
2
Corolario 2.4.2. Sean V y W dos K-espacios vectoriales de dimensión finita. Sean B1 una base de
V y B2 una base de W. Sea T : V → W tal que T ∈ L(V, W). Entonces,
de Nu(T ).
dim(Nu(T )) = dim(nul([T ]B
B1 )).
2
de Im(T ).
dim(Im(T )) = dim(col([T ]B
B1 )).
2
75
2. Transformaciones Lineales
Dem. a): Por la Proposición 2.3.1, T es monomorfismo si y sólo si Nu(T ) = {0V }, si y sólo si
0 = dim(Nu(T )) = dim(nul([T ]C B )) (ver Corolario 2.4.2), si y sólo si nul([T ]B ) = {0}.
C
b): Por definición, T es epimorfismo si y sólo si Im(T ) = W, si y sólo si dim(W) = dim(Im(T )),
donde usamos que siempre vale que Im(T ) ⊆ W y la propiedad de que dos subespacios son iguales
si tienen misma dimensión y uno está contenido en el otro. Por el Corolario 2.4.2), tenemos que
dim(col([T ]C
B ) = dim(Im(T )) = dim(W) = dim(K
dim(W)
), si y sólo si col([T ]C
B) = K
dim(W)
, donde
usamos nuevamente que siempre vale que col([T ]B ) ⊆ K
C dim(W)
y la propiedad de que dos subespacios
son iguales si tienen misma dimensión y uno está contenido en el otro.
c) : Nota: La frase “dim(V) = dim(W)” se agregó explícitamente porque sino la vuelta del
ítem c) podría no ser cierta. Si dim(V) 6= dim(W) entonces la frase “[T ]C B es inversible” no tiene
sentido ya que para que esté definida la inversa de una matriz, esa matriz en principio, tiene que
ser cuadrada (misma cantidad de filas que de columnas).
Supongamos que T es isomorfismo veamos que [T ]C B es inversible.
Recordemos que si T es isomorfismo, entonces dim(V) = dim(W) =: n (lo probamos en la
Proposición 2.3.1). Por lo tanto [T ]C B ∈ K
n×n
. Por otra parte, si T es isomorfismo entonces T
es epimorfismo entonces, por el item b), tenemos que dim(col([T ]C B )) = rg([T ]B ) = dim(W) = n.
C
que T es epimorfismo. Por otra parte, como dim(V) = dim(W) ya vimos en la Proposición 2.3.1
que si T es epimorfismo entonces T es isomorfismo y probamos lo que queríamos.
[T ]C
B =
0 1 1 .
1 0 1
Donde B = {1 + x2 , 1 + x, x + x2 } y C = {[1 1 0]T , [1 0 1]T , [0 1 1]T }. Hallar T −1 ([1 0 1]T ).
Dem. Notar que p ∈ T −1 ([1 0 1]T ) si y sólo si T (p) = [1 0 1]T . Es decir, buscamos todas las
soluciones de esa ecuación. Tenemos como dato la matriz [T ]C B y las bases B y C correspondientes.
Entonces, recordemos que
[T (p)]C = [[1 0 1]T ]C = [T ]C
B [p] .
B
76
2.4. Matriz de una transformación lineal
Dem. i) : En primer lugar, observar que S ◦ T ∈ L(V, Z). Sea v ∈ V, entonces aplicando la ecuación
(2.1), tenemos por un lado que
[S(T (v))]D = [S]D
C [T (v)]
C
anterior,
[S ◦ T ]D
B [v] = [S]C [T (v)] = [S]C [T ]B [v] .
B D C D C B
Recordemos que si dos matrices A y B son tales que A[v]B = B[v]B para todo v ∈ V entonces
A = B. Por lo tanto, usando eso, concluimos que
[S ◦ T ]D
B = [S]C [T ]B
D C
Observar que [IV ]BB = In×n y [IW ]C = In×n , donde In×n denota la matriz identidad de n × n. Si
C
no están convencidos de esa igualdad, observar que si B = {v1 , v2 , · · · , vn } entonces, por definición,
tenemos que
[IV ]B
B = [[IV (v1 )] [IV (v2 )]
B B
· · · [IV (vn )]B ] = [[v1 ]B [v2 ]B · · · [vn ]B ] = In×n .
De manera similar, se prueba que [IW ]C
C = In×n .
Entonces, usando el item i), tenemos que
In×n = [IW ]C
C = [T ◦ T ]C = [T ]C
−1 C
B [T ]C y
−1 B
In×n = [IV ]B
B = [T
−1
◦ T ]B
B = [T ]C [T ]C
−1 B
B.
Entonces, probamos que [T ]C
B [T ]C = [T −1 ]B
−1 B
C [T ]B = In×n . Por lo tanto, la inversa de [T ]B es
C C
[T ]C , es decir
−1 B
[T −1 ]B
C = ([T ]B )
C −1
.
77
2. Transformaciones Lineales
b) Hallar la matriz de T1 ◦ T2−1 en las bases canónicas que correspondan y hallar base de
Nu(T1 ◦ T2−1 ) (usando dicha matriz).
Dem. Sean B = {[1 1 1]T , [1 − 1 0]T , [0 0 1]T } y E = {[1 0 0]T , [0 1 0]T , [0 0 1]T } la base canónica
de R3 . Es inmediato ver que
1 −3 2
[T1 ]E
B = [ [T1 ([1 1 1] )] [T1 ([1 − 1 0] )] [T1 ([0 0 1] )] ] =
T E T E T E −3
2
9
2 −3 .
2 −6 4
donde [M ]B
E es la matriz de cambio de base de E a B. Entonces, volviendo a la ecuación anterior,
tenemos que
[T1 ]E
E [v] = [T1 (v)] = [T1 ]B [v] = [T1 ]B [M ]E [v] .
E E E B E B E
Es decir, [T1 ]E
E [v] = [T1 ]B [M ]E [v] , para todo v ∈ V. Entonces (como la igualdad anterior vale
E E B E
1 1 0
Observar que [M ]E B =
1 −1 0 . Entonces, tal como vimos en el Ejercicio 1.P tenemos
0 0 1
0
1 1
2 2
[M ]B
E = ([M ]B )
E −1
= 12 − 12 0 . Entonces,
0 0 1
1 2 0 2 2
1 1
−3 2 2 −1
[T1 ]E
E = [T1 ]B
E
[M ]B
E = − 3
2
9
2 −3 21 − 21 0 = 32 −3 −3 .
2 −6 4 0 0 1 −2 4 4
78
2.5. Proyectores y simetrías
1 1
−1
0
Como ([T2 ]E
E )
−1
= 1 1 −1 1 . Concluimos que
2
−1 1 1
0
[T1 ◦ T2−1 ]E
E 0 = [T1 ]E ([T2 ]E )
E E −1
=
2 2 1 1 −1
1
− 21 5
−1 −2
1 2
= 3
−3 −3 1 −1 1 = 43 3
− 15 .
2 2 4 4
−2 4 4 −1 1 1 −1 −1 5
Finalmente, vamos a hallar una base de Nu(T1 ◦ T2−1 ). En la Proposición 2.4.1 probamos que
0
v ∈ Nu(T1 ◦ T2−1 ) si y sólo si [v]E ∈ nul([T1 ◦ T2−1 ]E
E 0 ).
Resolviendo el sistema homogéneo asociado a la matriz [T1 ◦ T2−1 ]E
E 0 , es fácil ver que
nul([T1 ◦ T2−1 ]E
E 0 ) = gen{[−1 1 0] , [5 0 1] }.
T T
V = S1 ⊕ S2 .
v = v1 + v2 .
S1 ⊕ S2 = R3
1 0 0
1 1 0 0 0 0
T ( 1 ) = 1 , T ( 1 ) = 0 , T ( 0 ) = 0 .
1 1 1 0 1 0
79
2. Transformaciones Lineales
Im(ΠS1 , S2 ) ⊕ Nu(ΠS1 , S2 ) = V.
Dem. a) : Primero veamos que ΠS1 , S2 está bien definida y es una TL.
Para ver qué está bien definida, basta ver que a todo elemento del dominio de ΠS1 , S2 (que es
V) le corresponde un único elemento del espacio de llegada (que también es V). De hecho, como
V = S1 ⊕ S2
v = v1 + v2 .
Entonces, como v1 ∈ S1 , tenemos que T (v1 ) = v1 y como v2 ∈ S2 , tenemos que T (v2 ) = 0V . Además,
por definición de ΠS1 , S2 , tenemos que ΠS1 , S2 (v) = v1 . Entonces
80
2.5. Proyectores y simetrías
Como la igualdad anterior vale para todo v ∈ V, concluimos que Π2S1 , S2 = ΠS1 , S2 .
c) : Como tenemos que probar una igualdad de TL, basta ver que la igualdad vale para cada
v ∈ V. Sea v ∈ V, entonces existen únicos v1 ∈ S1 , v2 ∈ S2 tales que v = v1 + v2 y por definición
de ΠS1 , S2 y ΠS2 , S1 , tenemos que ΠS1 , S2 (v) = v1 y ΠS2 , S1 (v) = v2 . Entonces
Como la igualdad anterior vale para todo v ∈ V, concluimos que ΠS1 , S2 + ΠS2 , S1 = IV .
Antes de seguir con el Ejercicio 2.19 d), e) veamos una definición que usaremos a continuación.
V = S1 ⊕ S2 .
ΣS1 , S2 := IV − 2ΠS2 , S1 .
d) Mostrar que ΣS1 , S2 es la única transformación lineal de V en V tal que ΣS1 , S2 (v) = v, si
v ∈ S1 y ΣS1 , S2 (v) = −v, si v ∈ S2 .
Dem. d) : Se deja como ejercicio ver que ΣS1 , S2 está bien definida y que es una TL.
Veamos que efectivamente ΣS1 , S2 (v) = v, si v ∈ S1 , y ΣS1 , S2 (v) = −v, si v ∈ S2 .
Ya vimos que si v ∈ S1 entonces ΠS2 , S1 (v) = 0V y si v ∈ S2 entonces ΠS2 , S1 (v) = v. Por lo
tanto, si v ∈ S1 ,
ΣS1 , S2 (v) = IV (v) − 2 ΠS2 , S1 (v) = v − 2 0V = v.
81
2. Transformaciones Lineales
Finalmente, si v ∈ S2 ,
Entonces
S(v) = S(v1 + v2 ) = S(v1 ) + S(v2 ) = v1 − v2 = ΣS1 , S2 (v).
Ahora, como v1 ∈ S1 , vimos en el item d) que ΣS1 , S2 (v1 ) = v1 y como v2 ∈ S2 , vimos en el item d)
que ΣS1 , S2 (v2 ) = −v2 . Juntando todo esto, nos queda que
Σ2S1 , S2 (v) = ΣS1 , S2 (ΣS1 , S2 (v)) = ΣS1 , S2 (v1 − v2 ) = ΣS1 , S2 (v1 ) − ΣS1 , S2 (v2 ) =
= v1 − (−v2 ) = v1 + v2 = v = IV (v).
Como la igualdad anterior vale para todo v ∈ V, concluimos que Σ2S1 , S2 = IV .
0r×n−r
Ir×r
[ΠS1 , S2 ]B =
B
.
0n−r×r 0n−r×n−r
0r×n−r
Ir×r
[ΣS1 , S2 ]B
B
= .
0n−r×r −In−r×n−r
Donde Ir×r denota la matriz identidad de r × r, 0r×n−r la matriz nula de r × n − r, etc.
[v1 ]B = [1 0 · · · 0]T = e1 .
82
2.5. Proyectores y simetrías
[ΠS1 , S2 ]B
B
= [ [ΠS1 , S2 (v1 )]
B
[ΠS1 , S2 (v2 )]
B
· · · [ΠS1 , S2 (vr )]
B
[ΠS1 , S2 (vr+1 )]
B
· · · [ΠS1 , S2 (vn )]
B
]
= [ [v1 ] [v2 ] · · · [vr ] [0V ] · · · [0V ]
B B B B
] = [ e1 e2 · · · er 0Kn · · · 0Kn ]
0r×n−r
Ir×r
= .
0n−r×r 0n−r×n−r
[ΣS1 , S2 ]B
B
= [ [ΣS1 , S2 (v1 )]
B
[ΣS1 , S2 (v2 )]
B
· · · [ΣS1 , S2 (vr )]
B
[ΣS1 , S2 (vr+1 )]
B
· · · [ΣS1 , S2 (vn )]
B
]
= [ [v1 ] [v2 ] · · · [vr ] [−vr+1 ]
B B B
· · · [−vn ] B
] = [ e1 e2 · · · er − er+1 · · · − en ]
0r×n−r
Ir×r
= .
0n−r×r −In−r×n−r
v1 (α + β) + v2 (−2α − γ) + v3 (β + γ) = 0V .
Como {v1 , v2 , v3 } una base de V, y tenemos una CL de dichos vectores igualada al elemento neutro
de V, se sigue que
α + β = −2α − γ = β + γ = 0.
Entonces, resolviendo el sistema, es claro que α = β = γ = 0, por lo tanto
w = 0V y S1 ∩ S2 = {0V}.
1 0
Notar que dim(S2 ) = 1 y dim(S1 ) = 2. De hecho, [v1 − 2v2 ]B = −2 y [v2 − v3 ]B = 1 ,
0 −1
1 0
entonces como los vectores −2 y 1 son LI en R3 , por la Proposición 2.3.3, {v1 − 2v2 , v1 + v3 }
0 −1
es un conjunto LI de V y entonces dim(S1 ) = 2.
Por otra parte, es claro que S1 ⊕ S2 ⊆ V y, por el Teorema de la dimensión para la suma de
subespacios, se sigue que
83
2. Transformaciones Lineales
Por lo tanto, S1 ⊕ S2 = V.
b) : Llamemos B 0 := {v1 − 2v2 , v1 + v3 , v2 − v3 }. Por a), B 0 es una base de V. Además, por la
Proposición 2.5.1,
1 0 0
0
B0 = 0 1
[ΠS1 , S2 ]B 0 .
0 0 0
Entonces, aplicando los cambios de bases correspondientes, se sigue que
B0 B0 B0
[ΠS1 , S2 ]B
B
= [M ]B
B 0 [ΠS1 , S2 ]B 0 [M ]B = [M ]B
B 0 [ΠS1 , S2 ]B 0 ([M ]B 0 )
B −1
,
donde
1 1 0
[M ]B
B0 = −2 0 1
0 1 −1
es la matriz de cambio de base de B 0 a B. Por lo tanto
0
[ΠS1 , S2 ]B
B
= [M ]B
B 0 [ΠS1 , S2 ]B 0 ([M ]B 0 )
B B −1
1 1 0 1 0 0 1
−1 −1
1
= −2 0 1 0 1 0 2 1 1
3
0 1 −1 0 0 0 2 1 −2
3 0 0
1
= −2 2 2 .
3
2 1 1
1 0 0
0
[ΣS1 , S2 ]B
B0 = 0
1 0 .
0 0 −1
Por lo tanto
0
[ΣS1 , S2 ]B
B
= [M ]B
B 0 [ΣS1 , S2 ]B 0 ([M ]B 0 )
B B −1
1 1 0 1 0 0 1
−1 −1
1
= −2 0 1 0 1 0 2 1 1
3
0 1 −1 0 0 −1 2 1 −2
3 0 0
1
= −4 1 4 .
3
4 2 −1
Ejercicio 2.K. En cada uno de los siguientes casos, hallar la matriz respecto de la base canónica de
las transformaciones lineales indicadas:
1 1 0
84
2.5. Proyectores y simetrías
1 1
1 0 0
I2×2 02×1
[ΠS1 , S2 ]B
B = = 0 1 0 .
01×2 01×1
0 0 0
1 0 0
0 0 1
Entonces, como tenemos [ΠS1 , S2 ]B
B , sólo nos resta hacer un cambio de base. Si
1 1 0
[M ]E
B =
1 1 1 ,
1 0 2
[ΠS1 , S2 ]E
= [M ]E
B [ΠS1 , S2 ]B [M ]E = [M ]B [ΠS1 ,
E B B E
S2 ]B
B
([M ]E
B)
−1
.
2 −2 1
1 1 0 1 0 0 2 1 1 0 0
−2
[ΠS1 , S2 ]E =
E 1 1 1 0 1 0 −1 2 −1 = 1 0 0 .
1 0 2 0 0 0 −1 1 0 2 −2 1
1 0 0 1 0 0
([T ]B
B ) = [T ]B , para cualquier base B de V.
2 B
1 0 0
I2×2 02×1
0
[ΣS1 , S2 ]B
B0 = = 0 1 0 .
01×2 −I1×1
0 0 −1
E0
Si E 0 = {1, x, x2 } es la base canónica de R2 [x], el ejercicio nos pide [ΣS1 , S2 ]E 0 . Entonces, como
0
tenemos [ΣS1 , S2 ]B
B 0 , sólo nos resta hacer un cambio de base. Si
1 0 1
0
[M ]E
B0 =
0 1 1 ,
0 0 1
85
2. Transformaciones Lineales
1 0 −1
0
Finalmente, como ([M ]E B0 )
−1
= 0 1 −1 , tenemos que
0 0 1
1 0 1 1 0 0 1 0 1 0
0
−1 −2
[ΣS1 , S2 ]E
E0 =
0 1 1 0 1 0 0 1 −1 = 0 1 −2 .
0 0 1 0 0 −1 0 0 1 0 0 −1
1 0 −2 1 0 0
([S]B
B ) = Idim(V)×dim(V) , para cualquier base B de V.
2
El siguiente ejercicio recolecta varias propiedades de proyectores y simetrías.
Ejercicio 2.23. Verificar las siguientes afirmaciones:
a) Si T ∈ L(V) es tal que T 2 = T, entonces T es la proyección de V sobre Im(T ) en la dirección
de Nu(T ) es decir
T = ΠIm(T ), Nu(T ) .
V = Nu(S − IV ) ⊕ Nu(S + IV ).
Dem. a) Este ejercicio nos está pidiendo indirectamente que probemos que
V = Im(T ) ⊕ Nu(T ),
que es cuando está definido el proyector ΠIm(T ), Nu(T ) (tal como vimos más arriba). Si probamos
eso, luego veremos que T = ΠIm(T ), Nu(T ) .
Vamos a ver entonces que V = Im(T ) ⊕ Nu(T ), usando como hipótesis que T 2 = T ◦ T = T.
Primero veamos que Im(T ) ∩ Nu(T ) = {0V }. Supongamos que v ∈ Im(T ) ∩ Nu(T ), entonces
por un lado T (v) = 0V y por el otro v ∈ Im(T ). Como v ∈ Im(T ) existe u ∈ V tal que v = T (u)
entonces, usando que T ◦ T = T, se sigue que v = T (u) = T (T (u)) = T (v). Acabamos de demostrar
un hecho importante (usando como hipótesis T 2 = T ):
Siguiendo con la demostración, teníamos que T (v) = 0V (porque v ∈ Nu(T )), entonces
v = T (v) = 0V , por lo tanto Im(T ) ∩ Nu(T ) = {0V } e Im(T ) y Nu(T ) están en suma directa.
Sólo resta ver que V = Im(T )⊕Nu(T ), es decir queremos ver que, dado v ∈ V existen v1 ∈ Im(T )
y v2 ∈ Nu(T ) tales que v = v1 + v2 .
86
2.5. Proyectores y simetrías
Observar que siempre vale que v = T (v) + (v − T (v)), donde T (v) claramente pertenece a
Im(T ). Veamos que v − T (v) ∈ Nu(T ), de hecho, T (v − T (v)) = T (v) − T (T (v)) = T (v) − T 2 (v) =
T (v) − T (v) = 0V . Por lo tanto, concluimos que v − T (v) ∈ Nu(T ) y como a v lo escribimos como
v = v1 + v2 , con v1 := T (v) ∈ Im(T ) y v2 := v − T (v) ∈ Nu(T ), se sigue que
V = Im(T ) ⊕ Nu(T ).
Por lo tanto, está definido el proyector ΠIm(T ), Nu(T ) .
Por otra parte, si v ∈ Im(T ) vimos arriba que T (v) = v y (obviamente) T (v) = 0V si v ∈ Nu(T ).
Entonces, como ΠIm(T ), Nu(T ) es la única transformación lineal tal que ΠIm(T ), Nu(T ) (v) = v, si
v ∈ Im(T ) y ΠIm(T ), Nu(T ) (v) = 0V , si v ∈ Nu(T ) (lo probamos en el Ejercicio 2.19 a), tenemos
que T = ΠIm(T ), Nu(T ) .
b) : Como T 2 = T, por el item a), tenemos que T = ΠIm(T ), Nu(T ) . Entonces
S = IV − 2T = IV − 2ΠIm(T ), Nu(T ) = ΣNu(T ), Im(T )
Otra forma de probar este hecho es verificando que T 2 (v) = T (v), para todo v ∈ V.
d) : Si S ∈ L(V) es tal que S 2 = IV , usando el ítem c), vimos que si definimos T := 12 (IV − S),
entonces T 2 = T. Por otra parte, por el ítem a), como T 2 = T, tenemos que T = ΠIm(T ), Nu(T ) .
Entonces, por definición de simetría, se sigue que
S = IV − 2T = IV − 2ΠIm(T ), Nu(T ) = ΣNu(T ), Im(T ) .
Como Nu(T ) = Nu( 12 (IV − S)) e Im(T ) = Im( 12 (IV − S)). Entonces S es la simetría de V respecto
a Nu( 12 (IV − S)) en la dirección Im( 12 (IV − S)).
e) : Si S ∈ L(V) es tal que S 2 = IV , usando el ítem c), vimos que si definimos T := 12 (IV − S)
entonces T 2 = T. Como T 2 = T, por el ítem a) tenemos, que
1 1
V = Nu(T ) ⊕ Im(T ) = Nu( (IV − S)) ⊕ Im( (IV − S)).
2 2
Observar que si L es una transformación lineal y a ∈ K \ {0} (un escalar no nulo), siempre vale
que
Nu(aL) = Nu(L).
La prueba es muy simple, pero la vamos a hacer. Si v ∈ Nu(aL), entonces aL(v) = 0V , como a =
6 0,
se sigue que L(v) = a1 aL(v) = a1 0V = 0V y entonces v ∈ Nu(L). Recíprocamente, si v ∈ Nu(L)
entonces, L(v) = 0V y claramente aL(v) = a0V = 0V , entonces v ∈ N u(aL) y concluimos que
Nu(aL) = Nu(L).
Usando la idea anterior, se sigue que Nu( 12 (IV − S)) = Nu(T ) = Nu(IV − S).
Ahora, veamos que
1
Im( (IV − S)) = Im(T ) = Nu(IV + S).
2
De hecho, si v ∈ Im(T ), como T 2 = T, en el item a) probamos que eso implica que T (v) = v.
Entonces, reemplazado por la definición de T, nos queda
1 1
v = T (v) = (IV − S)v = (v − Sv).
2 2
87
2. Transformaciones Lineales
Entonces
1 1 1 1
(IV + S)(v) = (IV + S)( (v − Sv)) = [v − Sv + Sv − S 2 v] = [v − IV (v)] = [v − v] = 0V ,
2 2 2 2
donde usamos que S 2 = IV . Por lo tanto Im( 12 (IV − S)) ⊆ Nu(IV + S).
Finalmente, si v ∈ Nu(IV + S), entonces (IV + S)(v) = v + S(v) = 0V , es decir S(v) = −v. Como
T = 21 (IV − S), entonces S = IV − 2T. Por lo tanto
−v = S(v) = (IV − 2T )v = v − 2T (v),
entonces, −2v = −2T (v), o lo que es lo mismo, v = T (v), entonces v ∈ Im(T ) = Im( 12 (IV − S)) es
decir probamos que Nu(V + S) ⊆ Im( 12 (IV − S)). Por lo tanto, vale que Im( 12 (IV − S)) = Im(T ) =
Nu(IV + S) y entonces
V = Nu(T ) ⊕ Im(T ) = Nu(IV − S) ⊕ Nu(IV + S).
Las siguientes son algunas conclusiones que podemos obtener del Ejercicio 2.23.
T es un proyector si y sólo si T 2 = T ◦ T = T.
S = ΣNu(IV −S), Im(IV −S) , es decir, S es la simetría de V sobre Nu(IV −S) en la dirección
de Im(IV − S).
V = Nu(S − IV ) ⊕ Nu(S + IV ).
88
2.5. Proyectores y simetrías
[Π2S1 , S2 (v)]
B
= [ΠS1 , S2 (ΠS1 , S2 (v))]
B
= [ΠS1 , S2 ]B
B
[ΠS1 , S2 (v)]B
B
=
= [ΠS1 , S2 ]B
B
[ΠS1 , S2 ]B
B
[v]B = ([ΠS1 , S2 ]B ) [v] .
B 2 B
([ΠS1 , S2 ]B )
B 2
[v]B = [Π2S1 , S2 (v)]
B
= [ΠS1 , S2 ]B
B
[v]B .
para todo v ∈ V. Recordar que si dos matrices A y B son tales que A[v]B = B[v]B para todo v ∈ V,
entonces A = B. Usando, este hecho, concluimos que
([ΠS1 , S2 ]B )
B 2
= [ΠS1 , S2 ]B .
B
Finalmente, en el Ejercicio 2.19 d), e), vimos que Σ2S1 , S2 = IV . Entonces, por un lado,
tenemos que
[Σ2S1 , S2 (v)]B = [IV (v)]B = [v]B
y, por otro lado,
[Σ2S1 , S2 (v)]
B
= [ΣS1 , S2 (ΣS1 , S2 (v))]
B
= [ΣS1 , S2 ]B
B
[ΣS1 , S2 (v)]B
B
=
= [ΣS1 , S2 ]B
B
[ΣS1 , S2 ]B
B
[v]B = ([ΣS1 , S2 ]B ) [v] .
B 2 B
([ΣS1 , S2 ]B )
B 2
[v]B = [Σ2S1 , S2 (v)]
B
= [v]B = In×n [v]B .
([ΣS1 , S2 ]B )
B 2
= In×n .
Ejercicio 2.M (De Parcial). Sea V un K-espacio vectorial y sean f, g : V → V dos proyectores.
Mostrar que:
89
2. Transformaciones Lineales
1 1 1
f( )= 6= g( ).
1 1 1
c): Primero observar que f ◦ g es una transformación lineal y
(f ◦ g) ◦ (f ◦ g) = f ◦ (g ◦ f ) ◦ g = f ◦ (f ◦ g) ◦ g = (f ◦ f ) ◦ (g ◦ g) = f ◦ g.
Entonces f ◦ g es un proyector.
Siempre vale que Im(f ◦ g) ⊆ Im(f ) y Im(g ◦ f ) ⊆ Im(g). Entonces Im(f ◦ g) = Im(g ◦ f ) ⊆
Im(f ) ∩ Im(g). Si hay dudas sobre este hecho, se recomienda hacer la demostración como ejercicio.
Por otra parte, si x ∈ Im(f ) ∩ Im(g), entonces x ∈ Im(f ) y x ∈ Im(g). Entonces, como f y g
son proyectores, se sigue que x = f (x) y x = g(x). Entonces,
x = f (x) = f (g(x)) = f ◦ g(x).
Por lo tanto x ∈ Im(f ◦ g) y se sigue que Im(f ) ∩ Im(g) ⊆ Im(f ◦ g). Entonces, como probamos la
doble inclusión, tenemos que Im(f ◦ g) = Im(f ) ∩ Im(g).
Finalmente, siempre vale que Nu(f ) ⊆ Nu(g ◦ f ) = Nu(f ◦ g) y Nu(g) ⊆ Nu(f ◦ g). Entonces,
tenemos que Nu(f ) + Nu(g) ⊆ Nu(f ◦ g). De hecho, si z ∈ Nu(f ) + Nu(g), entonces z = z1 + z2 ,
con z1 ∈ Nu(f ) y z2 ∈ Nu(g), entonces,
f ◦ g(z) = f ◦ g(z1 + z2 ) = f ◦ g(z1 ) + f ◦ g(z2 ) = g ◦ f (z1 ) + f (0V ) = g(0V ) + 0V = 0V
y z ∈ Nu(f ◦ g).
Por otra parte, si x ∈ Nu(f ◦ g). Entonces, f (g(x)) = 0 y g(x) ∈ Nu(f ). Observar que
x = x − g(x) + g(x),
con x−g(x) ∈ Nu(g) pues g es proyector. De hecho, g(x−g(x))) = g(x)−g◦g(x) = g(x)−g(x) = 0V .
Entonces, como escribimos a x = x1 + x2 con x1 := x − g(x) ∈ Nu(g) y x2 := g(x) ∈ Nu(f ), se
sigue que x ∈ Nu(f ) + Nu(g), entonces Nu(f ◦ g) ⊆ Nu(f ) + Nu(g) y, como probamos la doble
inclusión, tenemos que Nu(f ◦ g) = Nu(f ) + Nu(g).
2.6. Rotaciones
Para resolver lose ejercicios de esta sección, vamos usamos las siguientes propiedades
trigonométricas: Sean a, b ∈ R, entonces
cos(a)2 + sin(b)2 = 1.
cos(a ± b) = cos(a) cos(b) ∓ sin(a) sin(b).
sin(a ± b) = sin(a) cos(b) ± cos(a) sin(b).
El siguiente ejercicio nos presenta a las transformaciones lineales llamadas rotaciones.
Ejercicio 2.25. Sea O(2, R) := {Rθ , Sθ : θ ∈ R} el conjunto de todas las TL de R2 en R2 definidas
por
cos(θ) − sin(θ)
x1 x1
Rθ := ,
x2 sin(θ) cos(θ) x2
cos(θ) sin(θ)
x1 x1
Sθ := .
x2 sin(θ) − cos(θ) x2
90
2.6. Rotaciones
" √ #
1 1
− 3 1 − 0
= =
S π3 √2 2 2√ √2 .
3 1 3 −1
2 2 − 23 2
cos( θ2 ) − sin( θ2 )
d) Comprobar que { , } es una base de R2 y hallar su imagen por Sθ .
sin( θ2 ) cos( θ2 )
cos( θ2 ) − sin( θ2 )
Veamos que { , } es una base de R2 . Para esto basta ver que el
sin( θ2 ) cos( θ2 )
conjunto es LI. Sean a, b ∈ R tales que
cos( θ2 ) − sin( θ2 ) 0
a +b = .
sin( θ2 ) cos( θ2 ) 0
cos( θ2 ) − sin( θ2 ) 0
a
= .
sin( 2 ) cos( 2 )
θ θ
b 0
91
2. Transformaciones Lineales
Como
cos( θ2 ) − sin( θ2 )
θ θ
det( ) = cos( )2 + sin( )2 = 1 6= 0,
sin( θ2 ) cos( θ2 ) 2 2
la única solución del sistema homogéneo anterior es la trivial, es decir, a = b = 0.
cos( θ2 ) − sin( θ2 )
Por lo tanto, { , } es una base de R2 .
sin( θ2 ) cos( θ2 )
Por otra parte, veamos la imagen de esos vectores por Sθ .
R2 = S1 ⊕ S2 .
Rα ◦ Rβ , Sα ◦ Sβ , Sα ◦ Rβ , Rβ ◦ Sα .
[Rα ]E
E , [Sα ]E , [Rβ ]E y [Sβ ]E denotan las matrices respecto de la base canónica E de R de
E E E 2
[Rα ◦ Rβ ]E
E = [Rα ]E [Rβ ]E
E E
92
2.6. Rotaciones
cos(α + β) − sin(α + β)
= = [Rα+β ]E
E.
sin(α + β) cos(α + β)
[Sα ◦ Sβ ]E
E = [Sα ]E [Sβ ]E
E E
[Sα ◦ Rβ ]E
E = [Sα ]E [Rβ ]E
E E
[Rβ ◦ Sα ]E
E = [Rβ ]E [Sα ]E
E E
(g) Concluir que el conjunto O(2, R) es cerrado por composiciones. Sean Rα , Sα , Rβ , Sβ ∈ O(2, R).
Entonces, por el item f ), tenemos que
cos(α + β) − sin(α + β)
x1 x1
Rα ◦ Rβ =
x2 sin(α + β) cos(α + β) x2
x1
= Rα+β (
.
x2
cos(0) − sin(0) 1 0
R0 = = = IR2 .
sin(0) cos(0) 0 1
i) Si [Rθ ]E
E es
la matriz respectode la base canónica E de la transformación lineal Rθ , entonces
cos(θ) − sin(θ)
[Rθ ]E =
E
y
sin(θ) cos(θ)
det([Rθ ]E
E ) = cos(θ) + sin(θ) = 1 6= 0.
2 2
93
2. Transformaciones Lineales
−1
Entonces [Rθ ]E
E es inversible y, por lo tanto Rθ es un isomorfismo. Entonces, existe Rθ .
Observar que
cos(θ) sin(θ)
([Rθ ]E ) −1
= .
E − sin(θ) cos(θ)
Entonces Rθ−1 : R2 → R2 es la transformación lineal
cos(θ) sin(θ)
x1 x1
(Rθ )−1 = .
x2 − sin(θ) cos(θ) x2
det([Sθ ]E
E ) = − cos(θ) − sin(θ) = −1 6= 0.
2 2
Entonces [Sθ ]E
E es inversible y, por lo tanto, Sθ es un isomorfismo.
Entonces, existe Sθ−1 . Observar que
cos(θ) sin(θ)
([Sθ ]E
E)
−1
= = [Sθ ]E
E.
sin(θ) − cos(θ)
Entonces Sθ−1 = Sθ .
Sigamos con otro ejercicio de rotaciones en R3 . Observar que la transformación lineal R : R3 → R3
definida por
es la rotación del ángulo θ en sentido antihorario del plano xy alrededor del eje z.
Ejercicio 2.26.
a) Hallar la imagen de los vectores v1 = [1 0 0]T , v2 = [1 1 0]T , v3 = [1 0 1]T por la rotación de
un ángulo π4 en sentido antihorario del plano xy alrededor del eje z.
Observar que la expresión general de la transformación lineal Rzθ : R3 → R3 que es la rotación
de un ángulo θ en sentido antihorario del plano xy alrededor del eje z es:
cos(θ) − sin(θ) 0
u1 u1 u1
Rzθ ( u2 ) = sin(θ) cos(θ) 0 u2 con u2 ∈ R3 .
u3 0 0 1 u3 u3
Tomando θ = π
4, tenemos que
√ √
2
−√ 22 0
u1 u1 u1
π
√22
Rz ( u2 ) =
4 2
0 u2 con u2 ∈ R3 .
2 2
u3 0 0 1 u3 u3
Entonces √ √ √
2
−√ 22 0 1 2
π √2 √22
Rz4 (v1 ) = 2 2
0 0 = .
2 2 2
0 0 1 0 0
94
2.6. Rotaciones
√ √
2
−√ 22 0 1 0
π √2 √
Rz4 (v2 ) = 2 2
0 1 = 2 .
2 2
0 0 1 0 0
√ √ √
2
−√ 22 0 1 2
π √2 √2
Rz4 (v3 ) = 2 2
0 0 = 2 .
2 2 2
0 0 1 1 1
1 0 0
u1 u1 u1
Rxθ ( u2 ) = 0 cos(θ) − sin(θ) u2 , con u2 ∈ R3 .
u3 0 sin(θ) cos(θ) u3 u3
1 0 0
[Rxθ ]E
E =
0 cos(θ) − sin(θ) ,
0 sin(θ) cos(θ)
cos(θ) 0 − sin(θ)
u1 u1 u1
Ryθ ( u2 ) = 0 1 0 u2 , con u2 ∈ R3 .
u3 sin(θ) 0 cos(θ) u3 u3
cos(θ) 0 − sin(θ)
[Ryθ ]E
E = 0 1 0 ,
sin(θ) 0 cos(θ)
95
2. Transformaciones Lineales
L = Dn + an−1 Dn−1 + · · · + a1 D + a0 I,
Es fácil ver que como D ∈ L(V) también tenemos que q(D) ∈ L(V). Por otra parte, si
q1 ∈ Cn [x], q2 ∈ Cm [x] son dos polinomios, α, β ∈ C y D ∈ L(V), es fácil ver que
(αq1 + βq2 )(D) = αq1 (D) + βq2 (D) y q1 q2 (D) = q1 (D) ◦ q2 (D) (2.3)
p(x) = (x − λ1 )(x − λ2 ) · · · (x − λn ),
L = (D − λ1 I) ◦ (D − λ2 I) ◦ · · · ◦ (D − λn I).
Dem. Vamos a usar el principio de inducción para demostrar esta propiedad. Supongamos que
k = 1, entonces p(x) = x + a0 = (x − λ1 ), donde λ1 := −a0 ∈ C es la única raíz de p, Entonces
L = p(D) = (D − λ1 I).
96
2.7. Ecuaciones diferenciales. Operador derivación
Sea λn+1 ∈ C una raíz de p (existe por el Teorema Fundamental del Álgebra). Entonces, usando
la división de polinomios (por ejemplo), tenemos que
donde q ∈ Cn [x].
Entonces, usando la propiedad (2.3), tenemos que
Sean λn , λn−1 , · · · , λ1 ∈ C, las n raíces del polinomio q, entonces por HI, tenemos que
q(D) = (D − λ1 I) ◦ (D − λ2 I) ◦ · · · ◦ (D − λn I).
Entonces,
= (D − λ1 I) ◦ (D − λ2 I) ◦ · · · ◦ (D − λn I) ◦ (D − λn+1 I),
donde para la última igualdad usamos fuertemente que si α, β ∈ C, los operadores (D − αI) y
(D − βI) conmutan, es decir (D − αI) ◦ (D − βI) = D2 − αD − βD + αβI = (D − βI) ◦ (D − αI).
Finalmente, como a partir de la validez de la proposición para n deducimos la validez para
n + 1, se sigue por inducción, que la propiedad vale para todo n ∈ N.
Para resolver el Ejercicio 2.27 vamos a usar la siguiente propiedad (su demostración es muy
simple y se sugiere hacerla): sea λ ∈ C y D el operador derivación. Observar que, como (D − λI)k+1
es componer k + 1 veces el operador D − λI, se sigue que para todo k ≥ 1,
b) Comprobar que
Nu(D − λI) = gen{eλx }.
entonces
Nu((D − λI)k+1 ) = {p(x)eλx : p ∈ Ck [x]}.
d) Utilizar los incisos b) y c) junto al principio de inducción para demostrar que para todo
k ∈ N, el conjunto {xi eλx } con i = {0, 1, 2 · · · , k − 1}, es una base de Nu((D − λI)k ).
97
2. Transformaciones Lineales
(D − λI)k [y] = g,
admite una solución particular de la forma yp (x) = f (x)eλx , donde f k (x) = g(x)e−λx .
Dem. a) : Vamos a probarlo por inducción. Primero, el caso n = 1. En este caso, dada f ∈ C ∞ (R, C),
por definición de D tenemos:
d(f (x)eλx )
(D − λI)[f (x)eλx ] = D[f (x)eλx ] − λf (x)eλx = − λf (x)eλx =
dx
= f 0 (x)eλx + λf (x)eλx − λf (x)eλx = f 0 (x)eλx ,
por lo que la igualdad se cumple para n = 1.
Supongamos que la igualdad vale para n = k (HI), es decir,
veamos que la igualdad vale para n = k + 1. Entonces, dada f ∈ C ∞ (R, C), por definición de D,
usando la propiedad (2.4) y usando la HI, tenemos que
d(f k (x)eλx )
= (D − λI)[f k (x)eλx ] = − λf k (x)eλx = f k+1 (x)eλx + λf k (x)eλx − λf k (x)eλx =
dx
= f k+1 (x)eλx .
Como a partir de la validez de la igualdad para n = k, deducimos la validez para n = k + 1, se
sigue que por inducción, la igualdad vale para todo k ∈ N.
b) : Tenemos que probar una igualdad de conjuntos así que veremos la doble inclusión.
Sea f ∈ Nu(D − λI), entonces (D − λI)[f (x)] = 0, para todo x ∈ R. Entonces D[f (x)] − λf (x) =
df
dx − λf (x) = 0, para todo x ∈ R. Es decir,
f 0 − λf = 0.
Para resolver esta ecuación diferencial, vamos a multiplicar ambos lados la última igualdad por
e−λx . Entonces, para todo x ∈ R,
98
2.7. Ecuaciones diferenciales. Operador derivación
Con esto, vamos a demostrar la igualdad de conjuntos que nos pide el item c), para eso vamos a
probar la doble inclusión.
Sea f ∈ Nu((D − λI)k+1 ) = Nu((D − λI)k ◦ (D − λI)), entonces para cada x ∈ R,
Entonces (D − λI)[f ] ∈ Nu(D − λI)k . Por hipótesis, Nu((D − λI)k ) = {p(x)eλx : p ∈ Ck−1 [x]}.
Entonces, existe p ∈ Ck−1 [x], tal que
Para resolver esta ecuación diferencial, vamos a multiplicar ambos lados la última igualdad por
e−λx . Entonces, para todo x ∈ R,
Sea q(x) := p(x), entonces como p ∈ Ck−1 [x] (y estamos integrando p) tenemos que q ∈ Ck [x].
R
d(p(x)eλx )
(D − λ)[f (x)] = − λf (x) = p0 (x)eλx + p(x)λeλx − λp(x)eλx = p0 (x)eλx .
dx
Entonces, como p ∈ Ck [x] su derivada p0 ∈ Ck−1 [x], entonces
0 = (D − λI)k [(D − λ)[f (x)]] = ((D − λI)k ◦ (D − λI))[f (x)] = (D − λI)k+1 [f (x)].
Por lo tanto, f ∈ Nu((D − λI)k+1 ) y se sigue que {p(x)eλx : p ∈ Ck [x]} ⊆ Nu((D − λI)k+1 ).
Entonces, como probamos la doble inclusión, tenemos que
99
2. Transformaciones Lineales
Primero probemos que el conjunto {eλx , xeλx , · · · , xk−1 eλx , xk eλx } es LI. De hecho, sean
a0 , a1 , · · · , ak ∈ R tales que
Pero eso, es exactamente lo que hicimos en el item c). Si no se convencen, notar que
De hecho, si f ∈ gen{eλx , xeλx , · · · , xk−1 eλx , xk eλx }, entonces existen α0 , α1 , · · · , αk ∈ C tales que
p(x) = a0 + a1 x + · · · + αk xk .
y 00 − 2y 0 + y = (3 + 5x)e2x ,
100
2.7. Ecuaciones diferenciales. Operador derivación
observar que no agregamos la constante de integración porque basta encontrar una solución
particular. Integrando nuevamente, tenemos que
Z
f (x) = (−2 + 5x)ex = −2ex + 5ex (x − 1) = (−7 + 5x)ex .
Por lo tanto
yp = f (x)ex = (−7 + 5x)ex ex = (−7 + 5x)e2x
y las soluciones de la ecuación diferencial son:
ys = αex + βxex + (−7 + 5x)e2x ,
con α, β ∈ C.
f ) : Vamos resolver el sistema
(D − I)3 [y] = g,
donde g(x) = (3 + 5x)e2x . Como ya vimos, todas las soluciones del sistema a resolver ys tienen la
forma
ys = yh + yp ,
donde yh ∈ Nu((D − I)3 ) e yp es una solución particular.
Por el Ejercicio 2.27 c) tenemos que una base de Nu((D − I)3 ), es
BNu((D−I)3 ) = {ex , xex , x2 ex }
y, por el Ejercicio 2.27 d), tenemos que una posible solución particular es yp = f (x)ex , donde
f 3 (x) = f 000 (x) = g(x)e−x = (3 + 5x)e2x e−x = (3 + 5x)ex .
Entonces, usando lo que hicimos en el item anterior, tenemos que f 0 (x) = (−7 + 5x)ex . Integrando
nuevamente, nos queda que f (x) = (−12 + 5x)ex . Por lo tanto yp = f (x)ex = (−12 + 5x)ex ex =
(−12 + 5x)e2x y las soluciones de la ecuación diferencial son:
ys = αex + βxex + γx2 ex + (−12 + 5x)e2x ,
con α, β, γ ∈ C.
101
2. Transformaciones Lineales
i) L ◦ A = A ◦ L, es decir L y A conmutan.
Verificar que:
c) Si w ∈ Nu(A) ∩ Im(L) y S es un subespacio tal que Nu(L) ⊕ S = Nu(A ◦ L), entonces existe
un único v ∈ S tal que L(v) = w.
x = x1 + x2 ,
L(v) = w = L(v 0 ),
tenemos que
0V = L(v) − L(v 0 ) = L(v − v 0 ),
entonces v − v 0 ∈ Nu(L) y como S es un subespacio y v, v 0 ∈ S, también tenemos que v − v 0 ∈ S.
Es decir v − v 0 ∈ Nu(L) ∩ S = {0}. Entonces v = v 0 y v es único.
d) : Este item no es nada fácil. La guía nos recomienda leer la demostración del teorema de la
dimensión de transfomaciones lineales definidas en dominios de dimensión finita como ayuda, ver
Teorema 2.1.1.
102
2.7. Ecuaciones diferenciales. Operador derivación
Usando el item a), ya sabemos que Nu(A) ⊕ Nu(L) ⊆ Nu(A ◦ L). Sólo nos resta probar la otra
inclusión. Para eso vamos a usar fuertemente que Nu(A ◦ L) es de dimensión finita.
Observemos que como siempre vale que Nu(A) ⊆ Nu(A) ⊕ Nu(L) (¿por qué?) y ya probamos
que Nu(A) ⊕ Nu(L) ⊆ Nu(A ◦ L), tenemos que Nu(A) ⊆ Nu(A ◦ L). Entonces
por lo tanto Nu(A) también es de dimensión finita. Supongamos que dim(Nu(A)) = r, donde r es 0
ó un número natural. Vamos a dividir la prueba en dos casos, si r = 0 ó r > 0.
Caso r = 0
Si r = 0, es decir A es monomorfismo, en este caso Nu(L) = Nu(A ◦ L). Es fácil ver que
Nu(L) ⊆ Nu(A ◦ L). Recíprocamente, si x ∈ Nu(A ◦ L) entonces A(L(x)) = 0V , entonces
L(x) ∈ Nu(A) = {0V }, entonces L(x) = 0V y x ∈ Nu(L). Por lo tanto, Nu(L) = Nu(A ◦ L)
y tenemos que
Nu(A ◦ L) = Nu(L) = {0V } ⊕ Nu(L) = Nu(A) ⊕ Nu(L).
Entonces, para el caso r = 0, lo que queremos demostrar se cumple de manera trivial.
Caso r > 0
Supongamos que r > 0 (y finito). Sea {v1 , v2 , · · · , vr } una base de Nu(A). La clave del ejercicio
es, usando un poco de imaginación y la prueba del teorema de la dimensión, probar que
L(vi ) ∈ Nu(A),
pues A(L(vi )) = (A ◦ L)(vi ) = (L ◦ A)(vi ) = L(A(vi )) = L(0V ) = 0V , donde usamos que, como
{v1 , v2 , · · · , vr } es una base de Nu(A), entonces v1 , v2 , · · · , vr ∈ Nu(A).
Veamos que el conjunto {L(v1 ), L(v2 ), · · · , L(vr )} es LI. Sean a1 , a2 , · · · , ar ∈ K tales que
L(a1 v1 + a2 v2 + · · · + ar vr ) = 0V ,
a1 v1 + a2 v2 + · · · + ar vr = 0V ,
y tenemos un CL de los vectores v1 , v2 , · · · , vr igualada al elemento neutro de V. Entonces como
{v1 , v2 , · · · , vr } es LI (porque es una base) se sigue que a1 = a2 = · · · = ar = 0. Entonces el
conjunto {L(v1 ), L(v2 ), · · · , L(vr )} es LI.
Probamos que el conjunto {L(v1 ), L(v2 ), · · · , L(vr )} tiene r vectores LI que pertenecen a Nu(A),
entonces como dim(Nu(A)) = r, tenemos que {L(v1 ), L(v2 ), · · · , L(vr )} es una base de Nu(A).
Ahora sí, estamos listos para probar la otra inclusión que nos quedaba, es decir, veamos que
Nu(A ◦ L) ⊆ Nu(A) ⊕ Nu(L).
103
2. Transformaciones Lineales
L(x) = L(b1 v1 + b2 v2 + · · · + br vr ).
Pasando de miembro y usando nuevamente que L es una TL, nos queda que
entonces, x − b1 v1 − b2 v2 − · · · − br vr ∈ Nu(L).
Observar que
x = [b1 v1 + b2 v2 + · · · + br vr ] + [x − b1 v1 − b2 v2 − · · · − br vr ].
x = x1 + x2 ,
con x1 ∈ Nu(A) y x2 ∈ Nu(L). Por lo tanto x ∈ Nu(A)⊕Nu(L), y tenemos que Nu(A◦L) ⊆ Nu(A)⊕
Nu(L). Como ya habíamos probado la otra inclusión, concluimos que Nu(A ◦ L) = Nu(A) ⊕ Nu(L),
como queríamos ver.
Finalmente, como probamos que Nu(A ◦ L) = Nu(L) ⊕ Nu(A), usando el item c) es inmediato
ver que para cada w ∈ Nu(A) ∩ Im(L) existe un único v ∈ Nu(A) tal que L(v) = w. La prueba es
idéntica al item c) tomando S = Nu(A).
Nota: Usando la hipótesis Nu(A) ∩ Nu(L) = {0}, observar que para demostrar el ítem
d) sólo usamos que dim(Nu(A)) es finita y bastó con eso. Es decir si dim(Nu(L)) no es finita
pero dim(Nu(A)) sí es finita (por lo que dim(Nu(A ◦ L)) tampoco es finita) sigue valiendo que
Nu(A ◦ L) = Nu(A) ⊕ Nu(L). Con argumentos muy parecidos a los que usamos para demostrar el
ítem d), si pedimos que dim(Nu(L)) es finita pero dim(Nu(A)) es no finita también sigue valiendo
que Nu(A ◦ L) = Nu(A) ⊕ Nu(L). El problema ocurre cuando dim(Nu(A)) y dim(Nu(L)) son ambas
no finitas (y por ende también dim(Nu(A ◦ L)) es no finita), en ese caso no tiene porque ser cierto
que Nu(A ◦ L) = Nu(A) ⊕ Nu(L).
Antes de pasar al próximo ejercicio, repasemos una propiedad que vimos en la prueba de la
Proposición 2.7.1, si α, β ∈ C y D es el operador diferencial, entonces
104
2.7. Ecuaciones diferenciales. Operador derivación
Dem. a) : Para resolver este ejercicio vamos a usar el Ejercicio 2.27 b), c) y el Ejercicio 2.29.
Llamemos R := (D − 2I), S := (D − 4I) y T := (D + 3I)2 . Entonces,
L = R ◦ S ◦ T.
Por el Ejercicio 2.27 b), c) tenemos que BR = {e2x }, BS = {e4x } y BT = {e−3x , xe−3x } son
bases de Nu(R), Nu(S) y Nu(T ), respectivamente.
Para encontrar una base de Nu(L), vamos a usar el Ejercicio 2.29 c) dos veces.
Primero, usando la propiedad (2.5), es fácil ver que S ◦ T = T ◦ S, por otra parte, es claro que
Además, Nu(S) y Nu(T ) son de dimensión finita. Entonces podemos usar el Ejercicio 2.29 d) y
por lo tanto, tenemos que
Además, Nu(R) y Nu(S ◦ T ) son de dimensión finita. Entonces podemos usar nuevamente el
Ejercicio 2.29d) y por lo tanto, tenemos que
donde usamos el Ejercicio 2.27 a) y el hecho de que f 4 (x) = (5x3 )0000 = (15x2 )000 = (30x)00 =
(30)0 = 0. Por lo tanto A[p] = 0, donde 0 denota la transformación lineal nula.
c) : Observar que
donde usamos que por la propiedad (2.5), todos los operadores involucrados conmutan.
Si llamamos T̃ := (D + 3I)6 , con la misma notación que el item a), tenemos que
A ◦ L = R ◦ S ◦ T̃
Es claro que Nu(S) ◦ Nu(T̃ ) = {0} (verificarlo) y ambos subespacios son de dimensión finita.
105
2. Transformaciones Lineales
Por lo tanto, de la misma manera que lo hicimos en el item a), aplicando el Ejercicio 2.29 d),
se sigue que
Entonces,
gen(BAL \ BL ) = gen{x2 e−3x , x3 e−3x , x4 e−3x , x5 e−3x }.
Vamos a comprobar que existe una solución particular yp perteneciente al subespacio
gen(BAL \ BL ). Para eso, sea y ∈ gen(BAL \ BL ), entonces
y(x) = ax2 e−3x + bx3 e−3x + cx4 e−3x + dx5 e−3x = (ax2 + bx3 + cx4 + dx5 )e−3x ,
para ciertos a, b, c, d ∈ C. Entonces, con la notación del item a) y usando el Ejercicio 2.27 a) con
f (x) = ax2 + bx3 + cx4 + dx5 , tenemos que y(x) = f (x)e−3x y
= (ax2 + bx3 + cx4 + dx5 )00 e−3x = (2ax + 3bx2 + 4cx3 + 5dx4 )0 e−3x =
= (2a + 6bx + 12cx2 + 20dx3 )e−3x .
Ahora, llamemos g(x) := 2a + 6bx + 12cx2 + 20dx3 , entonces T [y(x)] = g(x)e−3x . Entonces
d[g(x)e−3x ]
= − 4g(x)e−3x = g 0 (x)e−3x − 3g(x)e−3x − 4g(x)e−3x =
dx
= (−7g(x) + g 0 (x))e−3x = −7g(x)e−3x + (6b + 24cx + 60dx2 )e−3x =
= [−14a + 6b + (−42b + 24c)x + (−84c + 60d)x2 − 140dx3 ]e−3x .
Finalmente, llamemos h(x) := [−14a + 6b + (−42b + 24c)x + (−84c + 60d)x2 − 140dx3 ], entonces
(S ◦ T )[y(x)] = h(x)e−3x . Entonces
d(h(x)e−3x )
= − 2h(x)e−3x = h0 (x)e−3x − 3h(x)e−3x − 2h(x)e−3x =
dx
= [−5h(x) + h0 (x)]e−3x =
= [70a − 72b + 24c + (210b − 288c + 120d)x + (420c − 720d)x2 + 700x3 ]e−3x .
Como, para todo x ∈ R, tenemos que
L[y(x)] = [70a − 72b + 24c + (210b − 288c + 120d)x + (420c − 720d)x2 + 700dx3 ]e−3x = 5x3 e−3x ,
70a − 72b + 24c + (210b − 288c + 120d)x + (420c − 720d)x2 + 700dx3 = 5x3 .
106
2.7. Ecuaciones diferenciales. Operador derivación
Entonces
Entonces, d = 5
700 = 140 ;
1
c= 72
42 d = 72
42×140 = 245 ;
3
b= 288c−120d
210 = 1225 ;
107
a= 72b−24c
70 = 2872
42875 . Por
lo tanto
2872 2 107 3 3 4 1 5 −3x
yp = ( x + x + x + x )e ,
42875 1225 245 140
es una solución particular perteneciente al subespacio gen(BAL \ BL ). Se recomienda revisar bien
las cuentas porque es altamente probable que alguna cuenta este mal.
e) : La solución general ys tiene la forma ys = yh + yp , donde yh ∈ Nu(L) e yp es una solución
particular. Usando los item a) y d) tenemos que,
Con lo que vimos en el Ejercicio 2.30, es fácil ver que si tenemos el operador
Es decir, la solución del sistema homogéneo L[y] = 0 se puede obtener factorizando el operador
L como L = (D −λ1 )k1 (D −λ2 )k2 · · · (D −λn )kn donde k1 , · · · , kn ∈ N y λ1 , · · · , λn ∈ C todas
distintas entre sí (es decir las raíces del polinomio característico asociado a L se cuentan una
vez). Luego, la solución del sistema homogéneo L[y] = 0, se obtiene sumando las soluciones
de cada sistema homogéneo (D − λi )ki [y] = 0.
107
2. Transformaciones Lineales
Ahora sí, con todas las propiedades que vimos vamos a poder resolver los ejercicios que restan.
Ejercicio 2.33 e). Construir una ecuación diferencial
con a0 , a1 , · · · , an−1 ∈ R, del menor orden posible que tenga como soluciones:
y1 (t) = t, y2 (t) = cos(3t), y3 (t) = e−t .
Dem. e) : Para resolver este item vamos a usar el Ejercicio 2.27 y las propiedades (2.6), (2.7) y
(2.8).
Observar que, si y1 (t) = t = te0t es una solución de L[y] = 0, es porque λ1 = 0 es una raíz del
polinomio característico asociado a L. Además, como t multiplica a e0t , esa raíz es doble.
Además, si y2 (t) = cos(3t) = e0t cos(3t), es una solución de L[y] = 0, es porque λ1 = 3i
es una raíz del polinomio característico asociado a L. Como a0 , a1 , · · · , an−1 ∈ R, el polinomio
característico asociado a L tendrá coeficientes reales, entonces si λ3 = 3i es una raíz, su conjugado
λ4 = −3i también es una raíz.
Finalmente, si y3 (t) = e−t es una solución de L[y] = 0, es porque λ5 = −1 es una raíz del
polinomio característico asociado a L.
De esta manera, el polinomio mónico p de menor grado cuyas raíces son {0 (doble) , 3i, −3i, −1}
es
p(x) = x2 (x − 3i)(x + 3i)(x + 1).
108
2.7. Ecuaciones diferenciales. Operador derivación
109
CAPÍTULO 3
Espacios Euclídeos
En esta unidad, comenzaremos con el estudio de K-espacios vectoriales con producto interno.
También, vamos a generalizar los conceptos geométricos de distancia, ortogonalidad y ángulo
conocidas en R2 y en R3 , a otros espacios vectoriales.
h x, λy i = h λy, x i = λ h y, x i = λ h y, x i = λ h x, y i ,
donde usamos i.2) y ii) de la definición de producto interno y que si z, w ∈ C entonces
zw = z w.
Veamos algunos ejemplos de funciones que definen productos internos en los K-espacios
vectoriales correspondientes.
Ejercicio 3.A. Demostrar que las siguientes funciones definen productos internos en los K-espacios
vectoriales indicados:
111
3. Espacios Euclídeos
a) h ·, · i : C2 × C2 → C definida por
h x, y i = y ∗ Ax,
2
i
donde A = , define un producto interno en C2 (visto como C-espacio vectorial).
−i 2
h x, y i = Re(y ∗ x)
Dem. a): Veamos que la función h ·, · i cumple con los axiomas del producto interno.
1. h x + y, z i = z ∗ A(x + y) = z ∗ Ax + z ∗ Ay = h x, z i + h y, z i .
2. h λx, y i = y ∗ A(λx) = λy ∗ Ax = λ h x, y i .
Observar que los items i.1) y i.2) valen para cualquier matriz A.
2 i
ii) Observar que A∗ = AT = = A. Entonces, para todo x, y ∈ C2 ,
−i 2
h x, y i = y ∗ Ax = y ∗ A∗ x = (x∗ Ay)∗ = x∗ Ay = h y, x i.
Donde usamos que como x∗ Ay ∈ C entonces (x∗ Ay)T = (x∗ Ay) y entonces (x∗ Ay)∗ =
(x∗ Ay)T = (x∗ Ay).
x1
iii) Sea x = ∈ C2 entonces
x2
2 2x1 + ix2
i x1
h x, x i = x∗ Ax = [x1 x2 ] = [x1 x2 ] =
−i 2 x2 −ix1 + 2x2
b): Veamos que la función h ·, · i cumple con los axiomas del producto interno.
112
3.1. Producto interno y propiedades
iii) Sea f ∈ C([0, 1], R), entonces, como f (t)2 ≥ 0 para todo t ∈ [0, 1], se sigue que
Z 1
h f, f i = f (t)2 dt ≥ 0.
0
R1
Ahora, supongamos que h f, f i = 0 f (t) dt = 0. Si f 6= 0, entonces existe t0 ∈ [0, 1] tal
2
que f 2 (t0 ) > 0. Como f es continua, f 2 también es continua. Por definición de continuidad,
como f 2 (t0 ) > 0, existe un entorno alrededor de t0 tal que f 2 es positiva en los puntos de ese
entorno. Es decir, si llamamos := f (t20 ) , entonces existe δ > 0 tal que si |t − t0 | < δ entonces
|f 2 (t) − f 2 (t0 )| < . Por lo tanto, si |t − t0 | < δ, entonces
f 2 (t0 )
f 2 (t) > f 2 (t0 ) − = .
2
Entonces
Z 1 Z t0 −δ Z t0 +δ Z 1
h f, f i = f 2 (t)dt = f 2 (t)dt + f 2 (t)dt + f 2 (t)dt ≥
0 0 t0 −δ t0 +δ
t0 +δ t0 +δ
f 2 (t0 ) f 2 (t0 )
Z Z
f (t)dt ≥
2
dt = (t0 + δ − (t0 − δ)) = f 2 (t0 )δ > 0.
t0 −δ t0 −δ 2 2
Lo cual es absurdo, porque h f, f i = 0. Entonces h f, f i = 0 si y sólo si f = 0 o
equivalentemente, h f, f i > 0 si y sólo si f 6= 0 y se cumple iii).
c): Veamos que la función h ·, · i cumple con los axiomas del producto interno.
iii) Sea p ∈ R2 [x] entonces, h p, p i = p(0)2 + p(1)2 + p(2)2 ≥ 0. Por otra parte, si
h p, p i = p(0)2 + p(1)2 + p(2)2 = 0,
como p(0)2 ≥ 0, p(1)2 ≥ 0 y p(2)2 ≥ 0, tenemos que p(0) = p(1) = p(2) = 0. Es decir, el
polinomio p tiene 3 raíces. Como p ∈ R2 [x], por el Teorema Fundamental del Álgebra, p tiene
2 raíces ó p = 0. Como acabamos de ver que p tiene 3 raíces, se sigue que p = 0.
Por lo tanto h p, p i > 0 si y sólo si p 6= 0 y se cumple iii).
113
3. Espacios Euclídeos
d): Veamos que la función h ·, · i cumple con los axiomas del producto interno.
Donde usamos que como y ∗ x ∈ C entonces (y ∗ x)T = y ∗ x y además, Re(z) = Re(z), para
todo z ∈ C.
x1
iii) Sea x = ∈ C2 entonces
x2
Ejercicio 3.B. Justificar por qué las siguientes funciones NO definen productos internos.
φ(x, y) = x∗ Ay,
1 1
donde A = .
1 1
Dem. Observar que las funciones φ de los items a), b) y c) cumplen los ítems i.1), i.2) y ii) de la
definición de producto interno. El problema va a estar en el hecho de que ninguna cumple el item
iii).
1
a) : Sea x = ∈ C2 , entonces
−1
1 1 1
φ(x, x) = [1 − 1]T = 0,
1 1 −1
0
pero x 6= . Por lo tanto φ no cumple el axioma iii) de la definición de producto interno.
0
114
3.1. Producto interno y propiedades
pero p 6= 0 (el polinomio nulo). Por lo tanto φ no cumple el axioma iii) de la definición de producto
interno.
Ejercicio 3.1. Sea (V, h ·, · i) un C-espacio euclídeo finito dimensional y sea v0 ∈ V \ {0V } un vector
arbitrario pero fijo.
a) Comprobar que la aplicación φ : V → C definida por
φ(v) := h v, v0 i
es una funcional lineal de V. Describir su núcleo e indicar la dimensión del mismo. Observar
que
V = Nu(φ) ⊕ gen{v0 }.
Dem. a) : Usando los items i.1) y i.2) de la definición de producto interno, tenemos que, dados
u, v ∈ V y λ ∈ C,
0 = φ(v) = h v, v0 i = h αv0 , v0 i = α h v0 , v0 i .
Usando iii) de la definición de producto interno, tenemos que h v0 , v0 i > 0, pues v0 6= 0. Entonces
se sigue que α = 0, entonces v = αv0 = 0v0 = 0V , y probamos que Nu(φ) ∩ gen{v0 } = {0V }.
Veamos ahora, que V = Nu(φ) ⊕ gen{v0 }. Sea v ∈ V, entonces, como φ(v) ∈ C y φ(v0 ) 6= 0
φ(v)
(recién vimos que v0 6∈ Nu(φ)), podemos definir el siguiente escalar complejo: α := φ(v 0)
∈ C.
Entonces, es fácil ver que
v = [v − αv0 ] + αv0 .
Entonces, usando que φ es una funcional lineal y la definición de α, tenemos que
φ(v)
φ(v − αv0 ) = φ(v) − αφ(v0 ) = φ(v) − φ(v0 ) = 0.
φ(v0 )
Por lo tanto, v−αv0 ∈ Nu(φ). Entonces v = v1 +v2 con v1 := v−αv0 ∈ Nu(φ) y v2 := αv0 ∈ gen{v0 }.
Por lo tanto v ∈ Nu(φ) ⊕ gen{v0 } y se sigue que
V = Nu(φ) ⊕ gen{v0 }.
115
3. Espacios Euclídeos
Observar que para hacer estas cuentas no usamos que V es de dimensión finita.
Finalmente, ahora sí, como V es de dimensión finita, podemos aplicar el Teorema de la dimensión
de la suma de subespacios y entonces,
Notar que
para la última igualdad usamos la definición de subespacio ortogonal del conjunto gen{v0 } que
veremos con detalle en la Sección 3.4.
b) Tomemos i ∈ C, entonces usando los items i.1) y ii) de la definición de producto interno,
tenemos que
ψ(iv0 ) = h v0 , iv0 i = i h v0 , v0 i = −iψ(v0 ) 6= iψ(v0 ),
donde usamos que ψ(v0 ) = h v0 , v0 i > 0 para afirmar que −iψ(v0 ) 6= iψ(v0 ). Por lo tanto, ψ no es
una funcional lineal, ya que existe un escalar α ∈ C tal que ψ(αv0 ) 6= αψ(v0 ).
i) kxk = 0 si y sólo si x = 0V .
ii) kλxk = |λ| kxk, para todo x ∈ V, λ ∈ C.
iii) kx + yk ≤ kxk + kyk, para todo x, y ∈ V (desigualdad triangular).
define una norma en V. Dicha norma se llama la norma inducida por el producto interno.
define una norma en V. Ayuda: para el item iii) usar la desigualdad de Cauchy-Schwarz.
La siguiente es una propiedad que se deduce de la definición de norma y que usaremos más
adelante:
Sean u, v ∈ V. Entonces
| kuk − kvk | ≤ ku − vk. (3.1)
Por lo tanto, tenemos que −ku−vk ≤ kuk−kvk ≤ ku−vk. Equivalentemente | kuk−kvk | ≤ ku−vk,
y probamos los que queríamos.
116
3.3. Matriz de Gram, Gramiano y triángulos
Sea (V, h ·, · i) un K-espacio euclídeo, k · k la norma inducida por el producto interno y sean
u, v ∈ V. Las siguientes propiedades resultan útiles para la resolución de varios ejercicios.
117
3. Espacios Euclídeos
(A + B)∗ = A∗ + B ∗ , A, B ∈ Cm×n .
(A∗ )∗ = A, A ∈ Cm×n .
para todo x, y ∈ V.
Usando los items i.1), i.2) y ii) de la definición de producto interno, tenemos que
h x, y i = h a1 v1 + · · · + an vn , b1 v1 + · · · + bn vn i
= a1 b1 h v1 , v1 i + · · · + a1 bn h v1 , vn i + · · · + an b1 h vn , v1 i + · · · + an bn h vn , vn i
b1 b1
b2 b2
= a1 [h v1 , v1 i · · · h v1 , vn i] . + · · · + an [h vn , v1 i · · · h vn , vn i] .
.
. . .
bn bn
b1
b2
= [a1 a2 · · · an ] GB .. = ([x]B )T GB [y]B .
.
bn
118
3.3. Matriz de Gram, Gramiano y triángulos
Por último, como h x, y i = [([x]B )T GB [y]B ] ∈ C arriba vimos que [([x]B )T GB [y]B ]T =
[([x]B )T GB [y]B ], es decir la transpuesta de un número es el mismo número. Entonces, tenemos que
T
h x, y i = ([x]B )T GB [y]B = [([x]B )T GB [y]B ]T = [y]B GTB (([x]B )T )T = ([y]B )∗ GTB [x]B .
Veamos que GB es única. Supongamos que existe otra matriz A ∈ Cn×n tal que
1
0
Entonces tomemos x = y = v1 , entonces, es claro que [x]B = [y]B = .. = e1 (el primer vector
.
0
de la base canónica de Cn ). Entonces,
Por lo tanto, el lugar (i, j) de A y GB coinciden para todo i ∈ {1, 2, · · · , n} y j ∈ {1, 2, · · · , n}.
Entonces A = GB como queríamos ver.
b) : Recordar que MBB0 es la matriz cuyas columnas son las coordenadas de los vectores
v1 , v20 , · · · , vn0 en la base B, es decir
0
([v10 ]B )T
([v20 ]B )T
Es fácil verificar que (MBB0 )T = .. . Entonces
.
([vn0 ]B )T
([v10 ]B )T
([v20 ]B )T
(MBB0 )T GB MBB0 = .. GB [ [v10 ]B [v20 ]B · · · [vn0 ]B ] =
.
([vn0 ]B )T
119
3. Espacios Euclídeos
Ejercicio 3.3. En cada uno de los siguientes casos, verificar que la fórmula
h x, y i := y T Gx,
1 cos(θ)
b) G ∈ G2 := { : θ ∈ (0, π)}.
cos(θ) 1
l12 l1 l2 cos(θ)
c) G ∈ G3 := { : θ ∈ (0, π), l1 , l2 > 0}.
l1 l2 cos(θ) l22
a b a b
d) G ∈ G4 := { : a > 0, det > 0}.
b c b c
raíz (que es una función creciente) se sigue que |b| < a c = l1 l2 . Por lo tanto,
|b|
< 1.
l1 l2
Entonces, podemos definir θ := arc cos( l1bl2 ) ∈ (0, π) y entonces b = l1 l2 cos(θ). Por lo tanto G4 ⊆ G3
y, como ya probamos la otra inclusión, concluimos que G3 = G4 .
120
3.3. Matriz de Gram, Gramiano y triángulos
h x, y i = y T Gx = (y T Gx)T = xT GT (y T )T = xT Gy = h y, x i ,
a b
donde usamos que G = = GT y que y T Gx ∈ R.
b c
x1
iii) Sea x = ∈ R2 entonces,
x2
a b x1
h x, x i = xT Gx = [x1 x2 ] = ax21 + 2bx1 x2 + cx22 .
b c x2
√
Usando que a > 0 podemos completar cuadrados y concluir que
√ b b2
ax21 + 2bx1 x2 + cx22 = ( ax1 + √ x2 )2 + (c − )x22 .
a a
√ b2
Entonces, h x, x i = ( 2x1 + √b x2 )2
a
+ (c − a )x2
2
≥ 0, porque ac − b2 > 0 y, como a > 0, se
b2
sigue que c − a > 0. Por otra parte, si
√ b b2
h x, x i = ( ax1 + √ x2 )2 + (c − )x22 = 0,
a a
√ b2
como cada sumando es mayor o igual a cero, tenemos que ( ax1 + √b x2 )2
a
= (c − a )x2
2
= 0.
2 2
Entonces, como (c − ba ) > 0 y (c − ba )x22 = 0, se sige que x2 = 0. Finalmente, como
√ 0
0 = ( ax1 + √a x2 ) = ax1 y a > 0, se sigue que x1 = 0. Por lo tanto x =
b 2 2
.
0
0
Probamos que h x, x i > 0 si y sólo si x 6= y se cumple iii).
0
1 0
a b a b
y Gx = [0 1]
T
= b = [1 0]
0
= b.
b0 c 0 b0 c 1
a b
Por lo tanto G = . Por último, tenemos que
b c
h x, x i = xT Gx > 0,
121
3. Espacios Euclídeos
0 1
para todo x 6= . En particular, si tomamos x = , entonces
0 0
1 1 1
a b
, = [1 0] = a > 0.
0 0 b c 0
Sólo nos resta probar que det(G) > 0. Para eso, consideremos la función f : [0, 1] → R, definida por
1 0
donde I = es la matriz identidad de 2 × 2. Claramente f es una función continua
0 1
(básicamente por que f en definitiva
es un polinomio en t). Además, f (0) = det(G) y f (1) =
0
det(I) = 1. Supongamos que x 6= , entonces
0
pues xT x > 0, t ∈ [0, 1] y estamos usando que xT Gx > 0. Entonces f (t) = det(tI + (1 − t)G) 6= 0,
porque si tI + (1 − t)G fuera una matriz singular (no inversible o con determinante nulo), existiría
algún vector no nulo v ∈ R2 tal que (tI + (1 − t)G)v = 0, con lo que v T [tI + (1 − t)G]v = 0, que
sería una contradicción. Por lo tanto, f (t) 6= 0, para todo t ∈ [0, 1].
Como f (1) = 1 > 0 y f es continua, si f (t) = det(G) < 0, por el Teorema de Bolzano, existiría
algún t ∈ [0, 1] tal que f (t) = 0. Como probamos que f (t) 6= 0 para todo t ∈ [0, 1], se sigue que
f (0) = det(G) > 0.
La siguiente propiedad la vamos a usar para resolver el Ejercicio 3.6 y tiene interés en sí
misma.
Antes de comenzar con la demostración, veamos una manera conveniente de escribir la matriz
G{x1 ,x2 ,··· ,xr } .
Sea B = {v1 , · · · , vn } una base ortonormal de V. Es decir kvi k = 1 para todo i = 1, 2 · · · , n y
h vi , vj i = 0 para todo i 6= j. Entonces, tenemos que GB = In×n (comprobarlo) y, por el Ejercicio
3.C a),
h xi , xj i = ([xj ]B )∗ GTB [xi ]B = ([xj ]B )∗ [xi ]B ,
para todo i = 1, 2, · · · , r y j = 1, 2, · · · , r. Sea
la matriz que resulta de poner en sus columnas las coordenadas en base B de los vectores
x1 , x2 , · · · , xr . Entonces, observar que
h x1 , x1 i h x2 , x1 i · · · h xr , x1 i
h x1 , x2 i h x2 , x2 i · · · h xr , x2 i
GT{x1 ,x2 ,··· ,xr } = .. .. .. =
. . .
h x1 , xr i h x2 , xr i ··· h xr , xr i
122
3.3. Matriz de Gram, Gramiano y triángulos
a1 x1 + a2 x2 + · · · + ar xr = 0V .
Por lo tanto z ∈ nul(GT{x1 ,x2 ,··· ,xr } ). Entonces como z 6= 0Kr , se sigue que dim(nul(GT{x1 ,x2 ,··· ,xr } )) >
0 ó, usando el Teorema de la Dimensión, se sigue que rg(GT{x1 ,x2 ,··· ,xr } ) < r. Por lo tanto,
GT{x1 ,x2 ,··· ,xr } es una matriz de r × r cuyo rango no es completo, entonces det(GT{x1 ,x2 ,··· ,xr } ) = 0.
Finalmente como el determinante de una matriz y el determinante de su transpuesta coinciden,
tenemos det(G{x1 ,x2 ,··· ,xr } ) = det(GT{x1 ,x2 ,··· ,xr } ) = 0.
Recíprocamente, si det(G{x1 ,x2 ,··· ,xr } ) = 0, entonces det(GT{x1 ,x2 ,··· ,xr } ) = det(G{x1 ,x2 ,··· ,xr } ) =
0. Entonces, existe un vector no nulo z = [z1 z2 · · · zr ]T ∈ Kr tal que
Entonces,
z ∗ A∗ Az = z ∗ 0Kr = 0.
Observar que z ∗ A∗ Az = (Az)∗ (Az) = kAzkpic , donde k · kpic denota el producto interno canónico
de Kn . Entonces,
kAzkpic = 0.
Por lo tanto, por definición de norma, Az = 0Kn , entonces
Entonces,
z1 x1 + z2 x2 + · · · + zr xr = 0V ,
y como z1 , z2 , · · · , zr ∈ K son escalares no todos nulos, se sigue que {x1 , x2 , · · · , xr } es un conjunto
LD de V.
123
3. Espacios Euclídeos
c = v − u, a = w − v, b = u − w.
h a, −c i h −a, b i
Para obtener los ángulos interiores del triángulo, observar los signos que usamos en las fórmulas de
los ángulos.
La altura del triángulo se obtiene como
cos(α)2 + sin(α)2 = 1.
124
3.3. Matriz de Gram, Gramiano y triángulos
ku1 k2
h u1 , u2 i h u1 , u3 i
GB = h u2 , u1 i ku2 k2 h u2 , u3 i .
h u3 , u1 i h u3 , u2 i ku3 k2
0 π6 π6
Θ = π6 0 π6 .
π
6
π
6 0
c = v − u = u2 − u1 , b = u − w = u1 − u3 .
√ √
Entonces kck2 = ku2 − u1 k2 = 2 − 3, kbk2√= ku√ 1 − u3 k =
2
√
2 − √3 y h c, b i = h u2 − u1 , u1 − u3 i =
h u2 , u1 i − h u2 , u3 i − ku1 k2 + h u1 , u3 i = 23 − 23 − 1 + 23 = 3−2 2 . Entonces
√
h c, −b i
2
( 2−2 3 )2 1
cos(α)2 = = √ = .
kck2 kbk2 (2 − 3) 2 4
Entonces √
1 3
r
sin(α) = 1 − cos(α)2 = 1− =
p
.
4 2
q √ q √ √3 √ √3 √
Por lo tanto, AreaT = kck khk
2 = kck kbk sin(α)
2 = (2 − 3) (2 − 3) 4 = (2 − 3) 4 = 3 3
2 − 4.
d) : Con la notación de la Figura 3.1, buscamos un triangulo de vértices u, v, w ∈ V tales
que α = π2 (triángulo rectángulo) u, v, w ∈ gen{u1 , u2 } y los catetos que son c y b midan 3 y 4
respectivamente, es decir kck = kv − uk = 3, kbk = ku − wk = 4, y 0 = h c, −b i = h v − u, w − u i .
Como nos piden un triángulo (es decir no tenemos que hallar todos los triángulos que cumplen lo
anterior), para simplificar cuentas, podemos suponer que u = 0V , v = z0 u1 , para cierto z0 ∈ R y
125
3. Espacios Euclídeos
3 3 1
16 = z22 + z22 − z22 = z22 .
4 2 4
√ √ √
Entonces |z2 | = 64 = 8. Tomamos z2 = 8 y entonces z1 = −8 23 = −4 3.
√
Entonces, el triangulo T de vértices u = 0V , v = 3u1 y w = −4 3u1 + 8u2 , cumple con lo
pedido.
Ejercicio 3.6. Sea (V, h ·, · i) un R-espacio vectorial. Sean v1 , v2 dos vectores linealmente
independientes. Demostrar que la suma de los ángulos internos del triángulo de vertices 0V , v1 , v2
es π.
a + b + c = v2 − v1 − v2 + v1 = 0V ,
kak2 h a, b i h a, c i
Desarrollando el determinante por la primera columna, operando y usando que como estamos en
un R-espacio vectorial el producto interno es simétrico, tenemos que
2 2 2
kak2 kbk2 kck2 − kak2 h b, c i − h a, b i kck2 − h a, c i kbk2 + 2 h b, c i h a, b i h a, c i = 0.
Ahora, si dividimos la expresión anterior por kak2 kbk2 kck2 6= 0 y normalizamos los vectores,
nos queda:
2
2 2
1 − b̃, c̃ − ã, b̃ − h ã, c̃ i + 2 b̃, c̃ ã, b̃ h ã, c̃ i = 0.
2 2 2
2 2
Entonces (1 − b̃, c̃ )(1 − ã, b̃ ) − b̃, c̃ ã, b̃ = h ã, c̃ i − 2 b̃, c̃ ã, b̃ h ã, c̃ i .
Entonces,
2 2 2
2 2
(1 − b̃, c̃ )(1 − ã, b̃ ) = b̃, c̃ ã, b̃ + h ã, c̃ i − 2 b̃, c̃ ã, b̃ h ã, c̃ i
126
3.3. Matriz de Gram, Gramiano y triángulos
√ q 2
Recordemos que: cos α = c̃, −b̃ , entonces sin α = 1 − cos α2 = 1 − c̃, b̃ . De la
q
2
misma manera, tenemos que cos β = h ã, −c̃ i , sin β = 1 − h ã, c̃ i , cos γ = −ã, b̃ , sin γ =
q 2
1 − ã, b̃ .
Entonces, reemplazando en la ecuación anterior por las expresiones de los cosenos y senos de los
ángulos correspondientes, nos queda:
π − β = α + γ, entonces α + β + γ = π
h c, −b i h c, a + c i h a, c i kck2 h a, c i
cos α = = 2
= 2
+ 2
=1+ ,
kbkkck kak kak kak kak2
h a, −b i h a, a + c i h a, c i kak2 h a, c i
cos γ = = 2
= 2
+ 2
=1+ .
kakkbk kak kak kak kak2
Entonces cos α = cos γ y como en [0, π] el coseno es inyectivo, tenemos que α = γ. De manera
similar, se prueba que α = β. Por lo tanto, tenemos que α = β = γ.
Ahora sí, resolvamos el ejercicio.
Dem. Notar que el conjunto {v, w} es una base (no ortogonal) del espacio R2 . Entonces, dados
x, y ∈ R2 , vale que x = αv + βw e y = α0 v + β 0 w, con α, β, α0 , β 0 ∈ R. Por lo tanto, usando la
linealidad del producto interno, tenemos que
127
3. Espacios Euclídeos
Como el triángulo en cuestión es equilátero, vimos que sus lados y sus ángulos son iguales. Por
el Ejercicio 3.6, tenemos que α + β + γ = π. Por lo tanto
π
α=β=γ= .
3
Recordemos que √
√ kckkbk sin α kbk2 sin π3 kbk2 3
3 = AT = = = .
2 2 4
Despejando, se sigue que kbk = 2. Entonces kwk = k − bk = 2 y kvk = kck = kbk = 2. Finalmente,
tenemos que h v, w i = h c, −b i = cos(α)kbkkck = cos( π3 )4 = 2.
Entonces, si x = αv + βw e y = α0 v + β 0 w, con α, β, α0 , β 0 ∈ R, concluimos que
1. A⊥ es un subespacio de V.
2. A ∩ A⊥ = {0V }.
3. Si B ⊆ V es un conjunto no vacío tal que B ⊆ A entonces A⊥ ⊆ B ⊥ .
h 0V , a i = h 0 · 0V , a i = 0 h 0V , a i = 0.
128
3.4. Subespacio ortogonal, sistemas y bases ortonormales
w ∈ S ⊥ si y sólo si h w, v1 i = h w, v2 i = · · · = h w, vr i = 0. (3.8)
Es decir, para ver que w ∈ S ⊥ basta ver que w es ortogonal a cada generador de S.
h w, s i = h w, a1 v1 + a2 v2 + · · · + ar vr i = a1 h w, v1 i + a2 h w, v2 i + · · · + ar h w, vr i = 0,
h ui , uj i = 0 para todo i 6= j.
Veamos un ejemplo:
Ejercicio 3.F. Comprobar que los siguientes sistemas de vectores son ortonormales en su
correspondiente espacio euclídeo:
El sistema {eikt : k ∈ Z} en el espacio C([−π, π]) con el producto interno definido por
1
Z π
h f, g i := f (t)g(t)dt.
2π −π
129
3. Espacios Euclídeos
130
3.5. Proyección ortogonal
Ejercicio 3.H (De Parcial). En el R-espacio vectorial R2 [x] se define la función Φ : R2 [x]×R2 [x] → R
como Z 2
Φ(p, q) := (1 − x)f (x)g(x)dx.
0
Sea S = gen{(1 − x)2 }. Entonces:
a) Hallar una base de T := {p ∈ R2 [x] : Φ(p, q) = 0 para todo q ∈ S}.
b) Probar que S ⊆ T .
c) Decidir si Φ define un producto interno en R2 [x].
Dem. a) : Busquemos una base de T . Tenemos que p ∈ T si p ∈ R2 [x], es decir p(x) = ax2 + bx + c
con a, b, c ∈ R y Φ(p, q) = 0 para todo q ∈ S. Si q ∈ S, entonces q(x) = α(1 − x)2 , con α ∈ R.
Entonces, Φ(p, α(1 − x)2 ) = 0, para todo α ∈ R. En particular, lo anterior vale para α = 1. Entonces
Z 2
0 = Φ(ax2 + bx + c, (1 − x)2 ) = (1 − x)(ax2 + bx + c)(1 − x)2 dx
0
Z 2
= (1 − x) (ax + bx + c)dx
3 2
0
x 3x5 3x4 x3 x 3x4 x2 (1 − x)4 2
= a[− + − + ] + b[− + − x3 + ] + c[− ]|0
6 5 4 3 5 4 2 4
−4a −2b 4a 2b
= + +c·0=− − .
5 5 5 5
Despejando, nos queda b = − 4a
5 2 = −2a. Por lo tanto p(x) = ax − 2ax + c = a(x − 2x) + c · 1,
5 2 2
h v, v1 i h v, v2 i h v, vr i
v̂ = v1 + v2 + · · · + vr .
kv1 k2 kv2 k2 kvr k2
131
3. Espacios Euclídeos
Dem. Primero veamos que de existir la proyección ortogonal de v sobre S, esta es única. De hecho,
supongamos que v̂ y ŵ son dos proyecciones ortogonales de v sobre S. Entonces
Im(PS ) = S y Nu(PS ) = S ⊥ .
132
3.5. Proyección ortogonal
Vamos a remarcar todas estas propiedades que probamos para tenerlas presentes:
h v, v1 i h v, v2 i h v, vr i
PS (v) := v̂ = v1 + v2 + · · · + vr , (3.9)
kv1 k2 kv2 k2 kvr k2
PS ⊥ = IV − PS . (3.10)
Observar que si T es un proyector, tenemos que Im(T ) y Nu(T ) están en suma directa (no
necesariamente son ortogonales). Por otra parte, si T es un proyector ortogonal entonces T es
un proyector y además Im(T ) = Nu(T )⊥ , es decir Im(T ) y Nu(T ) son ortogonales entre sí (en
particular están en suma directa). Todo proyector ortogonal es un proyector, pero obviamente no
todo proyector es un proyector ortogonal. Por ejemplo, en R2 con el producto interno canónico,
definimos T : R2 → R2 , como
1 1 0 0
T( )= , T( )= .
1 1 1 0
0
Entonces T es un proyector (verificarlo). Pero como Nu(T ) = gen{ } NO es ortogonal a
1
1
Im(T ) = gen{ }, concluimos que T NO es un proyector ortogonal.
1
v = PS (v) + (v − PS (v)).
133
3. Espacios Euclídeos
Donde ı́nf denota el ínfimo del conjunto en cuestión. Notar que como S es un subespacio, entonces
el conjunto {kv − sk : s ∈ S} =
6 ∅ y además, kv − sk ≥ 0 para todo s ∈ S. Por lo tanto, el conjunto
en cuestión es no vacío y acotado inferiormente, entonces existe el ínfimo y d(v, S) queda bien
definida.
En el siguiente teorema probaremos que si S es de dimensión finita, ese ínfimo en realidad es un
mínimo y el vector que realiza el mínimo es justamente v̂ = PS (v).
Teorema 3.5.3. Sea (V, h ·, · i) un K-espacio euclídeo de dimensión finita y S ⊆ V un subespacio.
Entonces
d(v, S) = kv − PS (v)k = kPS ⊥ (v)k.
Tomando raíz en la ecuación anterior, se sigue que kv − sk ≥ kv − PS (v)k para todo s ∈ S. Además
como PS (v) ∈ S, concluimos que PS (v) realiza el mínimo del conjunto {kv − sk : s ∈ S}.
Por lo tanto
d(v, S) = kv − PS (v)k = kPS ⊥ (v)k,
donde para la última igualdad usamos que por (3.10), tenemos que PS ⊥ = IV − PS . Entonces
1 −1
b) Hallar la proyección ortogonal de B = sobre S. Calcular d(B, S).
1 1
1 0 0 1 0 0
S = gen{ , , }.
0 0 1 0 0 1
134
3.5. Proyección ortogonal
Observar que
1 0 0 1 0 1 1 0 0 0
, = tr( ) = tr( ) = 0,
0 0 1 0 1 0 0 0 1 0
0 1 0 0 0 0 0 1 0 0
, = tr( ) = tr( ) = 0,
1 0 0 1 0 1 1 0 1 0
1 0 0 0 0 0 1 0 0 0
, = tr( ) = tr( ) = 0.
0 0 0 1 0 1 0 0 0 0
1 0 0 1 0 0
Entonces, BS = { , , } es una base ortogonal de S. Y podemos
0 0 1 0 0 1
usar la ecuación (3.9). Entonces
1 0 0 1
X, X,
0 0 1 0 1 0 0 1
PS (X) = +
1 0 0 0 0 1 1 0
k k2 k k2
0 0 1 0
0 0
X,
0 1 0 0
+ .
0 0 0 1
k k2
0 1
1 0 0 0 0 1
Haciendo cuentas, tenemos que k k2 = 1, k k2 = 1 y k k2 = 2.
0 0 0 1 1 0
x1 x2
Por otra parte, si X = ∈ R2×2 , se sigue que
x3 x4
1 0 1 0
x1 x2 x1 x2 x1 x2
, = tr( ) = tr( ) = x1 .
x3 x4 0 0 0 0 x3 x4 0 0
0 1
x1 x2
Operando de manera similar, tenemos que , = x2 + x3 y
x3 x4 1 0
0 0
x1 x2
, = x4 . Entonces, reemplazando, nos queda:
x3 x4 0 1
1 0 x2 + x3 0 1 0 0 x2 +x3
x1
PS (X) = x1 +( ) + x4 = 2 .
0 0 2 1 0 0 1 x2 +x3
2 x4
Observar que (obviamente) PS (X) siempre es simétrica pues por definición PS (X) ∈ S.
0 1
Otra manera de resolver este ejercicio es observar que por un lado ∈ S ⊥ (hacer la
−1 0
cuenta) y como, por la Proposición 3.5.2, dim(S ⊥ ) = dim(R2×2 ) − dim(S) = 4 − 3 = 1, tenemos
0 1 0 1
que S ⊥ = gen{ }. Una base de S ⊥ (ortogonal) es BS ⊥ = { }. Entonces
−1 0 −1 0
(verificarlo haciendo las cuentas),
0 1
X,
−1 0 0 1 0 x2 −x3
PS ⊥ (X) = = 2 .
0 1 −1 0 x3 −x2
0
k k2 2
−1 0
Entonces, por la ecuación (3.10),
0 x2 −x3 x2 +x3
x1 x2 x1
PS (X) = X − PS ⊥ (X) = − 2 = 2 ,
x3 x4 x3 −x2
2 0 x2 +x3
2 x4
135
3. Espacios Euclídeos
1 −1 1 −1+1
1 0
PS (B) = PS ( )= 2 = .
1 1 −1+1
2 1 0 1
Finalmente,
1 1 0 0 −1
−1
d(B, S) = kB − PS (B)k = k − k=k k=
11 0 1 1 0
0 1 0 1 0 √
−1
[tr( )]1/2 = [tr( )]1/2 = 2.
−1 0 1 0 0 1
[PS ]B
B = [ [PS (w1 )] [PS (w2 )]
B B
· · · [PS (wn )]B ] ∈ Kn×n ,
1 0 0 1 0 0 0 0
Recordar que E = { , , , } es la base canónica de R2×2 .
0 0 0 0 1 0 0 1
Entonces, haciendo cuentas tenemos que:
1
1 0 1 0 1 0 0
PS ( )= y [PS ( )]E = 0 .
0 0 0 0 0 0
0
0
0 1 0 12 0 1 1
PS ( )= y [PS ( )]E = 2
1 .
0 0 1
2 0 0 0 2
0
0
0 0 0 12 0 0 1
PS ( )= y [PS ( )]E = 2
1 .
1 0 1
2 0 1 0 2
0
136
3.6. Matriz de la proyección ortogonal y distancia mínima
0
0 0 0 0 0 0 0
PS ( )= y [PS ( )]E =
0 1 0 1 0 1 0 .
1
Por lo tanto
1 0 0 1 0 0 0 0
[PS ]E = [ [P S ( )]E [PS ( )]E [PS ( )]E [PS ( )]E ]
E 0 0 0 0 1 0 0 1
1 0 0 0
0 1 1
0
= 0 1
2 2 .
2
1
2 0
0 0 0 1
[1 0 0 0]T , [1 − 1 0 0]T
PS ([1 0 0 0]T ) = [1 − 1 0 0]T
k[1 − 1 0 0]T k2
[1 0 0 0]T , [1 1 − 2 0]T
+ [1 1 − 2 0]T
k[1 1 − 2 0]T k2
1 1 2 1 1
= [1 − 1 0 0]T + [1 1 − 2 0]T = [ − − 0]T ,
2 6 3 3 3
2
3
−1
y [PS ([1 0 0 0]T )]E = 3
−1 .
3
0
Operando de manera similar, nos queda que:
− 13
2
PS ([0 1 0 0]T ) = [− 13 0]T y [PS (0 1 0 0]T )]E =
2 1
3 − 3 −1
3 .
3
0
1
−3
−1
PS ([0 0 1 0]T ) = [− 13 − 0]T y [PS (0 0 1 0] )] = 23
1 2 T E
.
3 3
3
0
0
0
PS ([0 0 0 1]T ) = [0 0 0 0]T y [PS (0 0 0 1]T )]E = 0 .
0
Por lo tanto
[PS ]E
E = [ [PS ([1 0 0 0] )]
T E
[PS ([0 1 0 0]T )]E [PS ([0 0 1 0]T )]E [PS ([0 0 0 1]T )]E ]
0
2
− 13 − 13
3
−1 2
− 13 0
= 3 3 .
−1 −1
3 3
2
3 0
0 0 0 0
Veamos a continuación un ejemplo de cálculo de matriz de la proyección ortogonal en la base
canónica de R3 donde NO usamos el producto interno canónico.
137
3. Espacios Euclídeos
h x, y i = y T −2 5 4 x
0 4 6
se consideran los subespacios S1 = {x ∈ R3 : x1 + x2 + x3 = 0} y S2 {x ∈ R3 : x1 − x3 = 0}.
a) Hallar las matrices con respecto a la base canónica de las proyecciones ortogonales de R3
sobre S1⊥ y sobre S2⊥ .
b) Sea b = [1 1 2]T . Hallar la distancia de b al subespacio S1⊥ y la distancia de b al subespacio
S2 .
c) Hallar el conjunto de todos los x ∈ R3 cuya distancia a S1 coincide con su distancia a S2 .
1 0
Dem. a) : Notar que S1 = gen{−1 , 1 }. Por otra parte, por (3.8),
0 −1
* 1 + * 0 +
S1⊥ = {x ∈ R3 : x, −1 = x, 1 = 0}.
0 −1
x1
Por lo tanto, x = x2 ∈ S1⊥ si
x3
1 + 2 0 x1 2x1 − 2x2
* −2
0 = x, −1 = [1 − 1 0] −2 5 4 x2 = [1 − 1 0] −2x1 + 5x2 + 4x3
0 0 4 6 x3 4x2 + 6x3
= 2x1 − 2x2 − (−2x1 + 5x2 + 4x3 ) = 4x1 − 7x2 − 4x3 .
y
0 2 0 x1 2x1 − 2x2
+
−2
*
0= x, 1 = [0 1 − 1] −2 5 4 x2 = [0 1 − 1] −2x1 + 5x2 + 4x3
−1 0 4 6 x3 4x2 + 6x3
= −2x1 + 5x2 + 4x3 − (4x2 + 6x3 ) = −2x1 + x2 − 2x3 .
Resolviendo el sistema 4x1 − 7x2 − 4x3 = −2x1 + x2 − 2x3 = 0. Nos queda que
−9
S1⊥ = gen{−8}.
5
1 0
−9
Consideremos el conjunto B := {−8 , −1 , 1 }. Entonces, como S1 ⊕ S1⊥ = R3 , vale que
5 0 −1
B es una base (no ortogonal) de R . Sea P la proyección ortogonal
3
sobre S1 , es decir
⊥
el proyector
1 0
−9 −9
que actúa sobre S1⊥ en la dirección S1 . Entonces, como P (−8) = −8 , P (−1) = 0 ,
5 5 0 0
0 0
138
3.6. Matriz de la proyección ortogonal y distancia mínima
[P ]E
E = [M ]B [P ]B [P ]E .
E B B
1 0
−9
Es fácil ver que la matriz de cambio de base de B a E es [M ]E
B = −8 −1 1 . Además,
5 0 −1
−1 −1 −1
[M ]B
E = ([M ]B )
E −1
= 12
1
3 −9 −9 . Por lo tanto
−5 −5 −17
−9 1 0 1 0 0 9 9 9
−1 −1 −1
1 1
[P ]E = −8 −1 1 0 0 0
E 3 −9 −9 = 8 8 8 .
12 12
5 0 −1 0 0 0 −5 −5 −17 −5 −5 −5
1 0
Por otra parte, notar que S2 = gen{0 , 1}. Además, por (3.8),
1 0
1 0
* + * +
S2⊥ = {x ∈ R3 : x, 0 = x, 1 = 0}.
1 0
x1
Por lo tanto, x = x2 ∈ S2⊥ si
x3
1 2 −2 0 x1 2x1 − 2x2
* +
0 2 0 x1 2x1 − 2x2
+
−2
*
0= x, 1 = [0 1 0] −2 5 4 x2 = [0 1 0] −2x1 + 5x2 + 4x3
0 0 4 6 x3 4x2 + 6x3
= −2x1 + 5x2 + 4x3 .
Resolviendo el sistema 2x1 + 2x2 + 6x3 = −2x1 + 5x2 + 4x3 = 0. Nos queda que
−11
S2 = gen{−10}.
⊥
1 0
−11
Consideremos el conjunto C := {−10 , 0 , 1}. Entonces, como S2 ⊕ S2⊥ = R3 , vale que
7 1 0
C es una base (no ortogonal) de R3 . Sea Q la proyección ortogonal
sobreS2 ,
⊥
es decir
el proyector
1 0
−11 −11
que actúa sobre S2⊥ en la dirección S2 . Entonces, como Q(−10) = −10 , Q(0) = 0 ,
7 7 1 0
0 0
139
3. Espacios Euclídeos
1 0 1 0 0
−11
[Q]C
C = [[Q(−10)]C
[Q(0)]C
[Q(1 )]C
] = 0 0 0 .
7 1 0 0 0 0
Haciendo el cambio de base correspondiente, vale que
[Q]E
E = [M ]C [Q]C [P ]E .
E C C
1 0
−11
Es fácil ver que la matriz de cambio de base de C a E es [M ]E
C = −10 0 1 . Además,
7 1 0
0 1
−1
[M ]C
E = ([M ]C )
E −1
= 181
7 0 11 . Por lo tanto
−10 18 10
−11 1 0 1 0 0 −1 0 1 11 0 −11
1 1
E = −10 0 1
[Q]E 0 0 0 7 0 11 = 10 0 −10 .
18 18
7 1 0 0 0 0 −10 18 10 −7 0 7
−9
b): Notar que el conjunto {−8} es una base (ortogonal) de S1⊥ . Entonces, aplicando (3.9),
5
* 1 −9 +
1 , −8
1
2 5 −9
PS1⊥ (b) = PS1⊥ (1) = −8
2 −9 5
k −8 k2
5
2 −2 0 1
[−9 − 8 5] −2 5 4 1
−9 −9 −9
0 4 6 2 −8 = −8 −8 = − 1 −8 .
=
2 −2 0 −9 24 3
[−9 − 8 5] −2 5 4 −8 5 5 5
0 4 6 5
Entonces
1
−9 −6
1 1
d(b, S1⊥ )2 = kb − PS1⊥ bk2 = k 1 + −8 k2 = k −5 k2
3 3
2 5 11
2 −2 0
−6
1 363 121
= [−6 − 5 11] −2 5 4 −5 = = .
9 9 3
0 4 6 11
q
Por lo tanto, d(b, S1⊥ ) = 121 3 =
11
√
3
.
−11
De manera similar, notar que {−10} es una base (ortogonal) de S2⊥ . Entonces, por (3.9),
7
* 1
−11 +
1 , −10
1
2 7 −11
PS2⊥ (b) = PS2⊥ (1) = −10
2 −11 7
k −10 k2
7
140
3.6. Matriz de la proyección ortogonal y distancia mínima
2 −2 0 1
[−11 − 10 7] −2 5 4 1
−11 −11 −11
0 4 6 2 2 1
= −10 = −10 =
−10 .
2 −2 0 −11 36 18
7 7 7
[−11 − 10 7] −2 5 4 −10
0 4 6 7
Entonces
−11
1
d(b, S2 )2 = kb − PS2 bk2 = kPS2⊥ bk2 = k −10 k2
18
7
2 −2 0
−11
1 1
= [−11 − 10 7] −2 5 4 −10 = .
324 9
0 4 6 7
2 −2 0 x1
[−9 − 8 5] −2 5 4 x2
0 4 6 x3 −9
PS1⊥ (x) = −8 =
2 −2 0
−9 5
[−9 − 8 5] −2 5 4 −8
0 4 6 5
−9 −9
−2(x1 + x2 + x3 ) x1 + x2 + x3
= −8 = − −8 .
24 12
5 5
2 −2 0 x1
[−11 − 10 7] −2 5 4 x2
0 4 6 x3 −11
PS2⊥ (x) = −10 =
2 −2 0 −11
[−11 − 10 7] −2 5 4 −10 7
0 4 6 7
−11 −11
2(−x1 + x3 ) −x 1 + x 3
= −10 = −10 .
36 18
7 7
Entonces
−9 −9
x1 + x2 + x3 |x1 + x2 + x3 |
kPS1⊥ (x)k = k − −8 k = k −8 k
12 12
5 5
√
|x1 + x2 + x3 | √ 6
= 24 = |x1 + x2 + x3 |.
12 6
141
3. Espacios Euclídeos
−11 −11
−x1 + x3 | − x 1 + x 3 |
kPS2⊥ (x)k = k −10 k = k −10 k
18 18
7 7
| − x1 + x3 | 1
= 6 = | − x1 + x3 |.
18 3
Igualando, nos queda resolver el sistema
√
6
| − x1 + x3 | = |x1 + x2 + x3 |.
2
Supongamos que x1 + x2 √+ x3 > 0 y x3 − x1 > 0 ó x1 + x2 + x3 < 0 y x3 − x1 < 0. Entonces,
tenemos que −x1 + x3 = 26 (x1 + x2 + x3 ). Resolviendo, nos queda que
√ √
6 6
x2 = x1 (− − 1) + x3 ( − 1).
3 3
Notar que, con lo que acabamos de resolver tenemos que
√ √ √
6 6 6
x1 + x2 + x3 = x1 (1 − − 1) + x3 (1 + − 1) = (x3 − x1 ).
3 3 3
Entonces, en este caso, x1 + x2 + x3 > 0 si y sólo si x3 − x1 > 0 y x1 + x2 + x3 < 0 si y sólo si
x3 − x1 < 0.
Ahora, supongamos que x1 + x2 +√ x3 > 0 y x3 − x1 < 0 ó x1 + x2 + x3 < 0 y x3 − x1 > 0.
Entonces, tenemos que −x1 + x3 = − 26 (x1 + x2 + x3 ). Resolviendo, nos queda que
√ √
6 6
x2 = x1 ( − 1) + x3 (− − 1).
3 3
Notar que, con lo que acabamos de resolver tenemos que
√ √ √
6 6 6
x1 + x2 + x3 = x1 (1 + − 1) + x3 (1 − − 1) = (x1 − x3 ).
3 3 3
Observar que si x1 + x2 + x3 > 0 no puede ocurrir que x3 − x1 < 0. De la misma manera, si
x1 + x2 + x3 < 0 no puede ocurrir que x3 − x1 > 0. Por lo tanto, este caso nunca ocurre y lo
descartamos.
Conclusión:
1 0
x1 √
x1 √ √ √
x = x2 = x1 (− 36 − 1) + x3 ( 36 − 1) = x1 − 36 − 1 + x3 36 − 1 ,
x3 x3 0 1
1 0
√ √
x ∈ gen{− 36 − 1 , 36 − 1}.
0 1
142
3.6. Matriz de la proyección ortogonal y distancia mínima
Calcular Z 1
mı́n (x2 − ax − b)2 dx.
a,b∈R 0
Donde (abusando de la notación) con kx2 − ax − bk2 queremos decir kpk2 con p(x) = x2 − ax − b.
Entonces
Z 1
mı́n (x2 − ax − b)2 dx = mı́n{kx2 − ax − bk2 : a, b ∈ R}
a,b∈R 0
= mı́n{kx2 − pk2 : p ∈ gen{1, x}}
= d(x2 , gen{1, x})2
= kx2 − Pgen{1,x} (x2 )k2 = kPgen{1,x}⊥ (x2 )k2 ,
h q, 1 i = h q, x i = 0.
Entonces
1
x3 x2
Z
α β
0 = h q, 1 i = [1 · (αx2 + βx + γ)]dx = α +β + γx|10 = + + γ.
0 3 2 3 2
1
x4 x3 x2
Z
α β γ
0 = h q, x i = [x · (αx2 + βx + γ)]dx = α +β + γ |10 = + + .
0 4 3 2 4 3 2
Resolviendo el sistema 0 = α3 + β2 + γ = α4 + β3 + γ2 . Nos queda que α = −β y γ = − β6 . Entonces,
volviendo a la expresión de q, tenemos que q(x) = −βx2 + βx − β6 con β ∈ R. Por lo tanto
Una base (ortogonal) del subspacio gen{1, x}⊥ puede ser {−6x2 + 6x − 1}. Entonces, por (3.9),
!
x , −6x2 + 6x − 1
2
Pgen{1,x}⊥ (x ) =
2
(−6x2 + 6x − 1)
k − 6x2 + 6x − 1k2
R1 2 !
x (−6x 2
+ 6x − 1)dx 5
= R0 1 (−6x2 + 6x − 1) = (−6x2 + 6x − 1)
(−6x + 6x − 1) dx
2 2 30
0
1
= (−6x2 + 6x − 1).
6
Por lo tanto,
1 1 1
1 1
Z
kPgen{1,x}⊥ (x2 )k2 = k (−6x2 + 6x − 1)k2 = (−6x2 + 6x − 1)2 dx = = .
6 36 0 36 · 5 180
143
3. Espacios Euclídeos
Conclusión
1
1
Z
mı́n (x2 − ax − b)2 dx = .
a,b∈R 0 180
En el próximo ejercicio veremos la diferencia entre un proyector ortogonal y un proyector que
no es ortogonal.
Ejercicio 3.12. Sean Π1 , Π2 ∈ L(R2 ) las transformaciones lineales definidas por
1 1 1 1 2 1
Π1 (x) = x, Π2 (x) = x.
2 1 1 3 2 1
a) Comprobar que Π1 y Π2 son dos proyecciones, identificando en cada caso el subespacio sobre
el que proyectan y la dirección en la qué lo hacen.
b) ¿Es Π1 una proyección ortogonal?
b) ¿Es Π2 una proyección ortogonal?
d) ¿Existe x ∈ R2 tal que kΠ1 (x)k > kxk? Si la respuesta es afirmativa, exhibir al menos uno.
e) ¿Existe x ∈ R2 tal que kΠ2 (x) > kxk? Si la respuesta es afirmativa, exhibir al menos uno.
1
Por lo tanto Π21 = Π1 y por Ejercicio 2.23, Π1 es un proyector sobre Im(Π1 ) = gen{ } en la
1
1
dirección Nu(Π1 ) = gen{ }.
−1
Por otra parte, sea x ∈ R , entonces
2
1 2 1
Π2 (x) = Π2 (Π2 (x)) = Π2
2
x
3 2 1
1 2 1 1 2 1 1 2 1
= x= x = Π2 (x).
3 2 1 3 2 1 3 2 1
1
Por lo tanto Π22 = Π2 y por Ejercicio 2.23, Π2 es un proyector sobre Im(Π2 ) = gen{ } en la
1
1
dirección Nu(Π1 ) = gen{ }.
−2
b) : Como Π21 = Π1 y además Im(Π1 ) ⊥ Nu(Π1 ) entonces Π1 es una proyección ortogonal.
c) : Como Im(Π2 ) 6⊥ Nu(Π2 ) entonces Π2 NO es una proyección ortogonal.
d) : No existe x ∈ R2 tal que kΠ1 (x)k > kxk. De hecho, como Π1 es una proyección ortogonal,
para cada x ∈ R2 , vale que Π1 (x) ⊥ (x − Π1 (x)). Entonces, aplicando el Teorema de Pitágoras, se
sigue que
144
3.6. Matriz de la proyección ortogonal y distancia mínima
√
2 √ 2 1 5 5 5 2
e) : Notar que k k= 5. Además, Π2 ( )= . Entonces k 13 k= .
1 1 3 5 5 3
Entonces √
1 √ 5 2 1
k k= 5< = kΠ2 ( )k.
2 3 2
Dem. a) ⇒ b) : Supongamos que T es una proyección ortogonal y veamos que para todo x, y ∈ V
vale h T (x), y i = h x, T (y) i .
Sean x, y ∈ V, entonces como T es un proyector, vimos que vale que V = Im(T ) ⊕ Nu(T ).
Entonces x = x1 + x2 e y = y1 + y2 , con (únicos) x1 , y1 ∈ Im(T ) y x2 , y2 ∈ Nu(T ). Entonces
h T (x), y i = h x1 , y1 + y2 i = h x1 , y1 i + h x1 , y2 i
= h x1 , y1 i + 0 = h x1 , y1 i + h x2 , y1 i = h x1 + x2 , y1 i = h x, T (y) i .
b) ⇒ c) : Supongamos que para todo x, y ∈ V vale h T (x), y i = h x, T (y) i y veamos que para
todo x ∈ V vale kT (x)k ≤ kxk. Sea x ∈ V, usando la hipótesis (es decir que vale a)) y que T es
proyector, tenemos que
donde usamos que kx − T (x)k2 ≥ 0. Finalmente, tomando raíz (que es una función creciente),
tenemos que para todo x ∈ V vale kT (x)k ≤ kxk.
c) ⇒ d) : Supongamos que para todo x ∈ V, kT (x)k ≤ kxk y veamos que T es una proyección
ortogonal. Como T es un proyector (por hipótesis), para probar que T es un proyector ortogonal
sólo nos resta probar que Nu(T )⊥ = Im(T ).
Veamos primero que Nu(T )⊥ ⊆ Im(T ). Sea x ∈ Nu(T )⊥ queremos ver que x ∈ Im(T ) es
decir T (x) = x (recordemos que como T es proyector, x ∈ Im(T ) si y sólo si T (x) = x). Como
x − T (x) ∈ Nu(T ) pues T (x − T (x)) = T (x) − T 2 (x) = T (x) − T (x) = 0V y x ∈ Nu(T )⊥ se sigue
que
0 = h x, x − T (x) i = h x, x i − h x, T (x) i = kxk2 − h x, T (x) i .
Entonces, nos queda que
kxk2 = h x, T (x) i .
145
3. Espacios Euclídeos
Entonces
Entonces, como siempre tenemos que kx − T (x)k2 ≥ 0, se sigue que kx − T (x)k2 = 0, entonces
x − T (x) = 0V , por lo tanto T (x) = x y x ∈ Im(T ).
Recíprocamente, supongamos que x ∈ Im(T ). Por la Proposición 3.5.2, Nu(T ) ⊕ Nu(T )⊥ = V
y tenemos que x = x1 + x2 , con (únicos) x1 ∈ Nu(T ) y x2 ∈ Nu(T )⊥ . Entonces, por un lado
x = T (x) pues x ∈ Im(T ). Por otro lado, acabamos de probar que Nu(T )⊥ ⊆ Im(T ), entonces,
como x2 ∈ Nu(T )⊥ tenemos que x2 ∈ Im(T ) y (nuevamente) como T es proyector, se sigue que
T (x2 ) = x2 . Por lo tanto
En conclusión,
x = x2 ∈ Nu(T )⊥ ,
entonces x ∈ Nu(T )⊥ y tenemos que Im(T ) ⊆ Nu(T )⊥ . Por lo tanto, como probamos la doble
inclusión, se sigue que Nu(T )⊥ = Im(T ) y T es un proyector ortogonal.
Como probamos a) ⇒ b) ⇒ c) ⇒ a), se sigue que a), b) y c) son equivalentes.
Cuando w0 6∈ Im(T ), sabemos que la ecuación T (v) = w0 NO tiene solución. En ese caso, nos
interesa obtener una solución aproximada (en algún sentido) de dicha ecuación.
Si W, h ·, · i es un K-espacio euclídeo, el problema de mínimos cuadrados consiste en encontrar
(si existen) todos los vectores v̂ ∈ V tales que la distancia de T (v̂) a w0 sea mínima, es decir,
buscamos v̂ ∈ V tal que
Notar que
{kw0 − T (v)k : v ∈ V} = {kw0 − wk : w ∈ Im(T )}
(verificarlo probando la doble inclusión).
Entonces,
kw0 − T (v̂)k = mı́n{kw0 − wk : w ∈ Im(T )}.
Ya vimos en el Teorema 3.5.3, que si Im(T ) es de dimensión finita, entonces el vector PIm(T ) (w0 )
es el (único) vector de Im(T ) que minimiza la distancia a w0 . Por lo tanto los vectores v̂ que
buscamos son las soluciones del sistema
como PIm(T ) (w0 ) ∈ Im(T ), la ecuación T (v) = PIm(T ) (w0 ) siempre tiene solución y será única si y
sólo si T es un monomorfismo.
El siguiente ejercicio y las siguientes propiedades las usaremos para resolver el Ejercicio 3.13.
146
3.7. Mínimos cuadrados
Ejercicio 3.K (De Parcial). En Rn con el producto interno canónico consideramos nul(A) donde A
es una matriz de Rm×n . Probar que
nul(A)⊥ = fil(A)
y expresar las dimensiones de nul(A) y nul(A)⊥ en función del rango de A. ¿Qué forma tomaría el
problema si en lugar de R apareciese C?
Entonces, aplicando el Teorema de la Dimensión y recordando que rg(A) = rg(AT ), se sigue que
Como ya probamos que col(AT ) ⊆ nul(A)⊥ y los subespacios tienen la misma dimensión, concluimos
que fil(A) = col(AT ) = nul(A)⊥ .
Si ahora consideramos Cn como C-espacio euclídeo, en este caso el producto interno canónico
se define como h u, v i = v ∗ u, para u, v ∈ Cn . Entonces, operando de la misma manera que en Rn ,
nos quedaría que
nul(A)⊥ = col(A∗ ).
1. nul(AT A) = nul(A).
2. col(AT A) = col(AT ).
3. nul(A) = col(AT )⊥ .
4. nul(AT ) = col(A)⊥ .
Dem. 1. : Vamos a probar nul(AT A) = nul(A) viendo la doble inclusión. Ya sabemos que siempre
vale nul(A) ⊆ nul(AT A) (verificarlo). Por otra parte, si x ∈ nul(AT A) entonces AT Ax = 0.
Entonces,
kAxk2 = (Ax)T (Ax) = xT AT (Ax) = xT (AT Ax) = xT 0 = 0.
Entonces Ax = 0, x ∈ nul(A) y tenemos que nul(AT A) ⊆ nul(A). Como probamos la doble inclusión,
se sigue que nul(AT A) = nul(A).
2. : Recordemos que en el Ejercicio 3.K, probamos que si A ∈ Rm×n y (Rn , h ·, · i) es el espacio
euclídeo canónico entonces
nul(A)⊥ = col(AT ).
147
3. Espacios Euclídeos
Por lo tanto, usando esa propiedad y que (acabamos de ver que) nul(AT A) = nul(A), tenemos que
nul(A) = (nul(A)⊥ )⊥
En el siguiente ejercicio vamos a estudiar un caso particular del problema de mínimos cuadrados
cuando consideramos matrices A ∈ Rm×n y el espacio (Rn , h ·, · i) euclídeo canónico.
Ejercicio 3.13. Sean (Rn , h ·, · i) y (Rm , h ·, · i) los espacios euclídeos canónicos de dimensión n y
m, respectivamente. Sean A ∈ Rm×n y b ∈ Rm .
Por definición, resolver la ecuación Ax = b por mínimos cuadrados significa determinar el
conjunto
arg mı́nn kAx − bk := {x ∈ Rn : kAx − bk = mı́nn kAx − bk}.
x∈R x∈R
En palabras, arg mı́nn kAx − bk es el conjunto de todos los x ∈ Rn cuyas imágenes por A minimizan
x∈R
la distancia al vector b.
a) Explicar por qué
arg mı́nn kAx − bk = {x ∈ Rn : Ax = Pcol(A) b}.
x∈R
Utilizando el Teorema de Pitágoras observar que de todas las soluciones por mínimos cuadrados
de la ecuación Ax = b, la solución xf (b) es la que tiene norma mínima.
h) Observar que cuando dim(col(A)) = n la matriz AT A es inversible y que por lo tanto,
x̂ = (AT A)−1 AT b es la única solución por mínimos cuadrados de la ecuación Ax = b. Como
Ax̂ = Pcol(A) b se deduce que A(AT A)−1 A es la matriz en base canónica de la proyección
ortogonal sobre col(A).
148
3.7. Mínimos cuadrados
Por el Teorema 3.5.3, como col(A) es un subespacio de dimensión finita, entonces el vector Pcol(A) b
es el (único) vector de col(A) que minimiza la distancia a b. Por lo tanto, los vectores x ∈ Rn que
buscamos son las soluciones de la ecuación
Ax = Pcol(A) b.
A(xf − x0f ) = 0.
Por lo tanto xf − x0f ∈ nul(A) ∩ fil(A) = nul(A) ∩ nul(A)⊥ = {0}, donde usamos el ítem e). Por
lo tanto xf = x0f y Φ es inyectiva. Por otra parte, sea y ∈ col(A), entonces existe x ∈ Rn tal que
Ax = y. Descompongamos x de la forma x = xf + xh , con xf ∈ fil(A) = nul(A)⊥ y xh ∈ nul(A).
Entonces Axh = 0 y tenemos que
x = xf + xh ,
Axf = Ax = Pcol(A) b.
Por lo tanto xf ∈ fil(A) es una solución de cuadrados mínimos de Ax = b. Si existe otra solución
de cuadrados mínimos x0f ∈ fil(A) entonces Ax0f = Pcol(A) b = Axf . Entonces A(xf − x0f ) = 0 y tal
como hicimos en f ), se sigue que xf − x0f ∈ nul(A) ∩ fil(A) = nul(A) ∩ nul(A)⊥ = {0}. Entonces
xf = x0f y xf es la única solución de cuadrados mínimos de Ax = b que pertenece a fil(A). Por lo
tanto, concluimos que para cada b ∈ Rm existe un único xf (b) ∈ fil(A) (el vector xf depende de b)
tal que
arg mı́nn kAx − bk = {xf (b) + xh : xh ∈ nul(A)}.
x∈R
149
3. Espacios Euclídeos
Por último, sea x̂ una solución de cuadrados mínimos de Ax = b. Entonces Ax̂ = Pcol(A) b.
Entonces A(x̂ − xf ) = Pcol(A) b − Pcol(A) b = 0 y, tenemos que x̂ − xf ∈ nul(A). Además, como
xf ∈ nul(A)⊥ , podemos aplicar el Teorema de Pitátogoras y concluir que
Por lo tanto kx̂k ≥ kxf k y xf es la solución de cuadrados mínimos de Ax = b que tiene norma
mínima.
h) : Por la Proposición 3.7.1, col(AT A) = col(AT ). Como AT A ∈ Rn×n y
tenemos que AT A es inversible (es de rango completo) y entonces existe la matriz (AT A)−1 . Por lo
tanto, la única solución del sistema AT Ax = AT b es
x̂ := (AT A)−1 AT b.
y x̂ es la única solución por cuadrados mínimos de Ax = b. Entonces, por a) vale que, para cada
b ∈ Rm ,
Vamos a remarcar las conclusiones del ejercicio anterior para tenerlas presentes:
En este caso, si x̂p es una solución de mínimos cuadrados de Ax = b entonces todas las
soluciones de mínimos cuadrados de Ax = b son
x̂ = x̂p + z,
Para hacer alguna cuenta, consideremos el siguiente ejercicio muy similar al Ejercicio 3.15.
Ejercicio 3.L. La siguiente tabla muestra, para algunos instantes t (en segundos), la posición de
un móvil p(t) (en metros).
t 10 20 30 40
p(t) 2,5 5,2 6,6 9,4
a) Suponiendo velocidad constante. Hallar la recta p(t) que mejor ajusta los datos (en el sentido
de mínimos cuadrados).
150
3.7. Mínimos cuadrados
Dem. a) : Buscamos una recta que mejor ajuste los datos. La recta será de la forma
p(t) = p0 + vt,
con p0 y v a determinar. Además, la recta que buscamos, queremos que cumpla:
2, 5 = p(10) = p0 + v · 10.
5, 2 = p(20) = p0 + v · 20.
6, 6 = p(30) = p0 + v · 30.
9, 4 = p(40) = p0 + v · 40.
2, 5 1 10
5, 2 1 20
Si llamamos b := 6, 6 y A := 1 30 . Buscamos la solución del sistema Ax = b, con
9, 4 1 40
p0
x := . Como claramente ese sistema no tiene solución, vamos a buscar una solución
v
aproximada aplicando mínimos cuadrados. Por lo que vimos arriba, x̂ es una solución de mínimos
3000 100
cuadrados de Ax = b si y sólo si A Ax̂ = A b. Entonces, como A A =
T T T
y
100 4
703
AT b = , buscamos las soluciones del sistema
23, 7
3000 100 703
x= .
100 4 23, 7
0, 4
Como rg(A) = rg(A A) = 2, el sistema tiene única solución y es x̂ =
T
. Entonces, la
0, 221
recta que mejor ajusta los datos (en el sentido de mínimos cuadrados) es p(t) = 0, 4 + 0, 221 · t.
b) : Usando la recta que mejor ajusta los datos (en el sentido de mínimos cuadrados) tenemos
que p(50) = 11, 45 m.
c) : El error cometido se obtiene calculando
2, 61 2, 5
4, 82 5, 2
e = kAx̂ − bk = k 7, 03 − 6, 6 k = [(0, 11) + (−0, 38) + (0, 43) + (0, 16) ]
2 2 2 2 1/2
9, 24 9, 4
= 0, 613.
En el siguiente ejemplo vamos a hallar soluciones de cuadrados mínimos de la ecuación T (x) = b,
con T ∈ L(R3 [x], R4 ).
Ejercicio 3.M (De Parcial). Sea la transformación lineal T : R3 [x] → R4 definida por
p(−1)
p(0)
T (p) =
.
p(1)
R1
−1
p(x)dx
1
5
Consideremos en R3 el producto interno canónico y la ecuación T (p) = 3 .
−1
151
3. Espacios Euclídeos
1
5
a) Decidir si existe p ∈ R3 [x] tal que T (p) =
3 .
−1
b) Si la respuesta de a) es negativa, hallar todas las soluciones aproximadas (en el sentido de
mínimos cuadrados) de dicha ecuación y estimar el error cometido.
Dem. a) : Primero vamos a obtener una base de Im(T ). Recordemos que como {1, x, x2 , x3 } es un
sistema de generadores de R3 [x], tenemos que Im(T ) = gen{T (1), T (x), T (x2 ), T (x3 )}.
R1 R1 R1 R1
Observar que −1 1dx = 2, −1 xdx = 0, −1 x2 dx = 32 −1 x3 dx = 0. Entonces
1 1
−1 −1
, T (x) = 0 , T (x2 ) = 0 y T (x3 ) = 0 .
1
T (1) =
1 1 1 1
2 0 2
3 0
1 1
−1 −1
1 0 0 0
Entonces, Im(T ) = gen{ 1 , 1 , 1 1 }. Una base de Im(T ) puede ser
2 0 2
3 0
(verificarlo)
1 1
−1
1 0 0
BIm(T ) = { 1 , 1 , 1 }.
2 0 2
3
1 1
5 5
Como 3 6∈ Im(T ) (verificarlo). No existe p tal que T (p) = 3 .
−1 −1
b) : Como vimos arriba, todas las soluciones aproximadas (en el sentido de mínimos cuadrados)
1
5
de dicha ecuación son las soluciones del sistema (ahora compatible) T (p) = PIm(T ) ( 3 ).
−1
1 1
5
Para ahorrar cuentas, en vez de calcular PIm(T ) ( ), vamos a calcular PIm(T )⊥ ( 5 )
3 3
−1 −1
ya que sabemos que vale que
1 1 1
5 5 5
PIm(T ) (
3 ) = 3 − PIm(T )⊥ ( 3 ).
−1 −1 −1
−1 y1
−4 y2
Observar que Im(T )⊥ = gen{ −1 }. De hecho, y = y3 ∈ Im(T ) si y sólo si
⊥
3 y4
1 + * 1 +
* −1 + *
1 0 0
0 = y, 1 = y, 1 = y, 1 .
2 0 2
3
152
3.7. Mínimos cuadrados
2
0 = y1 + y2 + y3 + 2y4 = −y1 + y2 = y1 + y3 + y4 .
3
− 13 y4 − 13
− 4 y4 −4
− 1 y4 = y4
y= 3 31 con y4 ∈ R.
−
3 3
y4 1
− 13
−1 −1
−4 −4 −4
Por lo tanto, Im⊥ = gen{ − 1 } = gen{ −1 }. Como {
3
−1 } es una base (ortogonal)
3
1 3 3
de Im(T )⊥ (tiene un sólo elemento), por lo que vimos, tenemos que
1
* −1 +
5 −4
3 , −1
1 1
−1 −1
5 −1 3 −4 −27 −4 4
PIm(T )⊥ (
3 ) = −1 = 27 −1 = 1
.
−1
−1 −4 2 3 3 −3
k −1 k
Entonces,
1 1 1 1 1 0
5 5 5 5 4 1
3 ) = 3
PIm(T ) ( 3 ) = 3
− PIm(T )⊥ (
1 = 2
− .
−1 −1 −1 −1 −3 2
0
1
Por lo tanto, buscamos p ∈ R3 [x] tales que T (p) = 2 .
2
0
1
Si p ∈ R3 [x] es tal que T (p) =
2 entonces, p(x) = a + bx + cx + dx con a, b, c, d ∈ R, tal
2 3
2
0
1
que T (p) = aT (1) + bT (x) + cT (x2 ) + dT (x3 ) =
2 . Entonces,
1 1 0
−1 −1
1 0 0 0
= 1
1 +b 1 +c 1 +d
a
1
2
.
2 0 2
3 0 2
153
3. Espacios Euclídeos
1
5
3 son
cuadrados de la ecuación T (p) =
1 0 1
−1
5 1 5 −4 √
3 k = k 2 −
e = kT (p̂) − k = k
3
k = 19.
−1
1 2 1 1
h v, vi i = h a1 v1 + a2 v2 + · · · + an vn , vi i = ai h vi , vi i = ai kvi k2 .
Si B es una base ortonormal de V, tenemos que kvi k2 = 1 para todo 1 ≤ i ≤ n. Entonces, para
cada 1 ≤ i ≤ n,
ai = h v, vi i .
Ejercicio 3.19 (ver Ejercicio 1.26). Se considera el R-espacio euclídeo (R2 [x], h ·, · i) con el
producto interno definido por
Comprobar que
1 1
B := { (x − 1)(x − 2), −x(x − 2), x(x − 1)}
2 2
es una base ortonormal de (R2 [x], h ·, · i) y utilizar ese resultado para hallar el vector de coordenadas
del polinomio p(x) = 1 + x + x2 en base B.
154
3.7. Mínimos cuadrados
Dem. Llamemos p1 (x) = 12 (x − 1)(x − 2), p2 (x) = −x(x − 2) y p3 (x) = 12 x(x − 1). Entonces,
p1 (0) = 1, p1 (1) = 0, p1 (2) = 0, p2 (0) = 0, p2 (1) = 1, p2 (2) = 0 y p3 (0) = 0, p3 (1) = 0, p3 (2) = 1.
Entonces
h p1 , p1 i = p1 (0)p1 (0) + p1 (1)p1 (1) + p1 (2)p1 (2) = 1 + 0 + 0 = 1.
h p2 , p2 i = p2 (0)p2 (0) + p2 (1)p2 (1) + p2 (2)p2 (2) = 0 + 1 + 0 = 1.
h p3 , p3 i = p3 (0)p3 (0) + p3 (1)p3 (1) + p3 (2)p3 (2) = 0 + 0 + 1 = 1.
h p1 , p2 i = p1 (0)p2 (0) + p1 (1)p2 (1) + p1 (2)p2 (2) = 1 · 0 + 0 · 1 + 0 · 0 = 0.
h p1 , p3 i = p1 (0)p3 (0) + p1 (1)p3 (1) + p1 (2)p3 (2) = 1 · 0 + 0 · 0 + 0 · 1 = 0.
h p2 , p3 i = p2 (0)p3 (0) + p2 (1)p3 (1) + p2 (2)p3 (2) = 0 · 0 + 1 · 0 + 0 · 1 = 0.
Por lo tanto, como h pi , pj i = δij , se sigue que B es una base ortonormal de (R2 [x], h ·, · i).
Finalmente, por la Proposición 3.7.2, tenemos que si p(x) = 1 + x + x2 entonces
h p, p1 i
[p]B = h p, p2 i .
h p, p3 i
Como
h p, p1 i = p(0)p1 (0) + p(1)p1 (1) + p(2)p1 (2) = 1 · 1 + 3 · 0 + 7 · 0 = 1.
h p, p2 i = p(0)p2 (0) + p(1)p2 (1) + p(2)p2 (2) = 1 · 0 + 3 · 1 + 7 · 0 = 3.
h p, p3 i = p(0)p3 (0) + p(1)p3 (1) + p(2)p3 (2) = 1 · 0 + 3 · 0 + 7 · 1 = 7.
Entonces,
1
[p]B = 3 .
7
155
3. Espacios Euclídeos
Por lo tanto,
v1 = h v1 , u1 i u1 +h v1 , u2 i u2 +· · ·+h v1 , un i un y v2 = h v2 , u1 i u1 +h v2 , u2 i u2 +· · ·+h v2 , un i un .
Por lo tanto,
q
2 2 2
d(v1 , v2 ) = h v1 − v2 , u1 i + h v1 − v2 , u2 i + · · · + h v1 − v2 , un i
v
u n
uX
= t (h v2 , uj i − h v1 , uj i)2
j=1
2 1
h x, y i = y T x.
1 2
156
3.7. Mínimos cuadrados
2 1 2 1
x1
kxk = h x, x i = x
2 T
x = [x1 x2 ] T
= 2x21 + 2x1 x2 + 2x22 .
1 2 1 2 x2
2 √ 4 √ 48
2x21 + 2x1 x2 + 2x22 = (18y12 − 6 12y1 y2 + 6y22 ) + (y1 y2 3 12 − 6y22 ) + y22
36 36 36
= y12 + y22 = 4.
Por lo tanto x ∈ Σ y tenemos que {y1 v1 + y2 v2 : y1 , y2 ∈ R, y12 + y22 = 4} ⊆ Σ. Como probamos la
doble inclusión, se sigue que Σ = {y1 v1 + y2 v2 : y1 , y2 ∈ R, y12 + y22 = 4}.
Por último, es claro que si y1 := 2 cos(θ), y2 := 2 sin(θ) con θ ∈ [0, 2π), se sigue que y12 + y22 = 4.
Recíprocamente, si y12 + y22 = 4, entonces el conjunto {y ∈ R2 : y12 + y22 = 4} es la circunferencia
de radio 2 cuya parametrización es justamente, y1 = 2 cos(θ), y2 = 2 sin(θ) con θ ∈ [0, 2π) y
por lo tanto tenemos la otra igualdad de conjuntos, {y1 v1 + y2 v2 : y1 , y2 ∈ R, y12 + y22 = 4} =
{2 cos(θ)v1 + 2 sin(θ)v2 : θ ∈ [0, 2π)}.
157
3. Espacios Euclídeos
lı́m kvn − v0 k = 0,
n→∞
kvn − v0 k < ε,
lı́m vn = v0 .
n→∞
n
X
v̂n = h v, ui i ui ,
i=1
y que su valor es
v
u n
X 2
mı́n kv − wk = kv − v̂n k = tkvk2 −
u
h v, ui i .
w∈Un
i=1
P∞ 2
b) Notar que lı́m vˆn = v, si y sólo si, i=1 h v, ui i = kvk2 .
n→∞
c) Observar que para todo v ∈ V y todo n ∈ N, el vector v − v̂n ∈ Un⊥ y deducir de allí que
V = Un ⊕ Un⊥ para todo n ∈ N.
Antes de resolver el ejercicio, entendamos qué es lo queremos probar. En primer lugar, con
elemento de Un “más cercano” a v, nos referimos a aquel elemento de Un (si existe) que minimiza la
distancia a v. En este caso, como estamos en un K-espacio euclídeo vamos a tomar como distancia
la inducida por el producto interno. Recordar que si x, y ∈ V, la distancia de x a y está definida por
1/2
d(x, y) := h x − y, x − y i = kx − yk.
158
3.8. Distancia mínima
A := {kv − wk : w ∈ Un } ⊆ R.
Existe ŵ ∈ Un tal que kv − ŵk = m, es decir hay un elemento del conjunto A que realiza el
mínimo.
En conclusión, el ejercicio nos pide probar que si (V, h ·, · i) es un K-espacio euclídeo, existe un
(único) vector de Un que minimiza A. De hecho, el ejercicioPno sólo nos pide probar que tal mínimo
n
existe y que es único sino que ese mínimo es ŵ := v̂n = i=1 h v, ui i ui ∈ Un . Es decir, vamos a
probar que
kv − wk ≥ kv − v̂n k
para todo w ∈ Un y que el vector que realiza el mínimo es único. Entendido esto, resolvamos el
ejercicio.
Dem. a) : Vimos que si v, w ∈ V con V un R-espacio euclídeo, entonces
159
3. Espacios Euclídeos
Pn
Por otra parte, observar que v̂n := i=1 h v, ui i ui ∈ Un (porque es una CL de elementos de
Un ), además, operando de manera similar que arriba y usando que {u1 , · · · , un } es un conjunto
ortonormal, tenemos que
Tomando raíz cuadrada (que es una función creciente) se sigue que, para todo
[a1 a2 · · · an ]T ∈ Rn ,
Xn
kv − ai ui k ≥ kv − v̂n k.
i=1
Pn
Como cualquier elemento w ∈ Un se escribe como w = i=1 ai ui para ciertos
[a1 a2 · · · an ]T ∈ Rn , la ecuación anterior nos asegura que v̂n realiza el mínimo que buscamos, es
decir
n
X
mı́n{kv − wk2 : w ∈ Un } = mı́n{kv − ai ui k : [a1 a2 · · · an ]T ∈ Rn } = kv − v̂n k.
i=1
q Pn 2
Finalmente, como kv − v̂n k = kvk2 − i=1 h v, ui i , concluimos que
v
u n
X 2
mı́n{kv − wk : w ∈ Un } = kv − v̂n k = tkvk2 −
u
h v, ui i .
i=1
Por último, veamos que el vector de Un que es “más cercano” a v (en el sentido que minimiza
la distancia a v) es único. De hecho, supongamos que existe otro elemento ŵ ∈ Un que es “más
cercano” a v. Entonces, claramente
kv − ŵk = kv − v̂n k,
esto es así porque como v̂n realiza el mínimo y ŵ ∈ Un entonces kv − v̂n k ≤ kv − ŵk. De la misma
manera, como estamos suponiendo que ŵ realiza el mínimo y v̂n ∈ Un entonces kv − ŵk ≤ kv − v̂n k
y tenemos la igualdad.
Por otra parte, recordar que en (3.7), vimos que para todo x, y ∈ V,
Observar que (obviamente) ŵ − v̂n = ŵ − v − (v̂n − v). Entonces, aplicando la igualdad anterior
a x = (ŵ − v) e y = (v̂n − v), nos queda
kŵ − v̂n k2 = k(ŵ − v) − (v̂n − v)k2 = 2kŵ − vk2 + 2kv̂n − vk2 − k(ŵ − v) + (v̂n − v)k2
160
3.8. Distancia mínima
ŵ + v̂n
= 2kŵ − vk2 + 2kv̂n − vk2 − kŵ + v̂n − 2vk2 = 4kŵ − vk2 − 4k − vk2
2
ŵ + v̂n
= 4(kŵ − vk2 − k − vk2 ) ≤ 0,
2
donde usamos que como ŵ realiza el mínimo, vale que kŵ − vk2 ≤ k ŵ+v̂ 2
n
− vk2 , pues como
v̂n , ŵ ∈ Un y Un es un subespacio entonces 2 ∈ Un .
ŵ+v̂n
Entonces, nos quedó que 0 ≤ kŵ − v̂n k2 ≤ 0, por lo tanto kŵ − v̂n k = 0, entonces ŵ − v̂n = 0V
y se sigue que ŵ = v̂n . Conclusión : el vector que minimiza la distancia es único y es v̂n .
b) : Por definición de límite de sucesiones en espacios normados sabemos que lı́m v̂n = v si y
n→∞
sólo si lı́m kv − v̂n k = 0. Por el ítem a), sabemos que
n→∞
n
X 2
kv − v̂n k2 = kvk2 − h v, ui i .
i=1
Pn 2
Entonces, existe lı́m kv − v̂n k si y sólo si existe lı́m (kvk2 − i=1 h v, ui i ). Más aún, en este caso,
n→∞ n→∞
n
X n
X
2 2
0 = lı́m kv − v̂n k2 = lı́m (kvk2 − h v, ui i ) = kvk2 − lı́m h v, ui i ,
n→∞ n→∞ n→∞
i=1 i=1
donde usamos que kvk2 es una constante que no depende de n. Finalmente, recordemos que
P∞ 2 Pn 2
i=1 h v, ui i := lı́m
n→∞ i=1 h v, ui i . Por lo tanto, lı́m kv − v̂n k = 0 si y sólo si
n→∞
∞
X n
X
2 2
h v, ui i = lı́m h v, ui i = kvk2 .
n→∞
i=1 i=1
c) : Ya vimos que para todo v ∈ V y todo n ∈ N el vector v̂n ∈ Un (es el único que) realiza el
mínimo del conjunto {kv − wk2 : w ∈ Un }. Por otra parte, para cada j ∈ {1, 2, · · · , n}, tenemos que
* n
+
X
h v − v̂n , uj i = v − h v, ui i ui , uj =
i=1
n
X
= h v, uj i − h v, ui i h ui , uj i = h v, uj i − h v, uj i = 0,
i=1
v = v̂n + (v − v̂n )
161
3. Espacios Euclídeos
Ejercicio 3.N (De Parcial). En R2 [x] se considera el producto interno definido por
Sea U := {p ∈ R2 [x] : p0 (0) = 0} y sea q(x) := −x2 + x. Hallar todos los p ∈ U tales que p ⊥ q y
kpk = 20.
Entonces a = −c y, volviendo a la expresión de p nos queda que p(x) = ax2 − a = a(x2 − 1), con
a ∈ R. Finalmente
20 = kpk = ka(x2 − 1)k = |a|kx2 − 1k.
Como kx2 − 1k2 = 0 · 0 + −1 · −1 + 0 · 0 = 1. Entonces kx2 − 1k = 1 y
20 = |a|kx2 − 1k = |a|,
Dada h(t) = t + 1 ∈ C([0, 1], R), hallar la función cuadrática de expresión g(t) = a + bt2 , que
4
minimiza la distancia a h.
Dem. Si llamamos U2 = gen{1, t2 } ⊆ C([0, 1], R), el ejercicio nos pide el elemento de U2 más
cercano a h. Es decir, si g ∈ U2 , entonces g(t) = a + bt2 con a, b ∈ R y buscamos los valores de
a, b ∈ R tales que la g que resulte minimiza la distancia a h. Pero eso es justamente lo que hicimos
en el Ejercicio 3.23. Si BU2 = {u1 , u2 } es una base ortonormal de U2 , entonces (como vimos en el
ejercicio anterior) la función g que buscamos es
g := ĥ2 = h h, u1 i u1 + h h, u2 i u2 .
0 = h u2 , u1 i = t2 + α1, 1 = t2 , 1 + α h 1, 1 i .
Entonces
− t2 , 1
α= .
h 1, 1 i
162
3.9. Algoritmo de Gram-Schmidt
Ejercicio 3.27. Se considera el R-espacio euclídeo (C([−1, 1], R), h ·, · i) con el producto interno
definido por Z 1
h f, g i = f (x)g(x)dx
−1
y el subespacio R2 [x].
163
3. Espacios Euclídeos
a) Utilizar Gram-Schmidt para producir una base ortonormal {p0 , p1 , p2 } de R2 [x] a partir de la
base {q0 , q1 , q2 } donde q0 (x) = 1, q1 (x) = x, q2 (x) = x2 .
b) Hallar las siguientes proyecciones ortogonales PR2 [x] (sin(x)), PR2 [x] (cos(x)).
c) Calcular las distancias d(sin(x), R2 [x]) y d(cos(x), R2 [x])
Dem. Vamos a aplicar el algoritmo de Gram-Schmidt. Primero vamos a obtener una base ortogonal
y al finalizar normalizaremos todos los vectores obtenidos para producir una base ortonormal.
a) : Paso 1:
r0 = q0 .
Paso 2:
h q1 , r0 i
r1 = q1 − r0 .
kr0 k2
Haciendo cuentas
1 1
x2 1
Z Z
h q1 , r0 i = q1 (x)r0 (x)dx = x · 1dx = | = 0.
−1 −1 2 −1
164
3.9. Algoritmo de Gram-Schmidt
r2 (x) 45 2 1
r
p2 (x) = = (x − ).
kr2 k 8 3
1 3 45 2 1
r r
{p0 , p1 , p2 } = { √ , x, (x − )}.
2 2 8 3
Recuerden que siempre podemos verificar si hicimos bien las cuentas viendo que efectivamente
h p0 , p1 i = h p0 , p2 i = h p1 , p2 i = 0 y kp0 k = kp1 k = kp2 k = 1.
b) : Como en el paso a) calculamos una base ortonormal del subespacio R2 [x] podemos aplicar la
fórmula de la proyección ortogonal. Recuerden que esa fórmula sólo se puede usar cuando tenemos
una base ortogonal del subespacio en cuestión, en este caso tenemos una base ortonormal (en
particual es ortogonal). Entonces, usando la base ortonormal {p0 , p1 , p2 } del item a), nos queda
3 3
r r
PR2 [x] (sin(x)) = (2 sin(1) − 2 cos(1))( x)
2 2
= 3(sin(1) − cos(1)) x.
De manera similar,
1 1 45 8 sin(1) 45 2 1
r r
PR2 [x] (cos(x)) = √ 2 sin(1)( √ 1) + (4 cos(1) − )( (x − ))
2 2 8 3 8 3
15 1
= sin(1) 1 + (3 cos(1) − 2 sin(1)) (x2 − ).
2 3
c) : Recordando la fórmula de la distancia de un punto a un subespacio, tenemos que
165
3. Espacios Euclídeos
d(sin(x), R2 [x]) = k sin(x) − PR2 [x] (sin(x)k = k sin(x) − 3(sin(1) − cos(1)) xk.
Haciendo la cuenta, tenemos que
1
11 sin(2)
Z
k sin(x) − 3(sin(1) − cos(1)) xk2 = (sin(x) − 3(sin(1) − cos(1)) x)2 dx = − 5.
−1 2
Entonces r
11 sin(2)
d(sin(x), R2 [x]) = − 5 ≈ 0, 0337.
2
15 1
d(cos(x), R2 [x]) = k cos(x)−PR2 [x] (cos(x)k = k cos(x)−sin(1) 1− (3 cos(1)−2 sin(1)) (x2 − )k.
2 3
Haciendo la cuenta, tenemos que
15 1
k cos(x) − sin(1) 1 − (3 cos(1) − 2 sin(1)) (x2 − )k2
2 3
15 1
Z 1
= (cos(x) − sin(1) 1 − (3 cos(1) − 2 sin(1)) (x2 − ))2 dx
−1 2 3
121 sin(2)
= − 65 − 24 cos(2).
2
Entonces r
121 sin(2)
d(cos(x), R2 [x]) = − 65 − 24 cos(2) ≈ 0, 0043.
2
Como se ve la aproximación de las funciones sin(x) y cos(x) por los 3 primeros polinomios de
Legendre normalizados es bastante buena.
Ejercicio 3.O (De Parcial). Se considera R2 [x] con el producto interno definido por
Z 1
h p, q i = p(x)q(x)dx.
0
Sea C = {1; x − 12 ; x2 − x + 16 } una base (ordenada) ortogonal de R2 [x] que se obtuvo aplicando el
algoritmo de Gram-Schmidt a la base ordenada B = {p1 ; p2 ; p3 } de R2 [x]. Calcular
donde q(x) = 1 + x2 .
Dem. Recordar que como gen{p1 , p2 } es un subespacio de dimensión finita, tenemos que
No sabemos quiénes son los vectores p1 y p2 . Sin embargo, sabemos que la base (ordenada)
ortogonal C se obtuvo aplicando el algoritmo de Gram-Schmidt a la base ordenada B. Vimos al
principio de esta Sección que el algoritmo de Gram-Schmidt, asegura que:
gen{p1 } = gen{1},
1
gen{p1 , p2 } = gen{1, x − },
2
1 1
gen{p1 , p2 , p3 } = gen{1, x − , x2 − x + }.
2 6
166
3.10. Descomposición QR
Por lo tanto, gen{p1 , p2 } = gen{1, x− 21 } y además {1, x− 12 } es una base ortogonal de gen{p1 , p2 }.
Entonces, podemos aplicar la fórmula de la proyección ortogonal y tenemos que
1 + x2 , 1 1 + x2 , x − 12 1
Pgen{p1 ,p2 } (q) = Pgen{p1 ,p2 } (1 + x ) =
2
1+ (x − )
k1k2 1
kx − 2 k 2 2
4
1 1
= 3
1+
(x − )
12
1 2 1
12
4 1 5
= + (x − ) = x + .
3 2 6
Entonces
5
d(1 + x2 , gen{p1 , p2 }) = k1 + x2 − Pgen{p1 ,p2 } (1 + x2 )k = k1 + x2 − (x + )k
6
1 1
r
= kx2 − x + k = .
6 180
3.10. Descomposición QR
tales que las columnas de Q son una base ortonormal de col(A) considerando el producto
interno canónico de Rm y R es triangular superior con números positivos en la diagonal
principal.
w1 = a1
w2 = a2 − α12 w1 ,
w3 = a3 − α13 w1 − α23 w2 ,
..
.
wn = an − α1n w1 − α2n w2 − · · · − α(n−1)n wn−1 .
Con
h aj , wi i wT aj
αij = 2
= i 2 para 1 ≤ i < j.
kwi k kwi k
167
3. Espacios Euclídeos
a1 = w1 ,
a2 = α12 w1 + w2 ,
a3 = α13 w1 + α23 w2 + w3 ,
..
.
an = α1n w1 + α2n w2 + · · · + α(n−1)n wn−1 + wn .
AR−1 = (QR)R−1 = QI = Q.
Entonces, col(Q) = col(AR−1 ) ⊆ col(A). Como probamos la doble inclusión, concluimos que
col(Q) = col(A).
Entonces A = QR es una descomposición QR de A.
b) : Veamos que la factorización A = QR del item a) es única. Pero antes de hacer la prueba,
vamos a remarcar los siguientes hechos que se pueden verificar fácilmente:
168
3.10. Descomposición QR
QT Q = IRn .
1 0 ··· 0
T
q1 q1 q1T q2 · · · q1T qn
T
q1
T q2T q1 q2T q2 · · · q2T qn 0 1 · · · 0
q2
QT Q = · · · [q1 q2 · · · qn ] = .. = .. .. .. = IRn .
. ..
.. . . . . .
qnT qnT q1 qnT q2 · · · qnT qn 0 0 ··· 1
Donde usamos que las columnas de Q forman una base ortonormal (con el producto interno canónico
de Rm ). Entonces 0 = h qi , qj i = qjT qi para todo i 6= j y 1 = kqi k2 = qiT qi , para todo i = 1, 2, · · · , n.
QR = Q0 R0 . (3.12)
Multipliquemos la ecuación (3.12) a izquierda por Q0T y a derecha por R−1 , entonces usando
las propiedades que acabamos de ver, tenemos por un lado
y por el otro
Q0T (QR)R−1 = Q0T Q(RR−1 ) = Q0T Q.
Entonces, probamos que
De (3.13) tenemos que como R0 R−1 es una matriz triangular superior, entonces Q0T Q es una matriz
triangular superior.
Ahora, multipliquemos la ecuación (3.12) a izquierda por QT y a derecha por R0−1 , entonces
usando las propiedades que acabamos de ver, tenemos por un lado
169
3. Espacios Euclídeos
De (3.14) tenemos que como RR0−1 es una matriz triangular superior, entonces QT Q0 es una matriz
triangular superior. Entonces, como QT Q0 es una matriz triangular superior, al transponer, se sigue
que (QT Q0 )T es triangular inferior. Por el otro lado, como (QT Q0 )T = Q0T Q, por (3.13), tenemos
que (QT Q0 )T es triangular superior. Entonces (QT Q0 )T = Q0T Q, es a la vez triangular superior y
triangular inferior. Entonces Q0T Q es una matriz diagonal. A esa matriz diagonal, la llamamos D y
entonces tenemos que
d1 0 · · · 0
0 d2 · · · 0
Q0T Q = R0 R−1 = D := . .. .. ,
.. . .
0 0 ··· dn
con d1 , d2 , · · · , dn ∈ R. Multiplicando (3.12) a izquierda por Q0T , tenemos por un lado que
(QR)R0−1 = Q(RR0−1 ) = QD
0 ··· 0 1 0 0
2
d1 ···
0 d22 · · · 0 0 1 ··· 0
.. .. .. = .. .. .. .
. . . . . .
0 0 ··· d2n 0 0 ··· 1
Por lo tanto |d1 | = |d2 | = · · · = |dn | = 1. Como probamos que d1 , d2 , · · · , dn son todos positivos
(no nulos), se sigue que d1 = d2 = · · · = dn = 1, entonces D = I. Por lo tanto R0 R−1 = D = I y
multiplicando esa ecuación a derecha por R, nos queda que
R0 = R.
Q0 = Q.
Antes de hacer ejemplos de cálculo de descomposición QR, vamos a notar dos propiedades
importantes.
170
3.10. Descomposición QR
QT A = QT QR = R, (3.15)
QQT = [Pcol(A) ]E
E, (3.16)
De hecho, observar que (QQT )(QQT ) = Q(QT Q)QT = QIRn QT = QQT . Entonces
Además,
(QQT )T = (QT )T QT = QQT . (3.18)
Sea T : Cm → Cm , la transformación lineal definida por
h T (x), y i = h x, T (y) i ,
[Pcol(A) ]E
E = [T ]E = QQ
E T
1 2
A1 = 2 1 .
1 3
171
3. Espacios Euclídeos
1 2
Dem. Como A1 ∈ R3×2 y rg(A1 ) = 2 podemos usar lo que probamos en el Ejercicio 3.28. Sólo
basta encontrar una base ortonormal (con el producto interno canónico de R3 ) del subespacio
1 2
Las matrices Q y R que definimos cumplen que A1 = QR, donde Q ∈ R3×2 es una matriz cuyas
columnas forman una base ortonormal de col(A1 ) y R ∈ R2×2 es una matriz triangular superior
con elementos positivos (no nulos) en ladiagonal.
Esaes la descomposición QR de A1 .
1 2
Finalmente, observar que S = gen{ 2 , 1 } = col(A1 ). Entonces, usando la ecuación
1 3
(3.16), que vale porque estamos considerando el producto interno canónico de R3 y la base
canónica de R3 tenemos
1
√5
√ # 2 1 3
"
6 210 √1 √2 √1 7 7 7
2 −8
[PS ]E
E = QQ =
T √ √ 6 6 6 = 71 34
− 353
.
6 210 √5 8
− √210 √11 3
35
3 26
√1 √ 11 210 210 −
6 210 7 35 35
φ(v) = h v, u i ,
para todo v ∈ V.
172
3.11. Teorema de representación de Riesz
Entonces, tomemos cualquier w ∈ Nu(φ)⊥ tal que kwk = 1. Como dim(Nu(φ)⊥ ) = 1, tenemos
que
Nu(φ)⊥ = gen{w}.
Sea v ∈ V, como Nu(φ) es un subespacio y V es de dimensión finita, vale que V = Nu(φ) ⊕ Nu(φ)⊥ ,
entonces existen (únicos) v1 ∈ Nu(φ) y v2 ∈ Nu(φ)⊥ tales que v = v1 + v2 . Como v2 ∈ Nu(φ)⊥ =
gen{w}, tenemos que existe α ∈ K tal que v2 = αw. Es más, podemos ver quién es α. De hecho
h v, w i = h v1 + v2 , w i = h v1 , w i + h v2 , w i = h v1 , w i + h αw, w i = 0 + α h w, w i
= αkwk2 = α · 1 = α.
donde para la última igualdad usamos que φ(w) ∈ K (es decir es un escalar) y que el producto
interno cumple que c h u, v i = h u, cv i .
Entonces, probamos que para todo v ∈ V vale que
D E
φ(v) = v, φ(w)w ,
h αw, w i = α h w, w i = αkwk2 = α.
173
3. Espacios Euclídeos
Por el otro lado, por lo que acabamos de probar en el item a), como w0 es cualquier vector en
Nu(φ)⊥ tal que kw0 k = 1, vale que
D E
φ(w) = w, φ(w0 )w0 .
Entonces α = φ(w) y volviendo a (3.19), se sigue que φ(w0 )w0 = φ(w)w y probamos que φ(w)w no
depende de la elección de w.
Con la resolución del Ejercicio 3.30 probamos el Teorema de representación de Riesz. Veamos
ahora un ejemplo de aplicación de lo que vimos en dicho ejercicio.
Ejercicio 3.33. En Rn [x] con el producto interno
Z 1
h p, q i = p(x)q(x)dx.
−1
δ(p) = p(0).
δ(·) = h ·, pn i .
Por si no se entiende la notación, lo que nos pide el ejercicio es hallar hallar el polinomio
pn ∈ Rn [x] tal que
δ(p) = h p, pn i ,
para todo p ∈ Rn [x]. Vamos a demostrarlo para el caso n = 3, los demás casos son similares.
Dem. Consideremos n = 3. Por el Ejercicio 3.30, para todo p ∈ Rn [x], se sigue que para cualquier
q ∈ Nu(δ)⊥ tal que kqk = 1, vale que
D E
δ(p) = p, δ(q)q .
0 = h r, x i = r, x2 = r, x3 .
174
3.12. Aplicaciones del Teorema de representación de Riesz
9 15
δ(p) = p, − x2 .
8 8
Además p3 es el único polinomio que cumple la igualdad anterior por el item b) del Ejercicio 3.30.
175
3. Espacios Euclídeos
En la siguiente proposición damos algunas de las propiedades básicas que verifica el determinante
y que se deducen fácilmente del hecho que el determinante es una función multilineal alternada por
columnas.
Proposición 3.12.1. Sea A := [A1 A2 · · · An ] ∈ Kn×n donde Ai son las n columnas de A.
Entonces
det(A) = det(AT ).
v1 ∧ v2 = h e1 , v1 ∧ v2 i e1 + h e2 , v1 ∧ v2 i e2 + h e3 , v1 ∧ v2 i e3
probar que
3
X
v1 ∧ v2 = (−1)3−i ∆i ei
i=1
f) Probar que si {u1 , u2 , u3 } es una base ortonormal de V, entonces vale que det(u1 , u2 , u3 ) ∈
{−1, 1}. Si det(u1 , u2 , u3 ) = 1, se dice que {u1 , u2 , u3 } es orientada positivamente con respecto
a E.
176
3.12. Aplicaciones del Teorema de representación de Riesz
Dem. a) : Llamemos φ(v) := det(v1 , v2 , v) = det([ [v1 ]E [v2 ]E [v]E ]). Veamos que φ es una
funcional lineal. De hecho, sean v, w ∈ V y λ ∈ K, como tomar coordenadas es lineal, entonces
[λv + w]E = λ[v]E + [w]E . Entonces, det([ [v1 ]E [v2 ]E [λv + w]E ]) = det([ [v1 ]E [v2 ]E λ[v]E + [w]E ]).
Además, vimos arriba que det es lineal para cada columna fijando el resto de las columnas (como
en este caso), entonces se sigue que
Por lo tanto, como φ es una funcional lineal de V, por el Ejercicio 3.30, existe un único vector
u ∈ V tal que
φ(v) = h v, u i .
Sea v1 ∧ v2 := u, entonces,
det(v1 , v2 , v) = φ(v) = h v, v1 ∧ v2 i
y probamos lo que queríamos.
Notar que esto además prueba que la definición de det(v1 , v2 , v) NO depende de la
base ortonormal E elegida, ¿por qué?.
b) : Veamos que v1 ∧ v2 es ortogonal a v1 y v2 . De hecho, por el item a) tenemos que,
pues estamos calculando el determinante de una matriz cuya primera y tercera columna es la misma.
De la misma manera,
h v, v1 ∧ v2 i = det([ [v1 ]E [v2 ]E [v]E ]) = det([ [v1 ]E [λv1 ]E [v]E ]) = λ det([ [v1 ]E [v1 ]E [v]E ]) = 0,
donde usamos que [v2 ]E = [λv1 ]E = λ[v1 ]E , que el determinante es lineal para cada columna fijando
el resto de las columnas y que el determinante de una matriz cuya primera y segunda columna es
la misma da 0. Conclusión, tenemos que para todo v ∈ V, vale que
h v, v1 ∧ v2 i = 0.
Por lo tanto, v1 ∧ v2 = 0.
La recíproca del item c) la probamos al final.
d) : Como E = {e1 , e2 , e3 } es una bon de V ya vimos en la Proposición 3.7.2, que
h e1 , v1 ∧ v2 i
[v1 ∧ v2 ]E = h e2 , v1 ∧ v2 i . Entonces,
h e3 , v1 ∧ v2 i
v1 ∧ v2 = h e1 , v1 ∧ v2 i e1 + h e2 , v1 ∧ v2 i e2 + h e3 , v1 ∧ v2 i e3 .
1
177
3. Espacios Euclídeos
De manera similar, h e2 , v1 ∧ v2 i = det([ [v1 ]E [v2 ]E [e2 ]E ]) = det([ [v1 ]E [v2 ]E 1 ]) = −∆2 .
0
0
v1 ∧ v2 = h e1 , v1 ∧ v2 i e1 + h e2 , v1 ∧ v2 i e2 + h e3 , v1 ∧ v2 i e3
= ∆1 e1 − ∆2 e2 + ∆3 e3
v1 ∧ v2 = ∆1 e1 − ∆2 e2 + ∆3 e3 .
Donde
1 1
x1 y1
∆1 = det([ [v1 ]E [v2 ]E 0 ]) = det[ x2 y2 0 ]) = x2 y3 − x3 y2 .
0 x3 y3 0
0 0
x1 y1
∆2 = det([ [v1 ]E [v2 ]E 1 ]) = det[ x2 y2 1 ]) = x3 y1 − x1 y3 .
0 x3 y3 0
0 0
x1 y1
∆3 = det([ [v1 ]E [v2 ]E 0 ]) = det[ x2 y2 0 ]) = x1 y2 − x2 y1 .
1 x3 y3 1
Por lo tanto,
1 0
x1 y1
donde [u1 ]E = 0 = x2 y [u2 ]E = 1 = y2 .
0 x3 0 y3
Por lo tanto,
178
3.12. Aplicaciones del Teorema de representación de Riesz
det(u1 , u2 , u3 ) = h u3 , u1 ∧ v2 i = h u3 , u3 i = 1,
det(u2 , u1 , u3 ) = h u3 , u2 ∧ v1 i = − h u3 , u3 i = −1,
h v1 , v2 i = h x1 e1 + x2 e2 + x3 e3 , y1 e1 + y2 e2 + y3 e3 i = x1 y1 + x2 y2 + x3 y3 .
De la misma manera, kv1 k2 = x21 + x22 + x23 y kv2 k2 = y12 + y22 + y32 . Por otra parte, por el item d),
tenemos que
v1 ∧ v2 = (x2 y3 − x3 y2 )e1 + (x3 y1 − x1 y3 )e2 + (x1 y2 − x2 y1 )e3 .
Entonces, usando el item a),
Ahora sí, usando que {v1 , v2 } es un sistema ortonormal (por hipótesis), se sigue que
2
kv1 ∧ v2 k2 = kv1 k2 kv2 k2 − h v1 , v2 i = 1 − 0 = 1.
179
3. Espacios Euclídeos
Ejercicio 3.35. Sea V un R-espacio euclídeo de dimensión 3. Sean v1 , v2 ∈ V dos vectores linealmente
independientes y sea S = gen{v1 , v2 }.
h v,v1 ∧v2 i |h v,v1 ∧v2 i|
a) Probar que para todo v ∈ V vale que PS (v) = v − kv1 ∧v2 k2 (v1 ∧ v2 ) y d(v, S) = kv1 ∧v2 k .
Dem. En el Ejercicio 3.34 vimos que dados dos vectores v1 , v2 ∈ V tenemos que v1 ∧v2 es ortogonal
a v1 y v2 . Entonces, v1 ∧ v2 ∈ S ⊥ . Por otra parte, como v1 y v2 son linealmente independientes y
S = gen{v1 , v2 }, se sigue que dim(S) = 2. Por lo tanto, dim(S ⊥ ) = dim(V) − dim(S) = 3 − 2 = 1.
Entonces, S ⊥ = gen{v1 ∧ v2 }.
Claramente {v1 ∧ v2 } es una base ortogonal de S ⊥ (tiene sólo 1 elemento no nulo). Usando la
fórmula de la proyección ortogonal, vale que para cada v ∈ V,
h v, v1 ∧ v2 i
PS ⊥ (v) = (v1 ∧ v2 ).
kv1 ∧ v2 k2
h v,v1 ∧v2 i
Como v = PS (v) + PS ⊥ (v), tenemos que PS (v) = v − kv1 ∧v2 k2 (v1 ∧ v2 ).
Finalmente,
h v, v1 ∧ v2 i | h v, v1 ∧ v2 i | | h v, v1 ∧ v2 i |
d(v, S) = kPS ⊥ (v)k = k (v1 ∧ v2 )k = kv1 ∧ v2 k = .
kv1 ∧ v2 k2 kv1 ∧ v2 k2 kv1 ∧ v2 k
2
Dem. a) : En el item f ) del Ejercicio 3.34, probamos que kv1 ∧ v2 k2 = kv1 k2 kv2 k2 − h v1 , v2 i .
Por lo tanto, la igualdad que queremos probar se sigue pasando de término.
b) : Si θ es el ángulo entre v1 y v2 , recordemos que
h v1 , v2 i = kv1 kkv2 k cos(θ).
Entonces, por el item a), se sigue que
2
kv1 ∧ v2 k2 = h v1 , v2 i − kv1 k2 kv2 k2 = kv1 k2 kv2 k2 cos(θ)2 − kv1 k2 kv2 k2
= kv1 k2 kv2 k2 (1 − cos(θ)2 ) = kv1 k2 kv2 k2 sin(θ)2 .
Tomando raíz, kv1 ∧ v2 k = kv1 kkv2 k sin(θ) y probamos lo que queríamos.
180
3.12. Aplicaciones del Teorema de representación de Riesz
Como φw ∈ L(V, K), por el Teorema de representación de Riesz que probamos en el Ejercicio
3.30, existe un único vector u ∈ V tal que
φw (v) = h v, u iV .
Tenemos todos los ingredientes para definir la transformación lineal S : W → V que pide el ejercicio.
De hecho, vamos a definir S como
S(w) := u.
Notar que S está bien definida, porque para cada w ∈ W que fijamos, por el Teorema de
representación de Riesz obtuvimos un único u ∈ V tal que φw (v) = h v, u iV . Además,
Por otra parte, S es una transformación lineal, pues, si w, w0 ∈ W, por el Teorema de representación
de Riesz, existen únicos u, u0 ∈ V tales que
Sean α, β ∈ K entonces, por los axiomas del producto interno tenemos que
Entonces, por la unicidad del Teorema de representación de Riesz, se sigue que αu + βu0 es el único
vector de V tal que
φαw+βw0 (v) = h v, αu + βu0 iV .
Entonces, por definición de S, tenemos que
181
3. Espacios Euclídeos
h T (v), w iW = h v, S(w) iV ,
T 2 = T.
Además, en el Teorema 3.6.1, probamos que como T es un proyector ortogonal, para todo x, y ∈ V
se cumple que
h T (x), y i = h x, T (y) i .
Entonces, por definición de transformación lineal adjunta, se sigue que en este caso T ∗ = T. Es
más, a partir del Teorema 3.6.1, podemos decir que T es un proyector ortogonal si y sólo si T 2 = T
y T ∗ = T.
Juntando el Ejemplo 3.a y el Ejemplo 3.b, podemos ver que: si consideramos Cn , con
producto interno canónico y E es la base canónica de Cn , entonces, para cualquier subespacio
S ⊆ V se sigue que
[PS ]E
E = ([PS ]E ) = ([PS ]E ) .
E 2 E ∗
De hecho, como PS es una proyector, ya habíamos visto que [PS ]E E = ([PS ]E ) . Por otra parte,
E 2
notar que para cada x ∈ C , tenemos que PS (x) = [PS ]E (x). Entonces, como PS es un proyector
n E
182
3.12. Aplicaciones del Teorema de representación de Riesz
ortogonal, por el Ejemplo 3.b, PS∗ = PS , y por el Ejemplo 3.a, PS∗ (x) = ([PS ]E
E ) (x). Entonces,
∗
([PS ]E
E ) (x) = ([PS ]E )(x).
∗ E
183
CAPÍTULO 4
Diagonalización
Av = λv.
La siguiente propiedad la vamos a usar para obtener los autovalores de una matriz A ∈ Kn×n :
i) λ ∈ K es autovalor de A,
ii) nul(A − λI) 6= {0},
iii) rg(A − λI) < n,
iv) det(A − λI) = 0.
iii) ⇒ iv) : Como A − λI ∈ Kn×n , si rg(A − λI) < n, entonces A − λI no es inversible y por lo
tanto det(A − λI) = 0.
iv) ⇒ i) : Si det(A − λI) = 0, entonces la matriz A − λI ∈ Kn×n no es inversible. Por lo tanto
nul(A − λI) 6= {0} y existe v 6= 0 tal que (A − λI)v = 0. Entonces Av = λv y λ ∈ K es autovalor
de A.
185
4. Diagonalización
Por otra parte, como λ es un autovalor de A con multiplicidad algebraica r ∈ N, tenemos que
χA (x) = (x − λ)r R(x) con R un polinomio tal que R(λ) 6= 0. Entonces
con R(λ) 6= 0. Entonces s ≤ r, porque si s > r entonces R(x) = (λ − x)s−r det(M − xI) y R(λ) = 0,
lo cual es absurdo. Por lo tanto
186
4.1. Autovalores y autovectores
Si λ ∈ K es autovalor de A entonces:
Av = λv. (4.2)
(rA)v = (rλ)v.
187
4. Diagonalización
La siguiente es una propiedad útil para matrices A ∈ K2×2 . Sea A ∈ K2×2 entonces
tr(A) = λ1 + λ2 + · · · + λn , (4.6)
188
4.1. Autovalores y autovectores
Por el Teorema de Gauss, si r tiene alguna raíz racional de la forma λ = pq , entonces los posibles p
serían: 1, −1, 3, −3 (es decir todos los divisores de a0 = 3) y los posibles q serían, 1, −1, 2, −2, 4, −4
(es decir todos los divisores de a4 = 4). Por lo tanto, si r tiene alguna raíz racional λ, no queda
otra que:
p 1 1 1 1 3 3 3 3
λ = ∈ {1, −1, , − , , − , 3, −3, , − , , − }.
q 2 2 4 4 2 2 4 4
Haciendo la cuenta (es decir evaluando r en los valores de arriba y viendo si se anula), tenemos que
1 y 21 son raíces de r (no son las únicas, pero sí son todas las raíces racionales de r).
Por ejemplo, si ahora consideramos el polinomio
r(x) = x3 + 2 ∈ Z3 [x].
Por el Teorema de Gauss, si r tiene alguna raíz racional de la forma λ = pq , entonces los posibles p
serían: 1, −1, 2, −2 (es decir todos los divisores de a0 = 2) y los posibles q serían, 1, −1 (es decir
todos los divisores de a3 = 1). Es decir, si r tiene alguna raíz racional λ, no queda otra que:
p
λ= ∈ {1, −1, 2, −2}.
q
Si evaluamos el polinomio r en los valores de arriba vemos que nunca se anula, por lo tanto, podemos
concluir que r no tiene ninguna raíz racional.
Supongamos ahora que tenemos una matriz A ∈ Zn×n (con coeficientes enteros), entonces el
polinomio característico de A es mónico (es decir an = 1, meditar por qué) y tiene la forma
Por el Teorema de Gauss, si λ = pq es una raíz racional de χA entonces los valores posibles de q
son 1 y −1 (pues an = 1) y los posibles valores de p son los divisores de a0 . Observar además que
Por lo tanto, si χA ∈ Zn [x] tiene alguna raíz racional, entonces sólo puede ser algún divisor entero
del det(A).
Ejercicio 4.A. Encontrar los autovalores de la siguiente matriz, sus multiplicidades algebraicas y
geométricas y tantos autovectores linealmente independientes como sea posible.
−3 1 −3
A = 20 3 10 .
2 −2 4
1
−3 − x −3
χA (x) = det(A − xI) = det 20 3−x 10 = −x3 + 4x2 + 3x − 18.
2 −2 4−x
Por el Teorema de Gauss, si χA tiena alguna raíz racional λ, entonces sólo puede ser algún
divisor entero del det(A) = −18. En ese caso, las posibles raíces racionales podrían ser
Haciendo la cuenta (es decir evaluando χA en los valores de arriba) se puede ver que tuvimos
suerte y que λ1 = −2 y λ2 = 3 son raíces de χA . Además, como −18 = det(A) = λ1 ·λ2 ·λ3 = −6·λ3 ,
tenemos que λ3 = 3, donde usamos la propiedad (4.1).
189
4. Diagonalización
Por lo tanto, los autovalores de A son λ1 = −2 con multiplicidad algebraica m(λ = −2) = 1 y
λ2,3 = 3 con multiplicidad algebraica m(λ = 3) = 2.
Para obtener los autoespacios asociados, calculamos:
−1 1 −3 −1 1
−3 −1
Sλ=2 = nul(A − (−2)I) = nul( 20 5 10 ) = nul( 0 25 −50 ) = gen{ 2 }.
2 −2 6 0 0 0 1
1 1
−6 −3 −6 −3 −1
Sλ=3 = nul(A − 3I) = nul( 20 0 10 ) = nul( 0 10 0 ) = gen{ 0 }.
2 −2 1 0 −5 0 2
Por lo tanto, la multiplicidad geométrica de λ1 = −2 es µ(λ = −2) = 1 (lo cual es obvio porque
λ = −2 es un autovalor simple) y lamultiplicidad
geométrica de λ2,3 = 3 es µ(λ = 3) = 1.
−1 0
Finalmente, si v1 ∈ gen{ 2 } \ { 0 } entonces v1 es un autovector asociado a λ1 = −2
1 0
0
−1
y si v2 ∈ gen{ 0 } \ { 0 } entonces v2 es un autovector asociado a λ2,3 = 3. Por lo tanto,
2 0
siempre podemos encontrar a lo sumo 2 autovectores de A que sean linealmente independientes.
4.2. Diagonalización
Sea A ∈ Kn×n diremos que A es diagonalizable si existen P ∈ Kn×n inversible y Λ ∈ Kn×n
diagonal tales que
A = P ΛP −1 .
Antes de enunciar el teorema central de la sección, veamos una propiedad que será muy
importante:
v = v1 + v2 + · · · + vr ∈ Sλr+1 .
190
4.2. Diagonalización
Por (HI), los autoespacios S1 , · · · , Sr están en suma directa, entonces el vector 0 se escribe
únicamente como suma de ceros. Entonces, (λr+1 − λ1 )v1 = · · · = (λr+1 − λr )vr = 0. Como
λr+1 − λi 6= 0, para cada i = 1, 2, · · · , r, se sigue que v1 = v2 = · · · = vr = 0. Entonces
v = v1 + v2 + · · · + vr = 0 y Sλr+1 ∩ (S1 ⊕ · · · ⊕ Sr ) = {0}. Veamos que esto implica que
Sλ1 , · · · , Sλr , Sr+1 están en suma directa. Sea w ∈ Sλ1 + · · · + Sλr + Sr+1 y supongamos que
los autoespacios S1 , · · · , Sr están en suma directa, entonces el vector 0 se escribe únicamente como
suma de ceros. Entonces
y el vector w se escribe de manera única. Por lo tanto los autoespacios Sλ1 , · · · , Sλr , Sr+1 están en
suma directa.
El siguiente teorema nos brinda herramientas que nos permiten determinar si una matriz es
diagonalizable:
AP = P Λ.
191
4. Diagonalización
Tenemos que
Avi = λi vi ,
para i = 1, 2, · · · , n. Como vi 6= 0, para todo i = 1, 2, · · · , n, vi es un autovector de A para todo
i = 1, 2, · · · , n. Por lo tanto, {v1 , v2 , · · · , vn } es una base de Kn formada por autovectores de A.
Recíprocamente, si {v1 , v2 , · · · , vn } es una base de Kn formada por autovectores de A. Entonces,
existen λi ∈ K (no necesariamente distintos entre sí) tales que
Avi = λi vi
para todo i = 1, 2, · · · , n. Sea P := [v1 v2 · · · vn ] y Λ := diag(λ1 , λ2 , · · · , λn ) entonces P es
inversible pues sus columnas forman un base de Kn y además
AP = [Av1 Av2 · · · Avn ] = [λ1 v1 λ2 v2 · · · λn vn ] = P Λ.
Entonces
A = P ΛP −1
y por lo tanto A resulta diagonalizable.
ii) ⇒ iii) : Supongamos que λ1 , · · · , λr ∈ K son los r autovalores distintos de A y que existe una
base B = {v1 , · · · , vn } de Kn formada por autovectores de A. Entonces, para cada vj ∈ B existe
i ∈ {1, · · · , r} tal que vj es un autovector de A asociado al autovalor λi . Entonces vj ∈ Sλ1 ⊕· · ·⊕Sλr .
En consecuencia, Kn = Sλ1 ⊕ · · · ⊕ Sλr , donde usamos la Proposición 4.2.1, para afirmar que los
autoespacios Sλ1 , · · · , Sλr , están en suma directa.
iii) ⇒ iv) : Supongamos que Kn = Sλ1 ⊕ · · · ⊕ Sλr , donde λ1 , · · · , λr ∈ K son los r autovalores
distintos de A. Entonces
n = dim(Kn ) = dim(Sλ1 ⊕ · · · ⊕ Sλr )
= dim(Sλ1 ) + · · · + dim(Sλr ) = µ(λ1 ) + · · · µ(λr )
≤ m(λ1 ) + · · · + m(λr ) = n,
donde usamos (4.1). Entonces, en la cadena anterior, son todas igualdades. Es decir,
µ(λ1 ) + · · · + µ(λr ) = m(λ1 ) + · · · + m(λr ) = n.
Entonces, (m(λ1 ) − µ(λ1 )) + · · · + (m(λr ) − µ(λr )) = 0. Pero, por (4.1), tenemos que µ(λi ) ≤ m(λi )
para cada i = 1, · · · , r. Por lo tanto,
m(λi ) = µ(λi ),
para cada i = 1, · · · , r y probamos que las multiplicidades algebraicas y geométricas de cada
autovalor distinto de A coinciden.
iv) ⇒ ii) : Supongamos que las multiplicidades algebraicas y geométricas de cada autovalor
distinto de A coinciden. Sea Bi una base de Sλi para cada i = 1, · · · , r. Por la Proposición 4.2.1,
los autoespacios Sλ1 , · · · , Sλr están en suma directa. Entonces B := B1 ∪ · · · ∪ Br es una base de
Sλ1 ⊕ · · · ⊕ Sλr ⊆ Kn . Dado un conjunto X, #X denota el cardinal (número de elementos) de X.
Entonces
#B = #B1 + · · · + #B1 = dim(Sλ1 ) + · · · + dim(Sλr )
= µ(λ1 ) + · · · + µ(λr ) = m(λ1 ) + · · · + m(λr ) = n.
Por lo tanto, dim(Sλ1 ⊕ · · · ⊕ Sλr ) = #B = n y entonces Sλ1 ⊕ · · · ⊕ Sλr = Kn . Entonces B es
una base de Kn formada por autovectores de A.
Como probamos i) ⇔ ii), ii) ⇒ iii), iii) ⇒ iv) y iv) ⇒ ii), se sigue que i), ii), iii) y iv) son
equivalentes.
En este caso, veamos que Sλ2 ⊕ · · · ⊕ Sλr = col(A − λ1 I). De hecho, si y ∈ col(A − λ1 I) existe
x ∈ Kn tal que y = Ax − λ1 x. Como x ∈ Kn existen únicos vi ∈ Sλi , i = 1, · · · , r tales que
x = v1 + v2 + · · · + vr . Entonces
y = Ax − λ1 x = Av1 + Av2 + · · · + Avr − λ1 v1 − λ1 v2 − · · · − λ1 vr
192
4.2. Diagonalización
= λ1 v1 + λ2 v2 + · · · + λr vr − λ1 v1 − λ1 v2 − · · · − λ1 vr
= (λ2 − λ1 )v2 + · · · + (λr − λ1 )vr ∈ Sλ2 ⊕ · · · ⊕ Sλr
donde usamos que (λ2 − λ1 ) 6= 0, · · · , (λr − λ1 ) 6= 0. Por lo tanto, col(A − λ1 I) ⊆ Sλ2 ⊕ · · · ⊕ Sλr .
Pero, como
1 2
−2
A= 0 1 0 .
1 3 4
1−x 2
−2
χA (λ) = det(A − xI) = det 0 1−x 0 = (1 − x)[(1 − x)(4 − x) − (−2)]
1 3 4−x
= (1 − x)[(1 − x)(4 − x) − (−2)] = (1 − x)(x2 − 5x + 6).
0 2 −2
−6
Sλ=1 = nul(A − I) = nul( 0 0 0 ) = gen{ 1 }.
1 3 3 1
−1 2 −2 −1 2 −2 2
193
4. Diagonalización
2 1
−6
b) : Si tomamos B = { 1 , 0 , 0 }. Entonces, B es una base de R3 (ver
1 −1 −1
Teorema 4.2.2) compuesta por autovectores de A. Como obtuvimos una base de autovectores de A,
tenemos que A es diagonalizable.
c) : Si E es la base canónica de R3 entonces
−6 2 1
MBE = 1 0 0 := P.
1 −1 −1
0 1 0
2 2 1 1
−6 −6
A( 1 ) = 1 , A( 0 ) = 2( 0 ) y A( 0 ) = 3( 0 ).
1 1 −1 −1 −1 −1
Tenemos que
2 1
−6
[TA ]B
B = [ [TA (
1 )]B [TA ( 0 )]B [TA ( 0 )]B ]
1 −1 −1
2 1
−6
= [ [A( 1 )]B [A( 0 )]B [A( 0 )]B ]
1 −1 −1
2 1
−6
= [ [ 1 ]B [2( 0 )]B [3( 0 )]B ]
1 −1 −1
1 0 0
= 0 2 0 = Λ.
0 0 3
Entonces,
A = [TA ]EE = MBE [TA ]B
B ME = P ΛP
B −1
.
respectivamente.
194
4.2. Diagonalización
y = Ax = A(av1 + bv2 + cv3 ) = aAv1 + bAv2 + cAv3 = 0 + 2bv2 + 5cv3 = 2bv2 + 5cv3 ,
con b, c ∈ R. Por lo tanto y ∈ gen{v2 , v3 } y tenemos que col(A) ⊆ gen{v2 , v3 }. Finalmente, por el
Teorema de la Dimensión, vale que
Entonces, col(A) = gen{v2 , v3 } y una base de col(A) puede ser Bcol(A) = {[2 2 − 1]T , [1 2 − 1]T }.
b) Sabemos que Av2 = 2v2 y Av3 = 5v3 . Entonces, si tomamos xp := 12 v2 + 15 v3 , vale que
1 1 1 1 1 1
Axp = A( v2 + v3 ) = Av2 + Av3 = 2v2 + 5v3 = v2 + v3 .
2 5 2 5 2 5
c) : Todas las soluciones xs de la ecuación Ax = v2 + v3 se construyen de la forma xs = xp + xh ,
donde xp es una solución particular y xh ∈ nul(A). Entonces, por los ítems a) y b), tenemos que
todas las soluciones de la ecuación Ax = v2 + v3 son
1 1
xs = v2 + v3 + αv1 ,
2 5
con α ∈ R.
d) En el item a) vimos que gen{v2 , v3 } = col(A). Entonces, como el conjunto {v1 , v2 , v3 } es
linealmente independiente, es claro que v1 6∈ gen{v2 , v3 } = col(A). Por lo tanto, no existe solución
al sistema Ax = v1 .
Ejercicio 4.C. Explicar por qué las siguientes matrices no son diagonalizables en R2×2 :
λ 1 cos(θ) − sin(θ)
, λ ∈ R; ρ , ρ > 0, θ ∈ R \ {kπ : k ∈ Z}.
0 λ sin(θ) cos(θ)
1
λ
Dem. Calculamos el polinomio característico de la matriz con λ ∈ R :
0 λ
λ 1 1
λ−x
χ(x) = det( − xI) = det = (λ − x)2 .
0 λ 0 λ−µ
λ 1
Los autovalores de la matriz con λ ∈ R, son las raíces del polinomio característico. En
0 λ
este caso, las raíces son λ1 = λ2 = λ. Veamos la dimensión del autoespacio asociado al autovalor
λ1,2 = λ. Para eso, calculamos
λ 1 1 0 1 1
λ−λ
nul( − λI) = nul( ) = nul( ) = gen{ }.
0 λ 0 λ−λ 0 0 0
195
4. Diagonalización
cos θ − sin θ
Ahora, calculamos el polinomio característico de la matriz ρ con ρ > 0 y
sin θ cos θ
θ ∈ R \ {kπ : k ∈ Z} :
cos θ − sin θ
Los autovalores de la matriz ρ con ρ > 0 y θ ∈ R \ {kπ : k ∈ Z} son las raíces
sin θ cos θ
en R (estamos considerando cuerpo real) del polinomio característico. Es decir, buscamos λ ∈ R tal
que χ(λ) = λ2 − λ2ρ cos θ + ρ2 = 0. Entonces, despejando y recordando que ρ > 0, nos queda que
√
2ρ cos θ ± 4ρ2 cos θ2 − 4ρ2 2ρ cos θ ± 2ρ cos θ2 − 1
p
λ1,2 = = .
2 2
Observar
√ que como θ ∈ R \ {kπ : k ∈ Z} entonces cos θ < 1. Por lo tanto, cos θ − 1 < 0 y
2 2
cos θ − sin θ
entonces la matriz ρ con ρ > 0 y θ ∈ R \ {kπ : k ∈ Z} no tiene autovalores (en
sin θ cos θ
R) y concluimos que dicha matriz no es diagonalizable.
Ejercicio 4.4. Sea A ∈ R3×3 la matriz dependiente de los parámetros reales a, b, c definida por:
0 1 0
A = 0 0 1 .
c b a
a) Hallar los valores a, b, c ∈ R tales que χA (x) = det(A − xI) = 9x − x3 .¿A es diagonalizable?
Si la respuesta es afirmativa hallar P ∈ R3×3 inversible y Λ ∈ R3×3 diagonal tales que
A = P ΛP −1 .
b) Para c = 0, hallar el conjunto de las parejas a, b ∈ R tales que A es diagonalizable.
Por lo tanto a = 0, b = 9 y c = 0. En ese caso, como χA (x) = −x3 + 9x = x(9 − x2 ). Los autovalores
de A (que son las raíces de χA ) son λ1 = 0, λ2 = 3 λ3 = −3. Como A tiene 3 autovalores distintos,
por el Teorema 4.2.2, A es diagonalizable. Calculemos los autoespacios asociados:
0 1 0 1
196
4.2. Diagonalización
−3 1 0 1
−x 1 0
0 1 0 1
− a2 1 0
2
a a
nul(A − I) = nul( 0 − a2 1 ) = gen{ 1 }.
2 2 a
0 − a4 a
2 2
Las mismas nociones de autovalores, autovectores y diagonalización que vimos para matrices se
pueden definir para transformaciones lineales.
197
4. Diagonalización
T (v) = λv.
Entonces
0
det([T ]B
B0 − xI) = det((MB0 )
B −1
[T ]B
B MB0 − x(MB0 )
B B −1
MBB0 ) = det((MBB0 )−1 ([T ]B
B − xI)MB0 )
B
= det([T ]B
B − xI).
Por lo tanto el polinomio característico de T está bien definido (no depende de la base B elegida).
Entonces, de la misma manera que vimos para matrices tenemos que:
Dem. a) : Veamos si T es diagonalizable. Para eso elijamos una base conveniente y calculemos el
7
−4
polinomio característico de T. Si tomamos la base B, entonces [T ]B
B = . Por lo tanto
2 1
7−x
−4
χT (x) = det([T ]B − xI) = det(
B
) = (7 − x)(1 − x) + 8 = x2 − 8x + 15.
2 1−x
4 1
−4
nul([T ]B
B − 3I) = nul( ) = gen{ }.
2 −2 1
198
4.2. Diagonalización
2 −4 2
nul([T ]B − 5I) = nul(
B
) = gen{ }.
2 −4 1
Por lo tanto, Sλ=5 = Nu(T − 5IV ) = gen{2v1 + v2 }.
Sea C := {v1 + v2 ; 2v1 + v2 } entonces C es una base de V formada por autovectores de T.
Entonces, como T (v1 + v2 ) = 3(v1 + v2 ) y T (2v1 + v2 ) = 5(2v1 + v2 ), tenemos que
3 0
[T ]CC =
0 5
y T resulta diagonalizable.
b): En la Proposición 2.4.3, vimos que para todo k ∈ N, vale
[T k ]B
B = ([T ]B ) .
B k
1 2 −1 2
Llamemos P := MCB = , entonces P −1 := MBC = (MCB )−1 = . Por lo tanto,
1 1 1 −1
3 0
[T ]B
B =P P −1 . Observar que
0 5
3 0 3 0 3 0 2 −1
([T ]B ) = P
B 2 −1
P P P =P (
−1
) P
0 5 0 5 0 5
3 0
2
=P P −1 .
0 52
A partir de la observación anterior, vamos a probar por inducción que
3 0
k
([T ]B ) k
= P P −1 , (4.9)
B
0 5k
para todo k ∈ N.
Si k = 1, claramente (4.9) vale.
3n 0
Supongamos que para k = n ∈ N vale que ([T ]B
B)
n
=P P −1 (HI).
0 5n
Entonces, usando la HI,
3 0
n
([T ]B )n+1
= [T ]B
([T ] )
B n
= [T ]B
(P P −1 )
B B B B 0 5n
3 0 3 0 3 0
n n+1
=P P −1 P P −1
= P P −1 .
0 5 0 5n 0 5n+1
Como a partir de la validez de la ecuación (4.9) para k = n deducimos la validez de dicha
ecuación para k = n + 1, por inducción, se sigue que,
3 0 1 2 3 0 −1 2
k k
([T ]B ) = P
B k
P =
−1
,
0 5k 1 1 0 5k 1 −1
para todo k ∈ N.
Entonces, para todo k ∈ N,
−3k + 2 · 5k 2 · (3k − 5k )
([T ]B
B) =
k
.
−3k + 5k 2 · 3k − 5k
199
4. Diagonalización
2 2a − 4 2a2 − 8
A= 0 4 0 .
0 2a − 4 2a − 2
b) Diagonalizar A para a = 1.
2 − x 2a − 4 2a2 − 8
−2 2 10 5
1
−2 −2 −6
Sλ=4 = nul(A − 4I) = nul( 0 0 0 ) = gen{ 2 }.
0 −2 −4 −1
2 −2 −6 3
200
4.3. Polinomios matriciales
0 −2 −6 0 −2 −6 1
Dem. Sea λ ∈ K un autovalor de A, entonces existe v 6= 0 tal que Av = λv. Entonces (lo vimos en
la Sección 4.1): λk es autovalor de Ak para todo k ∈ N con el mismo autovector asociado v. Por lo
tanto,
q(A)v = (ak Ak + ak−1 Ak−1 + · · · + a1 A + a0 I)v = ak Ak v + ak−1 Ak−1 v + · · · + a1 Av + a0 v
= ak λk v + ak−1 λk−1 v + · · · + a1 λv + a0 v = (ak λk + ak−1 λk−1 + · · · + a1 λ + a0 )v
= q(λ)v.
Entonces, q(λ) es un autovalor de q(A) con mismo autovector asociado.
Dem. Sea λ ∈ K un autovalor de q(A), entonces existe v 6= 0 tal que q(A)v = λv. Sea
p(x) := q(x) − λ, entonces como ak 6= 0 tenemos que p es de grado k. Entonces, por el Teorema
fundamental del álgebra, existen ν1 , ν2 , · · · , νk ∈ K tales que
p(x) = q(x) − λ = ak (x − ν1 )(x − ν2 ) · · · (x − νk ).
Entonces
p(A) = q(A) − λI = ak (A − ν1 I)(A − ν2 I) · · · (A − νk I).
Como p(A)v = q(A)v − λv = 0 y v 6= 0, se sigue que
0 = det(p(A)) = akk det[(A − ν1 I)(A − ν2 I) · · · (A − νk I)]
= akk det(A − ν1 I) det(A − ν2 I) · · · det(A − νk I).
Entonces, como ak 6= 0, existe ν ∈ {ν1 , ν2 , · · · , νk } tal que det(A − νI) = 0. Entonces ν es autovalor
de A y además, 0 = p(ν) = q(ν) − λ. Por lo tanto q(ν) = λ.
201
4. Diagonalización
Dem. Vamos a probar la propiedad para todo n ∈ N por inducción: Para n = 1 es claro que la
propiedad vale.
Supongamos que para n = k ∈ N vale que Ak = P Λk P −1 (HI). Entonces, multiplicamos esa
ecuación a ambos lados por A y tenemos que
Más aún,
porque los autovalores de A son las raíces del polinomio característico de A. Sea A = P ΛP −1
con P ∈ Kn×n inversible y Λ = diag(λ1 , λ2 , · · · , λn ) ∈ Kn×n . Entonces, por la Proposición 4.3.3,
tenemos que
El siguiente ejercicio es una aplicación de todos los conceptos que vimos arriba:
Ejercicio 4.6. Hallar una matriz A ∈ R2×2 que posea las siguientes propiedades:
3 3
a) A2 − 3A + 2I = .
3 3
202
4.3. Polinomios matriciales
3 3
a) A − 3A + 2I =
2
y det(A) = −1.
3 3
3 3
a) A2 − 3A + 2I = y tr(A) = 6.
3 3
3 3
Sea B := . Entonces B = q(A) con q(x) = x2 − 3x + 2.
3 3
El polinomio característico de B es χB (x) = det(B − xI) = (3 − x)2 − 9. Entonces, λ1 = 6 y
λ2 = 0 sonlos autovalores de B con los respectivos autoespacios asociados: Sλ=6 = nul(B − 6I) =
1 1
gen{ } y Sλ=0 = nul(B) = gen{ }.
1 −1
1 1
Entonces B es diagonalizable y, si P := , entonces P es inversible y
1 −1
6 0
B=P P −1 .
0 0
Por la Proposición 4.3.2, existe ν1 ∈ R autovalor de A tal que q(ν1 ) = ν12 − 3ν1 + 2 = 6 y existe
ν2 ∈ R autovalor de A tal que q(ν2 ) = ν12 − 3ν1 + 2 = 0. Resolviendo las ecuaciones cuadráticas nos
queda que ν1 = 4 ó ν1 = −1 y ν2 = 2 ó ν2 = 1.
4 0
a) Si definimos A := P P −1 . Entonces, por la Proposición 4.3.3,
0 1
0 6 0
q(4)
A2 − 3A + 2I = q(A) = P P −1 = P P −1 = B.
0 q(1) 0 0
−1 0
b) Si definimos A := P P −1 . Entonces, det(A) = −1 y, por la Proposición 4.3.3,
0 1
0 6 0
q(−1)
A2 − 3A + 2I = q(A) = P P −1 = P P −1 = B.
0 q(1) 0 0
4 0
c) Si definimos A := P P −1 . Entonces, tr(A) = 6 y, por la Proposición 4.3.3,
0 2
0 6 0
q(4)
A − 3A + 2I = q(A) = P
2
P =P
−1
P −1 = B.
0 q(2) 0 0
−x 21 1
) = −x3 + 3 x + 1 .
2
χA (x) = det(A − xI) = det( 12 −x 1
1 1
2 4 4
2 2 −x
Por lo tanto, los autovalores de A son λ1 = 1, λ2,3 = − 21 . Calculemos los autoespacios asociados:
−1 12 1
1
2
Sλ1 = nul(A − I) = nul( 12 −1 12 ) = gen{ 1 }.
1
2
1
2 −1 1
203
4. Diagonalización
1 1 1
−1 −1
1 2 2 2
) = gen{ 0 , 1 }.
Sλ2,3 = nul(A + I) = nul( 1 1 1
2 2 2 2
1
2
1
2
1
2
1 0
Por lo tanto, como las multiplicidades geométricas y algebraicas de los autovalores coinciden
1 −1 −1 1 0 0
1 0 0 1 0 0
k
Ak = P Λk P −1 = P ( 0 − 12 0 )k P −1 = P 0 (− 12 )k 0 P −1
0 0 −2 1
0 0 (− 2 )
1 k
1 −1 −1 1 0 0 1 1 1
1
= 1 0 1 0 (− 12 )k 0 −1 −1 2
3
1 1 0 0 0 (− 2 )
1 k
−1 2 −1
1 + 2(− 2 )
1 k
1 − (− 2 )
1 k
1 − (− 2 )
1 k
1
= 1 − (− 12 )k 1 + 2(− 21 )k 1 − (− 12 )k
3
1 − (− 12 )k 1 − (− 12 )k 1 + 2 − 21 )k
1 1 1 2 −1 −1
1 1 1
= 1 1 1 + (− )k −1 2 −1 .
3 3 2
1 1 1 −1 −1 2
0 0
q(1)
q(A) = A5 + 3A2 + I = P q(Λ)P −1 = P 0 q(− 12 ) 0 P −1
0 0 q(− 2 )
1
5 0 0
= P 0 55 32 0 P −1 .
0 0 32 55
204
4.4. Teorema espectral
205
4. Diagonalización
Corolario 4.4.2. Sea A ∈ Kn×n una matriz diagonalizable con descomposición espectral A =
λ1 G1 + λ2 G2 + · · · + λr Gr . Entonces, para cada n ∈ N,
Dem. Vamos a probar la propiedad para todo n ∈ N por inducción: Para n = 1 es claro que la
propiedad vale.
Supongamos que para n = k ∈ N vale que Ak = λk1 G1 + λk2 G2 + · · · + λkr Gr (HI). Entonces,
multiplicamos esa ecuación a ambos lados por A y tenemos que
donde usamos que las matrices G1 , G2 , · · · , Gr son idempotentes y que cumplen 1., 2. y 3. del
Teorema 4.4.1.
Entonces, a partir de la hipótesis inductiva deducimos la validez de la propiedad para n = k + 1.
Por lo tanto, por inducción, concluimos que para cada n ∈ N,
4−x 0 1
Por lo tanto, los autovalores de A son λ1,2 = 3, λ3 = 5. Calculemos los autoespacios asociados:
3 0 1 0
−1
Sλ1,2 = nul(A − 3I) = nul( 2 0 2 ) = gen{ 0 , 1 }.
1 0 1 1 0
0 1 1
−1
Sλ3 = nul(A − 5I) = nul( 2 −2 2 ) = gen{ 2 }.
1 0 −1 1
206
4.4. Teorema espectral
canónica del proyector Π2 de R3 sobre Sλ3 en la dirección S1,2 . Es claro que [Π1 ]B
B =
0 1 0
0 0 0
0 0 0
y [Π2 ]B
B =
0 0 0 . Por lo tanto, usando que la matriz de cambio de base de B a E es
0 0 1
−1 0 1
[M ]E
B =
0 1 2 , tenemos que
1 0 1
G1 = [Π1 ]E
E = [M ]B [Π1 ]B [M ]E
E B B
= [M ]E
B [Π1 ]B ([M ]B )
B E −1
−1 0 1 1 0 0 −1 0 1 1 0 −1
1 1
= 0 1 2 0 1 0 −2 2 −2 = −2 2 −2 .
2 2
1 0 1 0 0 0 1 0 1 −1 0 1
G2 = [Π2 ]E
E = [M ]B [Π2 ]B [M ]E
E B B
= [M ]E
B [Π1 ]B ([M ]B )
B E −1
−1 0 1 0 0 0 −1 0 1 1 0 1
1 1
= 0 1 2 0 0 0 −2 2 −2 = 2 0 2 .
2 2
1 0 1 0 0 1 1 0 1 1 0 1
0 0 0
A = 3G1 + 5G2 .
Recordemos que si (V, k · k) un K-espacio normado y (vn )n∈N es una sucesión de elementos de
V. La sucesión (vn )n∈N es convergente si existe v0 ∈ V tal que
lı́m kvn − v0 k = 0.
n→∞
h A, B i := tr(B ∗ A)
entonces (Kn×n , h ·, · i) resulta un K-espacio euclídeo. La norma inducida por dicho producto interno
1/2
kAkF := h A, A i = tr(A∗ A)1/2 ,
se denomina norma de Frobenius. Recordemos que como kAkF es una norma, entonces vale:
207
4. Diagonalización
kAkF ≥ 0 para toda A ∈ Kn×n y kAkF = 0 si y sólo si A = 0n×n (la matriz nula de n × n).
kA + BkF ≤ kAkF + kBkF , para toda A, B ∈ Kn×n . De esta propiedad se deduce que
|kAkF − kBkF | ≤ kA − BkF , para toda A, B ∈ Kn×n .
Sea (An )n∈N una sucesión de matrices, diremos que la sucesión (An )n∈N es convergente si existe
A0 ∈ Kn×n tal que
lı́m kAn − A0 kF = 0. (4.10)
n→∞
(propiedad de la norma). Entonces, si lı́m An = A0 vale que lı́m kAn − A0 kF = 0. Por lo tanto,
n→∞ n→∞
lı́m |kAn kF − kA0 kF | = 0 y entonces lı́m kAn kF = kA0 kF .
n→∞ n→∞
χA (x) = det(A − xI) = det 0,3 0,5 − x 0,2 = −x3 + 1,6x2 − 0,67x + 0,07.
0,2 0,4 0,4 − x
√ √
Por lo tanto, los autovalores de A son λ1 = 1, λ2 = 3+10 2 y λ3 = 3−10 2 . Entonces
√ √
σ(A) = {1, 3+10 2 , 3−10 2 }. Como A tiene 3 autovalores distintos, por el Teorema 4.2.2, A resulta
diagonalizable.
b) : Por el Teorema 4.4.1, existen matrices G1 , G2 , G3 que cumplen 1., 2. y 3. de dicho teorema,
tales que √ √
3+ 2 3− 2
A = λ1 G1 + λ2 G2 + λ3 G3 = G1 + G2 + G3 .
10 10
Entonces, por el Corolario 4.4.2,
√ √
3+ 2 n 3− 2 n
A = G1 + (
n
) G2 + ( ) G3 .
10 10
208
4.4. Teorema espectral
√ √
Por lo tanto, usando que ( 3−10 2 )n < ( 3+10 2 )n y las propiedades de la norma, se sigue que, para
todo n ∈ N,
√ √ √ √
3+ 2 n 3− 2 n 3+ 2 n 3− 2 n
0 ≤ kA − G1 kF = k(
n
) G2 + ( ) G3 kF ≤ ( ) kG2 kF + ( ) kG3 kF
10
√ 10 √ 10 10 √
3+ 2 n 3+ 2 n 3+ 2 n
≤( ) kG2 kF + ( ) kG3 kF = (kG2 kF + kG3 kF )( )
10 √ 10 10
3+ 2 n
= M( ) ,
10
√
Donde M := (kG2 kF + kG3 kF ) > 0. Entonces, como 3+ 2
10 < 1, se sigue que
√ √
3+ 2 n 3+ 2 n
lı́m M ( ) = M lı́m ( ) = 0.
n→∞ 10 n→∞ 10
Entonces, como para todo n ∈ N, vale que
√
3+ 2 n
0 ≤ kA − G1 kF ≤ M (
n
)
10
√
y lı́m M ( 3+10 2 )n = 0, se sigue que lı́m kAn − G1 kF = 0 y por lo tanto lı́m An = G1 .
n→∞ n→∞ n→∞
7 6 6 3 3
7
2
Ejercicio 4.9. Sea A = 1
2
−2 0 −2 = −1 0 −1 .
−1 −2 0 − 12 −1 0
kAn kF
a) Probar que lı́m n > 0 y concluir que no existe lı́m An .
n→∞ 2 n→∞
7−x 6 6
1 7 7
χA (x) = det(A − xI) = det( −2 −x −2 ) = −x3 + x2 − x + 1.
2 2 2
−1 −2 −x
209
4. Diagonalización
Entonces
An 2n G1 + G2 + ( 12 )n G3 1 1
= = G1 + n G2 + 2n G3 .
2n 2n 2 2
Observar que, para todo n ∈ N, tenemos que
An 1 1 1 1
0≤k − G1 kF = k n G2 + 2n G3 kF ≤ n kG2 kF + 2n kG3 kF .
2n 2 2 2 2
Entonces como
1 1
lı́m ( kG2 kF + 2n kG3 kF ) = 0,
n→∞ 2n 2
n
An
se sigue que lı́m k A2n − G1 kF = 0 y por lo tanto lı́m n = G1 . Entonces, por (4.11),
n→∞ n→∞ 2
kAn kF An An
lı́m = lı́m k k F = k lı́m kF = kG1 kF > 0.
n→∞ 2n n→∞ 2n n→∞ 2n
Esto implica que la sucesión kAn kF no está acotada en R y, por lo tanto, no existe lı́m An .
n→∞
b) : Llamemos T := {x ∈ R3 : lı́m An x = 0}. Veamos que T es un subespacio de R3 . Claramente
n→∞
0 ∈ T , pues An 0 = 0 para todo n y por lo tanto lı́m An 0 = 0. Por otra parte, supongamos que
n→∞
x, y ∈ T y sea α ∈ R. Entonces, como x ∈ T tenemos que lı́m An x = 0 y como y ∈ T tenemos que
n→∞
lı́m An y = 0. Por lo tanto, como An (αx + y) = αAn x + An y, por el álgebra de límites, se sigue
n→∞
que lı́m An (αx + y) = α lı́m An x + lı́m An y = α0 + 0 = 0. Entonces αx + y ∈ T y concluimos
n→∞ n→∞ n→∞
que T es un subespacio.
Calculemos los autoespacios asociados a los autovalores de A :
3 3
3
2 −2
Sλ1 = nul(A − 2I) = nul( −1 −2 −1 ) = gen{ 1 }.
− 21 −1 −2 0
5
3
3 0
2
Sλ2 = nul(A − I) = nul( −1 −1 ) = gen{ −1 }.
−1
1
−2 −1
−1 1
3 3 3
−1
1
Sλ3 = nul(A − I) = nul( −1 − 12 −1 ) = gen{ 0 }.
2
− 21 −1 − 12 1
0
−2 −1
Como A es diagonalizable B := { 1 , −1 , 0 } es una base de autovectores R3 .
0 1 1
−1 −1 −1
Afirmamos que T = gen{ 0 }. Es claro que gen{ 0 } ⊆ T , porque si x ∈ gen{ 0 }
1 1 1
−1 −1 −1
entonces x = α 0 con α ∈ R. Entonces An x = An α 0 = αAn 0 =
1 1 1
−1
1
α n 0 y vale que
2
1
0
−1
1
lı́m An x = lı́m α n 0 = 0 .
n→∞ n→∞ 2
1 0
210
4.4. Teorema espectral
0
−2
Por otra parte, si x ∈ T entonces como x ∈ R3 , tenemos que x = α 1 + β −1 +
0 1
−1
γ 0 , con α, β, γ ∈ R. Entonces
1
0 0
−2 −1 −2 −1
1
An x = αAn 1 +βAn −1 +γAn 0 = α2n 1 +β −1 +γ n 0
2
0 1 1 0 1 1
0
−1
que converge al vector 0 si y sólo si α = β = 0. Por lo tanto T ⊆ gen{ 0 }. Entonces
0 1
−1 −1
T = gen{ 0 } y una base de T puede ser BT = { 0 }.
1 1
c) : Claramente 0 ∈ S, pues An 0 = 0 para todo n y como lı́m An 0 = 0, entonces existe
n→∞
lı́m An 0. Por otra parte, supongamos que x, y ∈ S y sea α ∈ R. Entonces, como x ∈ S existe
n→∞
lı́m An x y como y ∈ S, existe lı́m An y. Por lo tanto, como An (αx + y) = αAn x + An y, por el
n→∞ n→∞
álgebra de límites, se sigue que existe lı́m An (αx + y). Más aún,
n→∞
Entonces αx + y ∈ S y concluimos
que S es un subespacio.
0 0
−1 −1
Afirmamos que S = gen{ −1 , 0 }. Es claro que gen{ −1 , 0 } ⊆ S,
1 1 1 1
0 0
−1 −1
porque si x ∈ gen{ −1 , 0 } entonces x = α −1 + β 0 con α, β ∈ R.
1 1 1 1
Entonces
0 0
−1 −1
An x = An (α −1 + β 0 ) = αAn −1 + βAn 0
1 1 1 1
0 0
−1
1
= α −1 + β n 0 → α −1
2 n→∞
1 1 1
0 0
−2 −1 −2 −1
1
An x = αAn 1 +βAn −1 +γAn 0 = α2n 1 +β −1 +γ n 0
2
0 1 1 0 1 1
0
−1
que converge (el límite existe) si y sólo si α = 0. Por lo tanto S ⊆ gen{ −1 , 0 }.
1 1
0 0
−1 −1
Entonces S = gen{ −1 , 0 } y una base de S puede ser BS = { −1 , 0 }.
1 1 1 1
211
4. Diagonalización
d) : Vamos a describir el conjunto { lı́m An x : x ∈ S}. Sea x ∈ S (es decir x es tal que existe
n→∞
0
−1
lı́m An x) entonces x = α −1 + β 0 con α, β ∈ R. Entonces
n→∞
1 1
0 0
−1 −1
An x = An (α −1 + β 0 ) = αAn −1 + βAn 0
1 1 1 1
0
−1
1
= α −1 + β n 0 .
2
1 1
Por lo tanto
0 0
−1
1
lı́m An x = lı́m (α −1 + β n 0 ) = α −1 .
n→∞ n→∞ 2
1 1 1
0 0
donde xp es una solución particular, es decir lı́m An xp = −2 y xh son las soluciones del
n→∞
2
0 0
212
4.5. Formas de Jordan
Pensando de manera similar, podemos deducir cómo sería la forma de Jordan para A ∈ K2×2 .
Teorema 4.5.1. Sea A ∈ R3×3 una matriz no diagonalizable. Entonces existe una matriz inversible
P tal que P −1 AP = J, donde J tiene alguna de las siguientes formas:
λ 1 0 λ 1 0 λ 1 0
0 λ 1 , 0 λ 0 , 0 λ 0 ,
0 0 λ 0 0 λ 0 0 µ
con λ, µ ∈ R y λ 6= µ.
λ 1 0
J := 0 λ 1 .
0 0 λ
Respecto de la matriz P = [v1 v2 v3 ], (donde v1 , v2 , v3 denotan sus columnas) P debe ser inversible
y como queremos que A = P JP −1 , multiplicando a izquierda por P a ambos lados de la ecuación
anterior, tenemos que se debe cumplir que
AP = P J.
Por un lado, P es inversible si y sólo si {v1 , v2 , v3 } es linealmente independiente. Por otra parte,
como
AP = A[v1 v2 v3 ] = [Av1 Av2 Av3 ] y
λ 1 0
λ 1 0
J := 0 λ 0 .
0 0 λ
Respecto de la matriz P = [v1 v2 v3 ], (donde v1 , v2 , v3 denotan sus columnas) P debe ser inversible
y se debe cumplir que AP = P J. Por un lado, P es inversible si y sólo si {v1 , v2 , v3 } es linealmente
independiente. Por otra parte, como
1 0
λ
P J = [v1 v2 v3 ] 0 λ 0 = [λv1 v1 + λv2 λv3 ].
0 0 λ
213
4. Diagonalización
Tenemos que AP = P J si y sólo si Av1 = λv1 , Av2 = v1 + λv2 y Av3 = λv3 . Es decir,
(A − λI)v1 = 0, (A − λI)v2 = v1 y (A − λI)v3 = 0.
En resumen, la matriz P se obtiene buscando 3 vectores v1 , v2 , v3 ∈ R3 linealmente independientes
tales que v1 ∈ Sλ ∩ col(A − λI), v3 es un autovector asociado a λ y (A − λI)v2 = v1 .
Caso 3: λ es un autovalor doble con multiplicidad geométrica 1 y µ es un autovalor simple.
En este caso, vamos a tomar
λ 1 0
J := 0 λ 0 .
0 0 µ
Respecto de la matriz P = [v1 v2 v3 ], (donde v1 , v2 , v3 denotan sus columnas) P debe ser inversible
y se debe cumplir que AP = P J. Por un lado, P es inversible si y sólo si {v1 , v2 , v3 } es linealmente
independiente. Por otra parte, como
AP = A[v1 v2 v3 ] = [Av1 Av2 Av3 ] y
1 0
λ
P J = [v1 v2 v3 ] 0 λ 0 = [λv1 v1 + λv2 µv3 ].
0 0 µ
Tenemos que AP = P J si y sólo si Av1 = λv1 , Av2 = v1 + λv2 y Av3 = µv3 . Es decir,
(A − λI)v1 = 0, (A − λI)v2 = v1 y (A − µI)v3 = 0.
En resumen, la matriz P se obtiene buscando 3 vectores v1 , v2 , v3 ∈ R3 linealmente independientes
tales que v1 ∈ Sλ ∩ col(A − λI), v3 es un autovector asociado a µ y (A − λI)v2 = v1 .
A partir del Teorema 4.5.1 podemos probar que la traza de una matriz cuadrada es la suma de
sus autovalores:
tr(A) = λ1 + λ2 + · · · + λn ,
J1 = 0 λ 1 , J 2 = 0 λ 0 , J 3 = 0 λ 0 ,
0 0 λ 0 0 λ 0 0 µ
con λ, µ ∈ R y λ 6= µ. Entonces
tr(A) = tr(P Ji P −1 ) = tr(P −1 P Ji ) = tr(Ji ) = λ + λ + λ,
para el caso i = 1, 2 ó
tr(A) = tr(P J3 P −1 ) = tr(P −1 P J3 ) = tr(J3 ) = λ + λ + µ,
y concluimos que tr(A) es la suma de los autovalores de A.
214
4.5. Formas de Jordan
A = 0 2 0 .
1 1 1
J= 0 2 0 .
0 0 2
215
4. Diagonalización
1 1 1
−1 x
0 0 0 y = 0 .
1 1 −1 z 1
La solución de dicho sistema es:
1 1 1
v2 = 0 + α 0 + β −1 ,
0 1 0
1
A = P BP −1 .
A ∼ A.
P −1 AP = P −1 P BP −1 P = B,
A = W CW −1 ,
por lo tanto A ∼ C.
Como se cumplen las tres propiedades que vimos, se dice que la relación ∼ es reflexiva, simétrica
y transitiva.
La siguiente observación es inmediata:
Sea A ∈ Kn×n , entonces A es diagonalizable si y sólo si existe Λ ∈ Kn×n diagonal, tal que
A ∼ Λ.
1. det(A) = det(B),
2. tr(A) = tr(B),
3. χA = χB ,
216
4.6. Matrices semejantes
El siguiente ejemplo muestra que la vuelta de la Proposición 4.6.1, en general es falsa.
Ejemplo 4.a. Sean
0 1 0 0 0 1 0 0
0 0 0 0 0 0 1 0
A=
0
yB= .
0 0 1 0 0 0 0
0 0 0 0 0 0 0 0
Observar que, det(A) = 0 = det(B), tr(A) = 0 = tr(B), χA (x) = x4 = χB (x). Entonces, λ = 0
es el único autovalor de A y B y mA (λ = 0) = 4 = mB (λ = 0). Por otra parte,
0 1 0 0
0 0 0 0
µA (λ = 0) = dim(nul(A)) = dim(nul(
0 0 0 1 )) = 2 y
0 0 0 0
0 1 0 0
0 0 1 0
µB (λ = 0) = dim(nul(B)) = dim(nul(
0 0 0 0 )) = 2.
0 0 0 0
Por lo tanto, tenemos que los ítems
1., 2., 3. y 4.
de la Proposición 4.6.1 se cumplen.
0 0 1 0
0 0 0 0
Observar que A2 = 0. Pero B 2 = 0 0 0 0 .
0 0 0 0
Entonces, B 6∼ A, porque si existiera P inversible tal que B = P AP −1 , tendríamos que
0 6= B 2 = (P AP −1 )P AP −1 = P A2 P −1 = P 0P −1 = 0,
217
4. Diagonalización
Ejercicio 4.I. Determinar cuáles de las siguientes parejas de matrices son semejantes:
1 0 0 1
a) A = , B= .
0 1 1 0
0 1 0 21
b) A = , B= .
1 0 1
2 0
1 1 0 1 0 0
c) A = 0 2 2 , B = 0 2 0
0 0 3 0 0 3
Dem. a) : Observar que tr(A) = 2 6= 0 = tr(B). Entonces, por la Proposición 4.6.1, A no puede ser
semejante a B.
b) : Observar que det(A) = −1 6= − 14 = det(B). Entonces, por la Proposición 4.6.1, A no puede
ser semejante a B.
c) : Observar que χA (x) = det(A − xI) = (1 − x)(2 − x)(3 − x). Entonces, los autovalores de
A son λ1 = 1, λ2 = 2, λ3 = 3. Por lo tanto, como los tres autovalores de A son distintos, A es
1 0 0
diagonalizable. Si Λ := 0 2 0 = B, tenemos que A ∼ Λ = B.
0 0 3
El siguiente resultado que enunciaremos para R3×3 y R2×2 vale en general para Rn×n .
Teorema 4.6.2. Sean A, B ∈ Rn×n con n ≤ 3. Entonces A ∼ B si y sólo si tienen los mismos
bloques de Jordan.
Dem. Como A y B tienen los mismos bloques de Jordan, por el Teorema 4.5.1, existen P, Q ∈ Rn×n
inversibles tales que A = P JP −1 y B = QJQ−1 . Entonces A ∼ J y B ∼ J. Entonces, como la
relación ∼ es transitiva y simétrica, vale que A ∼ B.
Veamos una aplicación del Teorema 4.6.2:
Ejercicio 4.11. Determinar cuáles de las siguientes parejas de matrices A1 y A2 son semejantes, y
en caso de serlo hallar S inversible tal que A1 = SA2 S −1 .
6 8 6 2 18
3 3
2 2 −13 −57
a) A1 = 14 −5 22 9 = − 54 11 2
9
4 , A2 = 1
4
−2 13 9 =
4 −12 0 1 −3 0 2 −3 −3
9 13 57
2 − 4 − 4
−1 13 9 .
2 4 4
1 3 3
2 − 4 − 4
5 6 3 6 −5 4
b) A1 = 14 −6 10 6 , A2 = 14 8 22 −12 .
5 −10 3 6 9 0
2
3 3
2 −x 2
χA1 (x) = det(A1 − xI) = det − 54 11
2 −x
9
4
1 −3 −x
= −x + 7x − 16x + 12.
3 2
Los autovalores de A1 son las raíces de su polinomio característico. En este caso, las raíces son
λ1 = 3 y λ2,3 = 2. La multiplicidad algebraica del autovalor λ = 2 es entonces 2. Veamos cuál es su
218
4.6. Matrices semejantes
A1 ∼ 0 2 0 .
0 0 3
Ahora, calculemos el polinomio característico de A2 :
9
− 13 − 57
2 −x 4 4
χA2 (x) = det(A2 − xI) = det − 12 13
4 −x
9
4
.
1 3 3
2 − 4 − 4 − x
= −x3 + 7x2 − 16x + 12.
Los autovalores de A2 son las raíces de su polinomio característico. En este caso, las raíces son
λ1 = 3 y λ2,3 = 2. La multiplicidad algebraica del autovalor λ = 2 es entonces 2. Veamos cuál es su
multiplicidad geométrica calculando el autoespacio asociado a λ = 2:
7
5
− 13 − 57
2 4 4
nul(A2 − 2I) = nul( − 12 5 9 ) = gen{ 1 }.
4 4
1
2 − 43 − 114
1
Por lo tanto la multiplicidad geométrica de λ = 2 es 1 y A2 no es diagonalizable. Estamos
2 1 0
en el Caso 3 del Teorema 4.5.1. En este caso, J = 0 2 0 y, por el Teorema 4.5.1,
0 0 3
2 1 0 2 1 0
219
4. Diagonalización
x
Si v2 = y ∈ R3 , nos queda el siguiente sistema no homogéneo a resolver:
z
2
1 3
−2 2 x −1
−5
4
7
2
9
4 y = −1 .
1 −3 −2 z 1
La solución de dicho sistema es:
−2 −1
v2 = −1 + α −1
0 1
−2
con α ∈ R. Como sólo necesitamos un vector v2 ∈ R3 , tomamos α = 0 y v2 = −1 que es li
0
−1 −2 −3
con v1 y v3 (verificarlo). Entonces P = −1 −1 −6 y tenemos que A1 = P JP −1 .
1 0 5
Por otra parte, si Q := [w1 w2 w3 ] es inversible y cumple que A2 = QJQ−1 , entonces
w1 , w2 , w3 ∈ R3 (las columnas de Q) son vectores linealmente independientes tales que tales
que w1 ∈ Sλ=2 ∩ col(A2− 2I), w3 es un autovector asociado a λ = 3 y(A2 − 2I)w2 = w1 .
5 13 57
7
2 − 4 − 4
Como A2 − 2I = − 21 5 9 , tomamos w1 := 1 ∈ Sλ=2 ∩ col(A2 − 2I) y
4 4
1
2 − 34 − 11 4
1
calculamos el autoespacio asociado a λ = 3 :
3
3
− 13 − 57
2 4 4
nul(A2 − 3I) = nul( − 12 1
4
9
4
) = gen{ −3 }.
1
2 − 3
4 − 15
4
1
3
w2 = 4 + α 1
0 1
8
220
4.7. Sistemas de ecuaciones diferenciales
Y 0 = AY.
3 3 1
−3 −6 −3 −6
Sλ=−1 = nul(A + I) = nul( 2 5 −2 ) = nul( 0 3 0 ) = gen{ 0 }.
−2 −2 2 0 6 0 1
3 3 0
−4 −6 −4 −6
Sλ=0 = nul(A) = nul( 2 4 −2 ) = nul( 0 2 −1 ) = gen{ 1 }.
−2 −2 1 0 2 −1 2
221
4. Diagonalización
P := −1 0 1 .
0 1 2
2 0 0
Si Λ := 0 −1 0 , entonces
0 0 0
A = P ΛP −1 .
Para resolver el sistema de ecuaciones diferenciales, proponemos el siguiente cambio de variables:
Y (t) := P Z(t).
Entonces, intuitivamente podemos ver que Y 0 (t) = P Z 0 (t) y el sistema a resolver nos queda:
z1 (t) 2 0 0 z1 (t)
0
z 0 = −z2 .
20
z3 = 0
Recordando el Ejercicio 2.27, tenemos que la solución de cada ecuación diferencial es:
1 1 0 c1 e2t 1 1 0
c1 e2t + c2 e−t
= −c1 e2t + c3 ,
c2 e−t + 2c3
c1 , c2 , c3 ∈ R.
Y 0 = AY. (4.12)
222
4.7. Sistemas de ecuaciones diferenciales
A partir del cambio de variable Y (t) = P Z(t), operando de la misma manera que hicimos
en el ejercicio anterior, podemos ver que una base de soluciones (o un conjunto fundamental
de soluciones) de (4.12) es
{eλ1 t v1 , eλ2 t v2 , · · · , eλn t vn }
y todas las soluciones del sistema de ecuaciones diferenciales (4.12) son:
con c1 , c2 , · · · , cn ∈ C.
Ejercicio 4.13 b). Hallar la solución del problema a valores inciales y analizar el comportamiento
asintótico de:
Y 0 = AY, Y (0) = Y0 , (4.13)
−1 −2
con A = .
0 −3
2 −2 1
Sλ=−3 = nul(A + 3I) = nul( ) = gen{ }.
0 0 1
Por lo tanto, como vimos arriba, todas las soluciones del sistema de ecuaciones diferenciales son:
1 1
Y (t) = c1 e −t
+ c2 e −3t
,
0 1
con c1 , c2 ∈ R.
Usando la condición inicial podemos hallar los valores de c1 y c2 . De hecho,
1 1 c1 + c2
Y01
Y (0) = c1 e0 + c2 e 0 = = ,
0 1 c2 Y02
donde Y01 e Y02 son la primera y segunda coordenada del vector Y0 respectivamente. Despejando,
tenemos que c2 = Y02 y c1 = Y01 − c2 = Y01 − Y02 . Por lo tanto, la solución del sistema de ecuaciones
diferenciales a valores iniciales es:
1 1 (Y01 − Y02 )e−t + Y02 e−3t
Y (t) = (Y01 − Y02 )e−t + Y02 e−3t = .
0 1 Y02 e−3t
Por lo tanto,
(Y01 − Y02 )e−t + Y02 e−3t
lı́m Y (t) = lı́m
t→∞ t→∞ Y02 e−3t
lı́mt→∞ [(Y01 − Y02 )e−t + Y02 e−3t ] 0
:= = .
lı́mt→∞ Y02 e−3t 0
223
4. Diagonalización
Vimos que para matrices A ∈ C2×2 (con coeficientes reales), el polinomio característico de A es
1
λ1,2 = [tr(A) ± tr(A)2 − 4 det(A)].
p
2
Si A es diagonalizable, vimos que las soluciones del sistema de ecuaciones (4.13) son
0
Por lo tanto, lı́mt→∞ Y (t) = (para cualquier valor inicial) si y sólo si λ1 < 0 y λ2 < 0.
0
Si 4 det(A) ≤ tr(A) entonces, por la fórmula de los autovalores de A que escribimos arriba,
2
Por lo tanto, no queda otra que λ1 < 0 y λ2 < 0 (¿por qué?) y en ese caso, siempre tendremos
0
que lı́mt→∞ Y (t) = .
0
kY (t)k ≤ C
1
−1
Y (t) = c1 e3t
+ c2 e −t
,
1 1
con c1 , c2 ∈ R.
Usando la condición inicial podemos hallar los valores de c1 y c2 . De hecho,
1
−1 c1 − c2 Y01
Y (0) = c1 e0 + c2 e0 = = ,
1 1 c1 + c2 Y02
224
4.8. Sistemas de ecuaciones diferenciales: caso no diagonalizable
donde Y01 e Y02 son la primera y segunda coordenada del vector Y0 respectivamente. Despejando,
tenemos que c1 = Y01 +Y 2
02
y c2 = Y02 −Y
2
01
. Por lo tanto, la solución del sistema de ecuaciones
diferenciales a valores iniciales es:
Y01 + Y02 3t 1
Y02 − Y01 −t −1
Y (t) = ( )e +( )e .
2 1 2 1
M > 0 siempre existe t0 > 0 tal que si t ≥ t0 entonces kY (t)k2 > M, entonces kY (t)k2 no es
acotada y por lo tanto kY (t)k tampoco.
Afirmamos que kY (t)k es acotada si y sólo si Y01 = −Y02 . De hecho, en ese caso,
Y02 − Y01 2 −2t
kY (t)k2 = ( ) e 2 = 2Y02 2 −2t
e ≤ 2Y02 2
,
2
√
para todo t ≥ 0. Por lo tanto kY (t)k ≤ 2 |Y02 |, para todo
t ≥ 0 e Y (t) resulta acotada. Conclusión,
−1
la norma de Y (t) resulta acotada si y sólo si Y0 ∈ gen{ }.
1
3 1 −1
Ejercicio 4.L. Sea A = 0 2 0 . Hallar la solución del problema a valores inciales y analizar
1 1 1
el comportamiento asintótico de:
Y 0 = AY, Y (0) = Y0 ,
J= 0 2 0 y
0 0 2
1 1 1
P = 0 0 −1
1 0 0
entonces la forma de Jordan de A es
A = P JP −1 .
En este caso, también haremos el cambio de variables Y (t) := P Z(t). Entonces, Y 0 (t) = P Z 0 (t)
y el sistema a resolver nos queda:
Y 0 (t) = P Z 0 (t) = AY (t) = AP Z(t).
225
4. Diagonalización
Entonces,
z10 (t) 2 1 0 z1 (t)
z20 (t) = 0 2 0 z2 (t)
z30 (t) 0 0 2 z3 (t)
y nos queda el siguiente sistema a resolver,
z1 = 2z1 + z2
0
z20 = 2z2 .
z30 = 2z3
Recordando (por ejemplo) el Ejercicio 2.27, tenemos que la solución de las ecuaciones diferenciales
homogéneas z20 = 2z2 y z30 = 2z3 es
Recordando (por ejemplo) el Ejercicio 2.27, tenemos que todas las soluciones de (4.14) son
donde z1h son las soluciones del sistema homogéneo asociado y z1p es una solución particular. En
este caso z1h ∈ gen{e2t } y z1p (t) = f (t)e2t , donde f 0 (t) = (c2 e2t )e−2t = c2 . Entonces, f (t) = c2 t y
tenemos que z1p (t) = c2 te2t . Por lo tanto,
con c1 ∈ R.
Volviendo a la variable original, nos queda que:
1 1 1 c1 e2t + c2 te2t
1 1 1 1
= −c3 e2t .
c1 e2t + c2 e2t t
Usando la condición inicial podemos hallar los valores de c1 , c2 y c3 . De hecho,
c1 e0 + c2 e0 (0 + 1) + c3 e0 c1 + c2 + c3
Y01
Y (0) = −c3 e0 = −c3 = Y02 ,
c1 e + c2 e0 0
0
c1 Y03
donde Y01 , Y02 e Y03 son la primera, segunda y tercera coordenada del vector Y0 respectivamente.
Despejando, tenemos que c1 = Y03 , c3 = −Y02 y c2 = Y01 − c3 − c1 = Y01 + Y02 − Y03 . Por lo tanto,
la solución del sistema de ecuaciones diferenciales a valores iniciales es:
1 1 1 1
226
4.8. Sistemas de ecuaciones diferenciales: caso no diagonalizable
En general, supongamos que A ∈ C 3×3
y queremos resolver el sistema de ecuaciones diferenciales
Y 0 = AY. (4.15)
λ 1 0
J = 0 λ 1 .
0 0 λ
λ 1 0
J = 0 λ 0 .
0 0 λ
J = 0 λ 0 .
0 0 µ
A partir del cambio de variable Y (t) = P Z(t) y operando de la misma manera que hicimos en
el ejercicio anterior, podemos obtener todas las soluciones del sistema de ecuaciones diferenciales
(4.15) según el caso en el que estemos:
Caso 1: λ es un autovalor triple con multiplicidad geométrica 1. En ese caso, todas las soluciones
del sistema de ecuaciones diferenciales (4.15) son:
t2
Y (t) = c1 eλt v1 + c2 eλt (tv1 + v2 ) + c3 eλt ( v1 + tv2 + v3 ),
2
con c1 , c2 , c3 ∈ C.
Caso 2: λ es un autovalor triple de A con multiplicidad geométrica 2. En ese caso, todas las
soluciones del sistema de ecuaciones diferenciales (4.15) son:
con c1 , c2 , c3 ∈ C.
Caso 3: λ es un autovalor doble de A con multiplicidad geométrica 1 y µ es un autovalor simple
de A. En ese caso, todas las soluciones del sistema de ecuaciones diferenciales (4.15) son:
con c1 , c2 , c3 ∈ C.
Pensando de manera similar, podemos deducir cómo sería la forma de Jordan para A ∈ C2×2 y
todas las soluciones del sistema de ecuaciones diferenciales (4.15).
6
−5
Y0 = Y.
5 −2
227
4. Diagonalización
6
−5
Dem. Primero, veamos si A := es diagonalizable. Calculamos el polinomio característico
5 −2
de A:
6−x
−5
χA (x) = det(A − xI) = det( ) = x2 + 4x + 13.
5 −2 − x
Por lo tanto, las raíces del χA son λ1 = 2 + 3i y λ2 = 2 − 3i ambas raíces distintas, por lo tanto, si
consideramos que A ∈ Cn×n , se sigue que A es diagonalizable.
Fácilmente vemos que los autoespacios asociados son:
4 − 3i 4 + 3i
−5
Sλ=2+3i = nul(A − (2 + 3i)I) = nul( ) = gen{ }.
5 −4 − 3i 5
4 + 3i 4 − 3i
−5
Sλ=2−3i = nul(A − (2 − 3i)I) = nul( ) = gen{ }.
5 −4 + 3i 5
Por lo tanto, como vimos arriba, todas las soluciones del sistema de ecuaciones diferenciales son:
4 + 3i 4 − 3i
Y (t) = c1 e (2+3i)t
+ c2 e (2−3i)t
,
5 5
con c1 , c2 ∈ R.
4 + 3i 4 − 3i
Notar que las funciones ∈ C(R, C2 ) y ∈ C(R, C2 ), como el ejercicio pide
5 5
todas las soluciones Y ∈ C(R, R2 ), tendremos que maniobrar un poco.
Recordar que e(2+3i)t = e2t (cos(3t) + i sin(3t)) y e(2−3i)t = e2t (cos(3t) − i sin(3t)). Entonces
El siguiente ejercicio demuestra que toda simetría y todo proyector es diagonalizable, esto ya
lo habíamos notado en Proposición 2.5.1. Vamos a reescribir lo que hicimos para adaptarlo a la
notación de este capítulo.
Ejercicio 4.M. Sea V un C-espacio vectorial de dimensión n > 1. Demostrar que
a) Si S ∈ L(V) \ {IV } es una simetría (es decir, S 2 = IV ), existen k ∈ N y una base B de V tales
que
0
Ik
[S]B = ,
B 0 −In−k
con Ik la matriz identidad de k × k e In−k la matriz identidad de n − k × n − k.
228
4.8. Sistemas de ecuaciones diferenciales: caso no diagonalizable
Dem. a) : Como S cumple que S 2 = IV , en el Ejercicio 2.23 e) vimos que S es una simetría y
probamos que
V = Nu(S − IV ) ⊕ Nu(S + IV )
(en este caso el símbolo ⊕ denota suma directa, no necesariamente ortogonal).
Sea k := dim(Nu(S − IV )) (como S 6= IV tenemos que k < n).
Si k = 0, entonces Nu(S −IV ) = {0V } y tenemos que V = Nu(S −IV )⊕Nu(S +IV ) = Nu(S +IV ).
Por lo tanto (S + IV )v = 0V , para todo v ∈ V y entonces se sigue S = −IV . En ese caso, tomando
cualquier base B de V se sigue que
[S]B
B = −In .
S(vi ) = vi ,
para todo i = 1, 2, · · · , k. Por otra parte, como V = Nu(S − IV ) ⊕ Nu(S + IV ), tenemos que
S(vi ) = −vi
para todo i = k + 1, · · · , n.
Sea B := {v1 , v2 , · · · , vk , vk+1 , · · · , vn } entonces B es una base de Cn (¿por qué?). Recordemos
además que [vi ]B = ei , donde ei es el vector i-ésimo de la base canónica de Cn , es decir el vector de
Cn con todas componentes nulas excepto en el lugar i donde vale 1. Por ejemplo,
[v1 ]B = [1 0 · · · 0]T = e1 .
[S]B
B = [ [S(v1 )] [S(v2 )] · · · [S(vk )] [S(vk+1 )]
B B B B
· · · [S(vn )]B ]
= [ [v1 ]B [v2 ]B · · · [vk ]B [−vk+1 ]B · · · [−vn ]B ]
= [ e1 e2 · · · ek − ek+1 · · · − en ]
0k×n−k
Ik×k
= .
0n−k×k −In−k×n−k
V = Im(T ) ⊕ Nu(T )
229
4. Diagonalización
para todo i = 1, 2, · · · , k. Por otra parte, como V = Im(T ) ⊕ Nu(T ), tenemos que
T (vi ) = 0V
para todo i = k + 1, · · · , n.
Sea B := {v1 , v2 , · · · , vk , vk+1 , · · · , vn } entonces B es una base de Cn (¿por qué?).
Por lo tanto, por definición de [T ]B B , tenemos que
[T ]B
B = [ [T (v1 )] [T (v2 )] · · · [T (vk )] [T (vk+1 )]
B B B B
· · · [T (vn )]B ]
= [ [v1 ]B [v2 ]B · · · [vk ]B [0V ]B · · · [0V ]B ]
= [ e1 e2 · · · ek 0Cn · · · 0Cn ]
0k×n−k
Ik×k
= .
0n−k×k 0n−k×n−k
1 2
Ejercicio 4.N (De Parcial). Sea S = gen{ 1 , 1 }. Sean [PS ]EE y [PS ⊥ ]EE las matrices en la
0 1
base canónica de R de las proyecciones sobre S y S respectivamente considerando el producto
3 ⊥
interno canónico de R3 . Si A := 2[PS ]EE + 3[PS ⊥ ]EE , encontrar todas las soluciones del problema a
valores iniciales:
1
Y 0 = A21 Y, Y (0) = 1 .
0
Dem. En primer lugar, recordar que como PS es la proyección ortogonal sobre S, tenemos que
PS ⊥ = I − PS y por lo tanto, [PS ⊥ ]EE = [I − PS ]EE = I3 − [PS ]EE , donde I3 es la matriz identidad de
3 × 3. Entonces,
A = 2[PS ]EE + 3[PS ⊥ ]EE = 2[PS ]EE + 3(I3 − [PS ]EE ) = 3I3 − [PS ]EE .
Veamos que PS siempre es diagonalizable. De hecho, tenemos que PS (v) = v para todo
v ∈ Im(PS ) = S y PS (v) = 0 para todo v ∈ Nu(PS ) = S ⊥ . Por lo tanto, los autovalores de
la transformación lineal PS son λ1,2 = 1 y λ3 = 0 con autoespacios asociados Sλ=1 = Im(PS ) = S
y Sλ=0 = Nu(PS ) = S ⊥ .
230
4.8. Sistemas de ecuaciones diferenciales: caso no diagonalizable
1 2
* + * +
0 = x, 1 = x1 + x2 , 0 = x, 1 = 2x1 + x2 + x3 .
0 1
−x2
Resolviendo, nos queda que x1 = −x2 y x3 = −2x1 − x2 = 2x2 − x2 = x2 . Entonces x = x2 ,
x2
−1
con x2 ∈ R y por lo tanto S ⊥ = gen{ 1 }.
1
1 2
−1
Sea B := { 1 , 1 , 1 }, entonces B es una base (formada por autovectores) de
0 1 1
1 2 −1 1 0 0
=P 0 3−1 0 P −1 = P 0 2 0 P −1 .
0 0 3−0 0 0 3
Entonces A es diagonalizable y entonces
2 0 0 2 0 0
21
231
4. Diagonalización
2 e3t
−1
con A = y F (t) = .
3 −2 e3t
2−x
−1
χA (x) = det(A − xI) = det( ) = x2 − 1.
3 −2 − x
Las raíces del χA son λ1 = −1 y λ2 = 1 todas raíces distintas, por lo tanto A es diagonalizable.
Fácilmente vemos que los autoespacios asociados son:
3 −1 1
Sλ=−1 = nul(A + I) = nul( ) = gen{ }.
3 −1 3
1 −1 1
Sλ=1 = nul(A − I) = nul( ) = gen{ }.
3 −3 1
Construimos la matriz P colocando ensus columnas
dos autovectores linealmente independientes,
1 1 −1 0
por ejemplo: P := y, si Λ := , entonces
3 1 0 1
A = P ΛP −1 ,
−1 1
con P −1 = 1
.
2 3 −1
Tal como hicimos en los ejercicios anteriores, proponemos el siguiente cambio de variables,
Y (t) := P Z(t). Entonces, Y 0 (t) = P Z 0 (t) y el sistema a resolver nos queda:
z10 = −z1
.
z2 = z2 + e3t
0
Recordando (por ejemplo) el Ejercicio 2.27, tenemos que todas las soluciones de la ecuación
diferencial homogénea z10 + z1 = 0 son
z1 (t) = c1 e−t ,
232
4.9. Sistema de ecuaciones diferenciales no homogéneo
con c1 ∈ R.
Por otro lado, recordando también (por ejemplo) el Ejercicio 2.27, tenemos que todas las
soluciones de de la ecuación diferencial no homogénea z20 − z2 = g(t) con g(t) = e3t , son
donde z2h son las soluciones del sistema homogéneo asociado y z2p es una solución particular.
En este caso, z2h ∈ gen{et } y z2p (t) = f (t)et , donde f 0 (t) = g(t)e−t = e3t e−t = e2t . Entonces,
2t 2t 3t
f (t) = e2 y tenemos que z2p (t) = e2 et = e2 . Por lo tanto,
e3t
z2 (t) = c2 et + ,
2
con c2 ∈ R.
Volviendo a la variable original, nos queda que todas las soluciones del sistema de ecuaciones
diferenciales no homogéneo son:
1 1 c1 e−t 1 1 e3t 1
Y (t) = P Z(t) = 3t = c1 e−t + c2 e t + ,
3 1 c2 et + e2 3 1 2 1
con c1 , c2 ∈ R.
1 1
Observar que si llamamos Yh (t) := c1 e + c2 e
−t t
, con c1 , c2 ∈ R e Yp (t) :=
3 1
1
e3t
, entonces,
2 1
Y (t) = Yh (t) + Yp (t),
donde Yh son las soluciones del sistema homogéneo asociado Y 0 = AY e Yp es una solución particular,
es decir Yp0 (t) = AYp (t) + F (t).
233
CAPÍTULO 5
Matrices Unitarias
0 −i 0 1 0
i
UU = ∗
= =I
0 i 0 −i 0 1
0 i 0
−i
= = U ∗ U.
0 −i 0 i
1
−1
La matriz, P := √1 es ortogonal. Pues P ∈ R2×2 y
2 1 1
1 1 −1 1 1 1 1 0
PP T
= √ √ = =I
2 1 1 2 −1 1 0 1
1 1 1 1 1 −1
=√ √ = P T P.
2 −1 1 2 1 1
La siguiente propiedad demuestra que si una matriz cuadrada tiene inversa a izquierda o a
derecha entonces es inversible:
AB = I,
entonces
BA = I y A−1 = B.
235
5. Matrices Unitarias
Por lo tanto, det(A) 6= 0. Entonces, A es de rango máximo. Por lo tanto, existe A−1 . Multiplicando
a izquierda por A−1 tenemos que
En la siguiente proposición veremos varias propiedades que caracterizan a las matrices unitarias
(ortogonales).
Proposición 5.1.1. Sea U ∈ Cn×n . Entonces, son equivalentes:
i) U es unitaria,
ii) U ∗ es unitaria,
iii) U es inversible y U −1 = U ∗ ,
iv) U preserva el producto interno (canónico), es decir
h U x, U y i = h x, y i
para todo x, y ∈ Cn .
v) Si {v1 , v2 , · · · , vn } es una bon de Cn , entonces {U v1 , U v2 , · · · , U vn } también es una bon de
Cn .
vi) Las columnas de U forman una bon de Cn .
vii) Las filas de U forman una bon de Cn .
viii) U es una isometría, es decir
kU xk = kxk
n
para todo x ∈ C .
h U x, U y i = h x, U ∗ U y i = x, U −1 U y = h x, Iy i = h x, y i .
h U vi , U vj i = h vi , vj i = δij .
236
5.1. Matrices unitarias y ortogonales
I = I = U ∗ U = U ∗ U = U T (U T )∗ .
Entonces U T es unitaria. Como ya probamos que i) ⇒ vi) (porque probamos i) ⇒ ii) ⇒ iii) ⇒
iv) ⇒ v) ⇒ vi)), tenemos que las columnas de U T forman una bon de Cn . Como las columnas de
U T son las filas de U, concluimos entonces que las filas de U forman una bon de Cn .
vii) ⇒ viii) : Si las filas de U forman una bon de Cn entonces las columnas de U T (que son
las filas de U ) forman una bon de Cn . Entonces, operando de manera similar que en vi) ⇒ vii),
tendremos que vale que (U T )∗ U T = U U T = I. Entonces, I = I T = (U U T )T = U U ∗ , entonces U es
unitaria. Como ya probamos que i) ⇒ iv) (porque probamos i) ⇒ ii) ⇒ iii) ⇒ iv)), se sigue en
particular que, para todo x ∈ Cn
kU xk2 = h U x, U x i = h x, x i = kxk2 .
viii) ⇒ i) : Si kU xk = kxk para todo x ∈ Cn . Entonces,
h U x, U x i = h U ∗ U x, x i = h Ix, x i ,
para todo x ∈ Cn . Entonces
h (U ∗ U − I)x, x i = h U ∗ U x − x, x i = h U ∗ U x, x i − h x, x i = 0,
para todo x ∈ Cn .
Llamemos A := U ∗ U − I. Observar que, si z, w ∈ Cn (hacer la cuenta) vale la fórmula de
polarización:
h Az, w i = h A(z + w), z + w i + i h A(z + iw), z + iw i
+ (−1) h A(z + (−1)w), z + (−1)w i + (−i) h A(z + (−i)w), z + (−i)w i .
Entonces, como h Ax, x i = 0, para todo x ∈ Cn , vale que h Az, w i = h A(z + w), z + w i +
i h A(z + iw), z + iw i + (−1) h A(z + (−1)w), z + (−1)w i + (−i) h A(z + (−i)w), z + (−i)w i = 0,
para todo z, w ∈ Cn . Entonces
h (U ∗ U − I)z, w i = 0,
para todo z, w ∈ Cn . En particular, si tomamos w := (U ∗ U − I)z, tenemos que
h (U ∗ U − I)z, (U ∗ U − I)z i = k(U ∗ U − I)zk2 = 0,
para todo z ∈ Cn . Entonces
(U ∗ U − I)z = 0,
para todo z ∈ Cn . Por lo tanto U ∗ U − I = 0 ó, equivalentemente, U ∗ U = I y U resulta unitaria.
Ejercicio 5.A. Pensar cómo se modifica la Propoposición 5.1.1, si tenemos U ortogonal en vez de
U unitaria.
237
5. Matrices Unitarias
λ h v, v i = h λv, v i = h Av, v i = h v, A∗ v i = h v, Av i = h v, λv i = λ h v, v i .
Entonces (λ − λ) h v, v i = 0. Como h v, v i =
6 0, pues v 6= 0, se sigue que λ = λ y por lo tanto λ ∈ R.
2. : Sean λ, µ ∈ R (ya probamos que son reales) autovalores distintos de A y sean v, w ∈ Cn \ {0}
los autovectores asociados correspondientes. Entonces, usando (5.1),
λ h v, w i = h λv, w i = h Av, w i = h v, A∗ w i = h v, Aw i = h v, µw i = µ h v, w i .
Entonces
(λ − µ) h v, w i = 0.
Como λ 6= µ, concluimos que h v, w i = 0 y entonces v y w son ortogonales.
A = U ΛU ∗ .
238
5.2. Matrices hermíticas y diagonalización unitaria
239
5. Matrices Unitarias
1 0 0
λ
Entonces U es unitaria y además U = ∗
V . Por lo tanto, si llamamos Λ :=
∗
∈
0 U1∗ 0 Λ1
Rn×n , tenemos que Λ es diagonal y
A = U ΛU ∗ .
Entonces, A resulta diagonalizable unitariamente.
De manera similar a como probamos el Teorema 5.2.2, podemos probar que si A ∈ R n×n
es
simétrica, entonces A es diagonalizable ortogonalmente.
Corolario 5.2.3. Sea A ∈ Rn×n (en el sentido de que consideramos A ∈ Cn×n con
coeficientes reales) antisimétrica, es decir A = −AT . Entonces A es diagonalizable
unitariamente.
Ejercicio 5.B. Explicar por qué las siguientes matrices son diagonalizables unitariamente y hallar
una diagonalización unitaria de las mismas.
0 −1
A1 = ,
1 0
cos θ − sin θ
A2 = ,
sin θ cos θ
0 −1 0
A3 = 1 0 0 ,
0 0 1
cos θ − sin θ 0
A4 = sin θ cos θ 0 .
0 0 1
240
5.2. Matrices hermíticas y diagonalización unitaria
entonces U es unitaria y
0
i
A1 = U U ∗.
0 −i
Observar que
cos θ − sin θ cos θ0 0 −1
A2 = = + sin θ = cos θ I2 + sin θ A1 .
sin θ cos θ 0
cos θ 1 0
i 0
i −i
Acabamos de ver, que A1 = U U ∗ , con U = √12 unitaria. Entonces,
0 −i 1 1
i 0
A2 = cos θ I2 + sin θ A1 = cos θ (U U ) + sin θ (U
∗
U ∗)
0 −i
cos θ + i sin θ 0 0
iθ
e
=U U =U
∗
U∗
0 cos θ − i sin θ 0 e−iθ
y entonces A2 es diagonalizable unitariamente.
Observar que A3 se puede escribir como la siguiente matriz en bloques:
0 −1 0
A1 0
A3 = 1 0 0 = .
0 1
0 0 1
i 0
i −i
Acabamos de ver, que A1 = U ΛU , con Λ =
∗
yU= 2 √1
unitaria. Entonces,
0 −i 1 1
definamos la siguiente matriz en bloques
U 0
V := ∈ C3×3 .
0 1
0
∗
U
Observar que V ∗ = y además
0 1
0 U 0 0 I2 0
∗ ∗
U U U
V V =
∗
= = = I3 .
0 1 0 1 0 1·1 0 1
Por lo tanto, V es unitaria. Además,
0 0
i
A1 0 U ΛU ∗ 0 0 Λ 0 U∗ 0
U
A3 = = = =V 0 −i 0 V ∗
0 1 0 1 0 1 0 1 0 1
0 0 1
y entonces A3 es diagonalizable unitariamente.
Por último, de manera similar, observar que A4 se puede escribir como la siguiente matriz en
bloques:
cos θ − sin θ 0
A2 0
A4 = sin θ cos θ 0 = .
0 1
0 0 1
0
iθ
e i −i
Acabamos de ver, que A2 = U Λ̃U ∗ , con Λ̃ := y U = √1 unitaria.
0 e−iθ 2 1 1
U 0
Entonces, tomando nuevamente la matriz en bloques unitaria V = . Tenemos que
0 1
A2 0 U Λ̃U ∗ 0 U 0 Λ̃ 0 0
∗
U
A4 = = =
0 1 0 1 0 1 0 1 0 1
0 0
iθ
e
= V 0 e−iθ 0 V ∗
0 0 1
y entonces A4 es diagonalizable unitariamente.
241
5. Matrices Unitarias
cos θ − sin θ
[T ]B =
B
,
sin θ cos θ
con θ ∈ [0, π]. En ese caso det(U ) = 1, tr(U ) = 2 cos θ y T es una rotación de ángulo θ. Ó, existe
una bon B = {v1 , v2 } de R2 , tal que
1 0
[T ]B =
B
.
0 −1
En ese caso det(U ) = −1, tr(U ) = 0 y T es una simetría ortogonal respecto del subespacio S = Sλ=1 ,
el autoespacio asociado al autovalor λ = 1.
Tener en cuenta que con U ∈ R2×2 nos referimos a U ∈ C2×2 con todos sus coeficientes reales.
Además, recordar que si E es la base canónica de R2 , vale que [T ]E
E = U.
Dem. Sea B = {v1 , v2 } una bon de R2 . Entonces, existen a, b, a0 , b0 ∈ R tales que
U v1 = av1 + bv2 y U v2 = a0 v1 + b0 v2 .
Despejando, nos queda que a2 + b2 = 1 y que (a0 , b0 ) = (−b, a) ó (a0 , b0 ) = (b, −a). Entonces,
a −b
1. [T ]B = [[T (v1 )] [T (v2 )] ] = [[U v1 ] [U v2 ] ] =
B B B B B
ó
b a
a b
2. [T ]B
B = [[T (v 1 )]B
[T (v 2 )]B
] = [[U v1 ] B
[U v 2 ]B
] = .
b −a
242
5.3. Clasificación de transformaciones ortogonales
Recordar que
U = [T ]E
E = [M ]B [T ]B [M ]E = [M ]B [T ]B ([M ]B )
E B B E B E −1
,
donde [M ]E
B es la matriz de cambio de base de B a E. Entonces
con discriminante
∆ = 4a − 4 = 4(a − 1) = −4b . Si a = ±1 entonces, b = 1 − a = 0 y se sigue
2 2 2 2 2
1 0
que [T ]B
B =± . Si no, χU no tiene raíces reales.
0 1
Por otro lado, como a2 + b2 = 1, existe θ ∈ [0, 2π) tal que a = cos θ, b = sin θ. Luego,
cos θ − sin θ
[T ]B
B = . Eventualmente, cambiando la base {v1 , v2 } por {v1 , −v2 } (que también
sin θ cos θ
es una bon de R ) podemos
2
tomar θ ∈ [0, π].
cos θ − sin θ
En este caso, U = [M ]E ([M ]E
B)
−1
. Entonces
B sin θ cos θ
det(U ) = det([M ]E
B [T ]B ([M ]B )
B E −1
) = det([M ]EB ) det([M ]E )
B −1
det([T ]B
B)
cos θ − sin θ
= det = cos θ2 + sin θ2 = 1.
sin θ cos θ
Además,
entonces los autovalores de U son λ1 = 1 y λ2 = −1. Sea w1 ∈ Sλ=1 tal que kw1 k = 1
y sea w2 ∈ Sλ=−1 tal que kw2 k = 1. Entonces B 0 := {w1 , w2 } es una bon de R2 tal que
0 1 0
[T ]B
B0 = . Operando como en el caso anterior, nos queda que det(U ) = det([T ]B
B ) = −1
0 −1
y tr(U ) = tr([T ]B
B ) = 1 − 1 = 0.
1
la base B 0 := {e1 , U e1} donde e1 = . Calculamos det([M ]E B 0 ), donde [M ]B 0 es la
E
0
matriz de cambio de base de B 0 a E (la base canónica de R2 ). Si det([M ]E B 0 ) > 0 entonces
θ = + arc cos( tr(U
2
)
). Si det([M ] E
B 0 ) < 0 entonces θ = − arc cos( tr(U )
2 ).
Ejercicio 5.1. Comprobar que las siguientes matrices U ∈ R2×2 son ortogonales
3 4
U1 = 51
;
−4 3
4 3
U2 = 15 .
3 −4
243
5. Matrices Unitarias
Dem. Observar que en todos los casos las columnas de cada matriz U1 y U2 forman una base
ortonormal de R2 . Por lo tanto, por la Propoposición 5.1.1, las matrices son ortogonales.
3 4
Consideremos la isometría definida por T1 (x) := U1 x. Como det(U1 ) = det( 5 1
)=
−4 3
1
(9 + 16) = 1, por la Proposición 5.3.1, T1 define una rotación de ángulo θ = arc cos( tr(U 1)
2 ) =
25
arc cos( 35 ) ó θ = − arc cos( 35 ).
Para determinar el signo de θ (respecto de la base canónica de R2 ), tomamos la base
1 3
B 0 := {e1 , U1 e1} donde e1 = y U1 e1 = 51 . Calculamos
0 −4
1 3 4
det([M ]B 0 ) = det
E 5 = − < 0.
0 − 54 5
3
1 3
−5
Sλ=1 = nul(U2 − I) = nul( 5 ) = gen{ }.
3
5
−9
5 1
1 0 0
[T ]B
B =
0 cos θ − sin θ ,
0 sin θ cos θ
con θ ∈ [0, π]. En ese caso det(U ) = 1, tr(U ) = 1 + 2 cos θ y T es una rotación de ángulo θ con eje
de rotación dado por el subespacio Sλ=1 .
Ó, existe una bon B = {v1 , v2 , v3 } de R3 , tal que
1 0 0
[T ]B
B =
0 1 0 .
0 0 −1
En ese caso det(U ) = −1, tr(U ) = 1 y T es una simetría ortogonal respecto del subespacio S = Sλ=1
el autoespacio asociado al autovalor λ = 1.
Si λ = 1 no es autovalor de U entonces λ = −1 es un autovalor de U y existe una bon
B = {v1 , v2 , v3 } de R3 , tal que
0 0
−1
[T ]B
B = 0 cos θ − sin θ ,
0 sin θ cos θ
con θ ∈ [0, π]. En ese caso det(U ) = −1, tr(U ) = −1 + 2 cos θ y T es la composición de una rotación
⊥
de ángulo θ con eje de rotación Sλ=−1 y una simetría respecto de Sλ=−1 .
244
5.3. Clasificación de transformaciones ortogonales
1 raíz real y dos raíces complejas conjugadas. Conclusión, χU al menos tiene una raíz λ1 ∈ R. Por
lo tanto, U tiene al menos un autovalor λ1 ∈ R y, como vimos que |λ1 | = 1, se sigue que λ1 = 1 ó
λ1 = −1.
Supongamos que λ1 = 1. Sea B = {v1 , v2 , v3 } una bon de R3 tal que U v1 = v1 , es decir con v1
un autovector asociado a λ1 = 1 (que ya vimos que es un autovalor posible). Como {v1 , v2 , v3 } es
una bon de R3 , tenemos que gen{v2 , v3 } = gen{v1 }⊥ . Entonces, usando que v1 = U v1 , tenemos
que
h U (v2 ), v1 i = h U v2 , U v1 i = v2 , U T U v1 = h v2 , v1 i = 0.
h U (v3 ), v1 i = h U v3 , U v1 i = v3 , U T U v1 = h v3 , v1 i = 0.
1 = h v3 , v3 i = h U v3 , U v3 i = h a0 v2 + b0 v3 , a0 v2 + b0 v3 i = a02 + b02 y
0 = h v2 , v3 i = h U v2 , U v3 i = h av2 + bv3 , a0 v2 + b0 v3 i = ab0 + bb0 .
Entonces, despejando nos queda que a = b0 y a0 = −b ó a = −b0 y a0 = b. Entonces, reemplazando,
nos queda que U (v3 ) = a0 v2 + b0 v3 = −bv2 + av3 ó U (v3 ) = a0 v2 + b0 v3 = bv2 − av3 .
Por lo tanto,
1 0 0
[T ]B
B = [[U (v1 )] [U (v2 )] [U (v3 )] ] =
B B B 0 a −b
0 b a
ó
1 0 0
[T ]B
B = [[U (v1 )] [U (v2 )]
B B
[U (v3 )]B ] = 0 a b .
0 b −a
Entonces, de la misma manera que hicimos en la Proposición 5.3.1, tenemos uno de los siguientes
casos
1 0 0
[T ]B
B =
0 cos θ − sin θ , para cierto θ ∈ [0, π]. En este caso, det(U ) = 1, tr(U ) =
0 sin θ cos θ
1 + 2 cos θ y T es una rotación de ángulo θ con eje de rotación dado por el subespacio Sλ=1 .
1 0 0
[T ]B
B =
0 1 0 . En este caso, det(U ) = −1, tr(U ) = 1 y T es una simetría respecto
0 0 −1
del subespacio S = Sλ=1 el autoespacio asociado al autovalor λ = 1.
Finalmente, supongamos que λ1 = −1 y 1 no es autovalor de U. Sea B = {v1 , v2 , v3 } una bon
de R3 tal que U v1 = −v1 , es decir con v1 un autovector asociado a λ1 = −1 (que ya vimos que es
un autovalor posible). Como {v1 , v2 , v3 } es una bon de R3 , de manera anáologa a lo hecho en el
caso anterior, se sigue que, para cierto θ ∈ [0, π],
0 0 −1 0 0 1 0 0
−1
[T ]B
B =
0 cos θ − sin θ = 0 1 0 0 cos θ − sin θ
0 sin θ cos θ 0 0 1 0 sin θ cos θ
y tenemos que T es una rotación compuesta con una simetría. En este caso, det(U ) = −1,
tr(U ) = −1 + 2 cos θ y T es la composición de una rotación de ángulo θ con eje de rotación Sλ=−1
y una simetría respecto de Sλ=−1
⊥
.
245
5. Matrices Unitarias
Ejercicio 5.2. Comprobar que las siguientes matrices U ∈ R3×3 son ortogonales
2 3
−6
U1 = 1
7
−6 −3 −2 .
3 −2 −6
6 3
−2
U2 = 1 6 3 −2 .
7
−3 2 −6
2 3
−6
U3 = 1
7
−6 −2 −3 .
3 −6 −2
Dem. Observar que en todos los casos las columnas de cada matriz U forman una bon de R3 . Por
lo tanto, por la Propoposición 5.1.1, las matrices son ortogonales.
Consideremos T1 (x) := U1 x. Calculamos el polinomio característico de U1 :
2 −6 3
7 −x 7 7
χU1 (x) = det(U1 − xI) = det −6
7
−3
7 − x −2
7
= −x3 − x2 + x + 1.
3 −2 −6
7 7 7 − x
Los autovalores de A son las raíces de χU1 y son λ1 = 1, λ2,3 = −1. Entonces, det(U1 ) =
λ1 λ2 λ3 = 1. Por lo tanto, por la Propoposición 5.3.2, T1 es una rotación. Para obtener el eje de
rotación, calculamos:
−5 −6 3
3
7 7 7
Sλ=1 = nul(U1 − I) = nul( −6
7
−10
7
−2
7
) = gen{ −2 }.
3
7
−2
7
−13
7
1
246
5.3. Clasificación de transformaciones ortogonales
3
Entonces el eje de rotación es el subespacio gen{ −2 }. Finalmente, como tr(U1 ) = −1, el
1
tr(U1 )−1
ángulo de rotación es θ = arc cos( 2 ) = arc cos(−1) = π. En este caso, también podemos decir
3
que T1 es la simetría ortogonal respecto de la recta Sλ=1 = gen{ −2 }.
1
Consideremos T2 (x) := U2 x. Calculamos el polinomio característico de U2 :
−2 6 3
7 −x
= −x3 − 5 x2 + 5 x + 1.
7 7
χU2 (x) = det(U2 − xI) = det 6 3
7 −x
−2
7
−3 2 −6
7 7 7
7 7 7 −x
√
Los autovalores de A son las raíces de χU2 y son λ1 = 1, λ2,3 = 17 (−6 ± i 13). Entonces,
det(U2 ) = λ1 λ2 λ3 = 1. Por lo tanto, por la Propoposición 5.3.2, T2 es una rotación. Para obtener
el eje de rotación, calculamos:
2
−9 6 3
7 7 7
Sλ=1 = nul(U2 − I) = nul( 67 −4
7
−2
7 ) = gen{ 3 }.
−3
7
2
7
−13
7
0
2
2 3
v1 = 3 es un autovector asociado a λ = 1, v2 = −2 es un vector ortogonal a v1 y
0 0
−18
U2 v2 = 17 12 . Calculamos det([M ]E B 0 ), donde [M ]B 0 es la matriz de cambio de base de B a
E 0
−13
E (la base canónica de R3 ). Luego
2 3 − 18
3 −2
7 169
det[M ]E
B 0 = det
12
= > 0.
7 7
0 0 −7 13
247
5. Matrices Unitarias
1
1 −3 − 37
3 1 285
det[M ]E
B 0 = det
16
=− < 0.
7 7
3 0 − 157
Ejercicio 5.3.
1
1
Dem. a): Sea T : R3 → R3 la rotación de ángulo π3 alrededor del eje generado por 1 . Sea
1
E la base canónica de R3 , el ejercicio nos pide U := [T ]E
E . Una forma de obtener la matriz
U es
1
primero obtener una bon de R3 que contenga al eje de rotación. Para eso, si S := gen{ 1 }
1
1 1
248
5.3. Clasificación de transformaciones ortogonales
es una bon de R3 que contiene al eje de rotación. Ahora veamos que la base B está bien orientada
respecto de la base canónica, para eso calculamos el determinante de la matriz de cambio de base
[M ]E
B :
√1 √1 √1
3 2 6
det([M ]E √1 − √12 √1
B ) = det = 1 > 0.
3 6
√1
3
0 − √26
Como det([M ]EB) = 1 (es positivo) la base B está bien orientada, si nos hubiera dado que
det([M ]E
B ) = −1 entonces basta con cambiarle el signo a uno de los vectores de la base para
obtener una base bien orientada. Por la Proposición 5.3.2, tenemos que como θ = π3 , entonces
1 0 0√
1 0 0
[T ]B
B =
0 cos θ − sin θ = 0 √12 − 23 .
0 sin θ cos θ 0 23 1
2
Para obtener U = [T ]E E solo nos resta realizar un cambio de base. Observar que como B
es una bon de R3 entonces la matriz de cambio de base [M ]E B es ortogonal, por lo tanto
[M ]B
E = ([M ] )
E −1
B = ([M ] E )
B T
. Entonces
U = [T ]E
E = [M ]B [T ]B [M ]E = [M ]B [T ]B ([M ]B )
E B B E B E T
1
√1 √1 1 0 0 √1 √1 √1
√
√
3 2 6 3 3
0
3
= √13 − √12 √1 0 √12 − 23 √1 − √12
6 2
√1
3
0 2
− √6 0 23 1
2
√1
6
√1
6
− √26
2 −1 2
1
= 2 2 −1 .
3
1 2 2
1 1
249
5. Matrices Unitarias
Para obtener U = [T ]E E solo nos resta realizar un cambio de base. Observar que como B es una bon
de R3 , la matriz de cambio de base [M ]E B es ortogonal, por lo tanto [M ]E = ([M ]B )
B E −1
= ([M ]B
E) .
T
Entonces
1
√1 − √16
1
√1 √1
√ √
2 −1 2
3 2 3 3 3
1
U = [T ]EE = [T ]B [M ]E =
E B √1 1 1 1
− √2 − √6 √2 − √2
1
0 = −1 2
2 .
3 3
√1 0 √2 1
√ √1
− 6
√2 2 2 −1
3 6 6 6
Ejercicio 5.5. Sea A ∈ R3×3 tal que v1 = [1 1 1]T , v2 = [1 − 1 0]T , v3 = [0 1 − 1]T , es una base
de autovectores de A asociados a los autovalores λ1 , λ2 , λ3 ∈ R, respectivamente. Probar que A es
simétrica si y sólo si λ2 = λ3 .
λ2 h v2 , v3 i = h λ2 v2 , v3 i = h Av2 , v3 i = v2 , AT v3 = h v2 , Av3 i = h v2 , λ3 v3 i = λ3 h v2 , v3 i .
1
Por lo tanto λ2 = λ3 .
Recíprocamente, supongamos que λ2 = λ3 . Entonces, como {v1 , v2 , v3 } es una base R3 y además,
para todo a, b, c ∈ R,
= ab [1 1 1] −1 + ac [1 1 1] 1 = 0.
0 −1
Tenemos que
gen{v1 } = gen{v2 , v3 }⊥
y además, Sλ=λ1 = gen{v1 } y Sλ=λ2 = gen{v2 , v3 }. Busquemos bases ortonormales de ambos
autoespacios. Por un lado, { √13 [1 1 1]T } es una bon de Sλ=λ1 y, usando el algoritmo de Gram-
Schmid, podemos obtener una bon del autoespacio Sλ=λ2 . De hecho, tomamos u2 = v2 = [1 − 1 0]T
y
h u2 , v3 i −1 1 1
u3 = v3 − u2 = [0 1 − 1]T − [1 − 1 0]T = [ − 1]T .
ku2 k2 2 2 2
Entonces { √12 [1 − 1 0]T , √16 [1 1 − 2]T } es una bon de Sλ=λ2 .
1 1 1
√ √ √
3 2 6
√1 −1 √1
Tomemos U := √ . Entonces, como las columnas de U son una bon de R3 ,
3 2 6
√1
3
0 −2
√
6
por la Proposición 5.1.1, U es una matriz ortogonal y además, tenemos que
λ1 0 0
A = U 0 λ2 0 U T .
0 0 λ2
250
5.3. Clasificación de transformaciones ortogonales
Entonces
λ1 0 0 0 0
λ1
AT = (U 0 λ2 0 U T )T = (U T )T ( 0 λ2 0 )T U T
0 0 λ2 0 0 λ2
λ1 0 0
= U 0 λ2 0 U T = A
0 0 λ2
y A resulta simétrica.
Antes de resolver el próximo ejercicio, recordemos que si (V, k · k) es un espacio normado y
(vn )n∈N una sucesión de elementos de V, decimos que la sucesión (vn )n∈N es convergente si existe
v0 ∈ V tal que
lı́m kvn − v0 k = 0,
n→∞
kvn − v0 k < ε,
lı́m vn = v0 .
n→∞
0
13 − x
−2 −4
1
χA (x) = det(A − xI) = det( −2 10 − x 2 ) =
18
−4 2 13 − x
5x 1
= −x3 + 2x2 − + .
4 4
Los autovalores de A son las raíces de χA y son λ1 = 1, λ2,3 = 12 . Para obtener los autoespacios
asociados, calculamos:
−5 −1 −2
18 9 9 −2
Sλ=1 = nul(A − I) = nul( −1 9
−4
9
1
9 ) = gen{ 1 }.
−2
9
1
9
−5
18
2
251
5. Matrices Unitarias
2 −1 −2
1 1
1 9 9 9
) = gen{ 0 , 2 }.
Sλ= 12 = nul(A − I) = nul( −1 1 1
2 9 18 9
−2
9
1
9
2
9
1 0
1 1
−2
Si tomamos B := { 1 , 0 , 2 } entonces B es una base (de autovectores) de R3 .
2 1 0
Calculemos entonces lı́m Ak x para cada x ∈ R3 . Sea x ∈ R3 , como B es una base (de autovectores)
k→∞
1 1
−2
de R3 existen (únicos) a, b, c ∈ R tales que x = a 1 + b 0 + c 2 . Entonces, usando
2 1 0
(5.2),
1 1
−2
Ak x = aAk 1 + bAk 0 + cAk 2
2 1 0
1 1
−2
1 0 + c( 1 )k
= a(1)k 1 + b( )k 2
2 2
2 1 0
1 1
−2
1
= a 1 + k (b 0 + c 2 ).
2
2 1 0
0
−2
Usando que lı́m 21k = 0, tenemos que lı́m Ak x = a 1 . Por lo tanto, lı́m Ak x = 0 si y
k→∞ k→∞ k→∞
2 0
sólo si a = 0. Entonces
0 1 1
{x ∈ R3 : lı́m Ak x = 0 } = {x ∈ R3 : x = b 0 + c 2 b, c ∈ R}
k→∞
0 1 0
1 1
= gen{ 0 , 2 } = Sλ= 21 .
1 0
−2
b) : Tal como vimos en el item a), si x ∈ R3 , existen a, b, c ∈ R tales que x = a 1 +
2
1 1
b 0 + c 2 . Entonces
1 0
1 1
−2 −2
1
lı́m Ak x = lı́m (a 1 + k (b 0 + c 2 )) = a 1 .
k→∞ k→∞ 2
2 1 0 2
−2
Por lo tanto, es claro que 1 ∈ { lı́m Ak x : x ∈ R3 } (tomando a = 1). Por otra parte,
k→∞
2
−2
tal como vimos arriba, lı́m Ak x = 1 si y sólo si a = 1 y b, c ∈ R. Por lo tanto, todas las
k→∞
2
252
5.4. Matrices definidas y semidefinidas positivas
−2
soluciones de la ecuación lı́m Ak x = 1 son
k→∞
2
1 1
−2
xsol = 1 + b 0 + c 2 b, c ∈ R.
2 1 0
Dem. Supongamos que A es definida positiva, entonces h Ax, x i > 0 para todo x ∈ Cn \ {0}. Sea
λi ∈ R un autovalor de A y vi 6= 0 algún autovector asociado tal que Avi = λi vi , entonces:
0 < h Avi , vi i = h λi vi , vi i = λi h vi , vi i ,
entonces como h vi , vi i > 0, se sigue que λi > 0. Concluimos que si A es definida positiva todo
autovalor de A es positivo (mayor estricto que 0).
Recíprocamente, supongamos que todos los autovalores de A son positivos. Es decir λi > 0 para
i = 1, 2, · · · , n. Sea {v1 , v2 , · · · , vn } una bon de autovectores de Cn (existe pues A es hermítica) tal
que Avi = λi vi para i = 1, 2, · · · , n. Sea x ∈ Cn \ {0}, entonces x = a1 v2 + a2 v2 + · · · + an vn con
a1 , a2 , · · · , an ∈ C no todos nulos. Entonces
h Ax, x i = h A(a1 v2 + a2 v2 + · · · + an vn ), a1 v2 + a2 v2 + · · · + an vn i
= h a1 Av1 + a2 Av2 + · · · + an Avn , a1 v2 + a2 v2 + · · · + an vn i
= |a1 |2 λ1 h v1 , v1 i + |a2 |2 λ2 h v2 , v2 i + · · · + |an |2 λn h vn , vn i
= |a1 |2 λ1 + |a2 |2 λ2 + · · · + |an |2 λn > 0,
253
5. Matrices Unitarias
Denotaremos A(k) a la submatriz principal de Rk×k que se obtiene a partir de la esquina superior
izquierda de A, es decir
a11 a12 · · · a1k
a21 a22 · · · a2k
A(k) := . .. .. .. ,
.. . . .
ak1 ak2 ··· akk
para k = 1, 2, · · · , n.
a11 a12
Por ejemplo A = [a11 ], A =
(1) (2)
y A(n) = A.
a21 a22
Recordemos que si λ1 , λ2 , · · · , λn son los autovalores de A, tenemos que
det(A) = λ1 λ2 · · · λn .
Por lo tanto,
Si A es definida positiva, como todos sus autovalores son positivos, tendremos que det(A) > 0.
Si A es definida negativa, como todos sus autovalores son negativos, tendremos que todos
los autovalores de −A son positivos y entonces −A es definida positiva y por lo tanto,
det(−A) > 0.
El siguiente teorema nos provee de otro criterio para determinar si una matriz es definida
positiva, definida negativa o indefinida:
Teorema 5.4.2. Sea A ∈ Rn×n simétrica. Entonces:
3. A es indefinida si existe k ∈ {1, 2, · · · , n} tal que det(A(k) ) rompe el patrón. Es decir, si por
ejemplo, det(A(1) ) > 0, · · · , det(A(k−1) ) > 0 y luego tenemos que det(A(k) ) < 0.
254
5.4. Matrices definidas y semidefinidas positivas
un vn
autovalores negativos, que son ortogonales entre sí, es decir h u, v i = uT v = v T u = 0.
Sea
w := vn u − un v 6= 0.
Entonces
w1 vn u1 − un v1 vn u1 − un v1
w = ... = ..
. =
..
. ,
wn vn un − un vn 0
entonces wn = 0. Por lo tanto (comprobarlo haciendo la cuenta):
* w1 w1 +
h Aw, w i = A(n−1) .
.. .
..
, >0
wn−1 wn−1
donde usamos que, por HI, A(n−1) ∈ R(n−1)×(n−1) es definida positiva. Por otra parte (verificarlo
haciendo la cuenta y recordando que uT v = v T u = 0):
h Aw, w i = (vn u − un v)T A(vn u − un v) = vn2 (uT Au) + u2n (v T Av) = vn2 h Au, u i + u2n h Av, v i < 0,
para todo x(k) ∈ Rk \ {0} y todo k = 1, 2, · · · , n. Entonces, A(k) es definida positiva para todo
k = 1, 2, · · · , n. Por lo tanto, det(A(k) ) > 0 para todo k = 1, 2, · · · , n y probamos lo que queríamos.
2. : Esta condición se prueba aplicando el item 1 a la matriz −A (A es definida negativa si y
sólo si −A es definida positiva) y recordando que
255
5. Matrices Unitarias
entonces A(k) tiene sólo un autovalor negativo. Por ende, A(k) es indefinida (tiene k − 1 autovalores
positivos y uno negativo) y entonces A también es indefinida.
Observar que si existe algún k ∈ {1, 2, · · · , n} tal que det(A(k) ) = 0 el Teorema 5.4.2 es
inconcluso.
1/2
σi := λi ,
donde λi es el i-ésimo autovalor de AT A.
0 0
σ1 ···
D 0r×n−r
0 σ2 ··· 0
Σ= donde D = .. .. .. .. ∈ Rr×r ,
0m−r×r 0m−r×n−r . . . .
0 0 ··· σr
256
5.5. Descomposición en valores singulares
Entonces,
λj
= = 1 si i = j
( 1
1 σj σj λ j σj2
h ui , uj i = h vi , A∗ Avj i = .
σi σj 0 si i 6= j
Por lo tanto, {u1 , u2 , · · · , ur } es un conjunto ortonormal de Cm . Si r < m, buscamos vectores
ur+1 , · · · , um , tales que {u1 , u2 , · · · , um } sea una bon de Cm . Definimos U como
U := [u1 u2 · · · ur · · · um ] ∈ Cm×m
que es una matriz unitaria (pues sus columnas forman una bon de Cm ).
Además, observar que {u1 , u2 , · · · , ur } es una bon de col(A). Para ver eso, como ya vimos que
{u1 , u2 , · · · , ur } es un conjunto ortonormal, sólo nos basta ver que
257
5. Matrices Unitarias
{vr+1 , · · · , vn }
Dem. Para resolver este ejercicio, simplemente seguimos los pasos que hicimos en la demostración
del Teorema 5.5.1:
1. Calcular los autovalores de AT A y ordenarlos de mayor a menor. De hecho,
13 12 2
AT A = 12 13 −2 .
2 −2 8
Av1 1 1 1 Av2 1 1 1
u1 = = √ [5 5]T = √ [1 1]T , u2 = = √ [9 − 9]T = √ [1 − 1]T .
σ1 2 5 2 σ2 3 2 3 2
258
5.6. DVS y los subespacios fundamentales de una matriz
5 0 0
Σ= .
0 3 0
Entonces,
√1 √1 0
" #
√1 √1 5 0 0
2 2
A = U ΣV T = 2 2 1
√ 1
− 3√ 4
√ .
√1 − √12 0 3 0
3 2 2 3 2
2 − 32 2
3
1
3
Entonces:
1. {v1 , · · · , vr } es una bon de col(AT ) = fil(A) y {vr+1 , · · · , vn } es una bon de nul(A). Además,
si E es la base canónica de Rn , tenemos que:
De hecho, en el Teorema 5.5.1, vimos que {vr+1 , · · · , vn } es una bon de nul(A). Por lo
tanto, como {v1 , · · · , vn } es una bon de Rn , no queda otra que {v1 , · · · , vr } sea una bon de
nul(A)⊥ = col(AT ) = fil(A), donde usamos la Proposición 3.7.1.
Además, si E es la base canónica de Rn , recordando la fórmula 3.16, se deduce que
Vr VrT = [Pcol(AT ) ]EE , VrT Vr = Ir , Vn−r Vn−r
T
= [Pnul(A) ]EE , Vn−r
T
Vn−r = In−r .
De hecho, en el Teorema 5.5.1, vimos que {u1 , · · · , um } es una bon de col(A). Por lo tanto,
como {u1 , · · · , um } es una bon de Rm , no queda otra que {ur+1 , · · · , um } sea una bon de
col(A)⊥ = nul(AT ), donde usamos la Proposición 3.7.1.
Además, si E es la base canónica de Rm , recordando la fórmula 3.16, se deduce que
Ur UrT = [Pcol(A) ]EE , UrT Ur = Ir , Um−r Um−r
T
= [Pnul(AT ) ]EE , Um−r
T
Um−r = Im−r .
259
5. Matrices Unitarias
0r×n−r VrT
D
A = U ΣV = [Ur Um−r ]
T
= Ur DVrT .
0m−r×r 0m−r×n−r T
Vn−r
Notar que como D ∈ Rr×r es una matriz diagonal con elementos positivos en su diagonal (los
valores singulares no nulos de A), entonces D es inversible.
Ejercicio 5.11. Sea
3 3 0
1 1 3 0 0
A= 1 −1 4 .
1 −1 0 2 0 √ √ √
2 2 −2 2 − 2
a) Hallar los valores singulares de A, bon de sus cuatro subespacios fundamentales y sus
respectivas matrices de proyección.
1 1
Dem. a): La factorización que tenemos de A es “casi” una DVS de A. La matriz tiene
1 −1
3 3 0
3 3 0
1 1 1 √ 3 0 0
A= √ 2 1 −1 4 .
2 1 −1 0 2 0 √ √ √
2 2 −2 2 − 2
3 3 0
√
Finalmente, como la norma de las 3 columnas de la matriz √ 1 −1
√ 4 es 3 2
√
2 2 −2 2 − 2
√
para normalizarlas, procedemos a multiplicar y dividir por 3 2. Entonces, nos queda
3 3 0
1 1 1 √ 3 0 0 √ 1
A= √ 2 3 2 √ √ 1 −1 4 .
2 1 −1 0 2 0 3 2 2 2 −2√2 −√2
Entonces obtenemos
√ √ √1 √1 0
" #
√1 √1 3 23 2 √ 0 √ 0
2 2
A= 2 2 1
√ − 3√1 4
√
√1 − √12 0 2 23 2 0
3 2 2 3 2
2
2
3 − 23 − 13
√1 √1 0
" #
√1 √1 18 0 0
2 2
= 2 2 1
√ − 3√1 4
√ ,
√1 − √12 0 12 0
3 2 2 3 2
2
2
3 − 23 − 13
260
5.7. Solución por mínimos cuadrados de norma mínima. Pseudo-inversa de Moore-Penrose
√1 1 2
" # √
√1 √1 18 0 0 2 3 2 3
U := 2 2 , Σ= , V =
√1 1
− 3√ − 32 .
√1 − √12 0 12 0 2 2
2 0 4
√
3 2
− 31
Entonces, σ1 = 18, σ2 = 12 y r = 2 = rg(A) es el número de valores singulares no nulos.
Una bon de col(A) = R2 , puede ser {[ √12 , √12 ]T , [ √12 , √
−1 T
2
] }. Por otra parte, col(A)⊥ = nul(AT ) =
{0}. Entonces,
√1 1
√ 5 4 2
" #
2 3 2 √1 √1 0 9 9 9
V2 V2T = [Pcol(AT ) ]EE =
√1 1
− 3√ 2 2 = 4 5
− 29 .
1 1 4
2 2 √ − 3√ √ 9 9
2
0 4
√ 3 2 2 3 2
9 − 29 8
9
3 2
2
4
− 49 − 92
3 2 2 1 9
V1 V1T = [Pnul(A) ]EE = − 23 [ − − ] = − 49 4 2
3 3 3
9 9
− 13 − 29 2
9
1
9
Definición. Diremos que x̃ es una solución por mínimos cuadrados de norma mínima de la
ecuación Ax = b, si x̃ es solución por mínimos cuadrados de Ax = b y
kx̃k ≤ kx̂k
Sea x̂ una solución por mínimos cuadrados de Ax = b. Entonces, por un lado, recordemos que x̂
cumple que
Ax̂ = Pcol(A) b.
Por el otro lado, tenemos que
x̂ = Pnul(A) x̂ + Pnul(A)⊥ x̂.
Sea x̃ := Pnul(A)⊥ x̂ ∈ nul(A)⊥ . Entonces
261
5. Matrices Unitarias
Existe una única solución por mínimos cuadrados de la ecuación Ax = b que pertenece a
nul(A)⊥ .
Ahora veamos que x̃ es una solución por mínimos cuadrados de norma mínima. De hecho, sea x̂
una solución por mínimos cuadrados de Ax = b. Entonces, vimos que x̂ − x̃ ∈ nul(A). Entonces,
como x̂ = x̂ − x̃ + x̃, con x̂ − x̃ ∈ nul(A) y x̃ ∈ nul(A)⊥ , por el Teorema de Pitágoras (o haciendo
la cuenta), tenemos que
kx̂k2 = kx̂ − x̃k2 + kx̃k2 ≥ kx̃k2 .
Tomando raíz (que es una función creciente), tenemos que
kx̂k ≥ kx̃k
Además, x̃ es la única solución por mínimos cuadrados de norma mínima. De hecho, si z también
es una solución por mínimos cuadrados de norma mínima, entonces kzk = kx̃k. Además, como z y
x̃ son solución por mínimos cuadrados, tenemos que z − x̃ ∈ nul(A) y tenemos que x̃ ∈ nul(A)⊥ .
Por lo tanto, aplicando Pitágoras nuevamente, se sigue que
Entonces
kz − x̃k2 = kzk2 − kx̃k2 = 0.
Por lo tanto z = x̃. Entonces,
Veamos una manera de encontrar x̃. Sea A ∈ Rm×n tal que rg(A) = r y A = Ur DVr es
una DVS reducida de A. Recordemos que D ∈ Rr×r es inversible, Ur UrT = Pcol(A) , VrT Vr = Ir y
col(Vr ) = nul(A)⊥ . Entonces, afirmamos que
A[(Vr D−1 UrT )b] = Ur DVrT (Vr D−1 UrT )b = Ur D(VrT Vr )D−1 UrT b = Ur DIr D−1 UrT b = Ur Ir UrT b
= Ur UrT b = Pcol(A) b.
Entonces, (Vr D−1 UrT )b es una solución por mínimos cuadrados que pertenece a nul(A)⊥ . Acabamos
de ver x̃ es la única solución por mínimos cuadrados que pertence a nul(A)⊥ . Por lo tanto, tenemos
que x̃ = (Vr D−1 UrT )b como queríamos ver.
262
5.7. Solución por mínimos cuadrados de norma mínima. Pseudo-inversa de Moore-Penrose
x̃ = A† b
3 2 2
b1
Ejercicio 134 b). Sean A = yb= . Hallar A† y determinar la solución por
2 3 −2 b2
mínimos cuadrados de norma mínima de la ecuación Ax = b.
Entonces, rg(A) = 2,
√1 1
√ " #
2 3 2 √1 √1 5 0
V2 =
√1 1
− 3√ , U2 =
2 2 , D= ,
2 2 √1 − √12 0 3
0 4
√
3 2
2
Antes de ver el Ejercicio 5.14, vamos a probar algunas propiedades que serán necesarias para
su resolución.
Teorema 5.7.1. Sea A ∈ Cm×n y σ1 , · · · , σn , los valores singulares de A (ordenados de mayor a
menor). Entonces
máx kAxk = σ1 ,
kxk=1
y el máximo se alcanza en los vectores x ∈ Sλ1 =σ12 (el autoespacio asociado al mayor autovalor
λ1 = σ12 de A∗ A) tal que kxk = 1.
mı́n kAxk = σn ,
kxk=1
y el mínimo se alcanza en los vectores x ∈ Sλn =σn2 (el autoespacio asociado al menor autovalor
λn = σn2 de A∗ A) tal que kxk = 1.
263
5. Matrices Unitarias
Sea y := V ∗ x, entonces como V ∗ es unitaria, por la Proposición 5.1.1 tenemos que kyk = kV ∗ xk =
kxk y entonces,
kAxk2 = kΣV ∗ xk2 = kΣyk2 = σ12 |y1 |2 + · · · + σn2 |yn |2 .
Veamos que
máx (σ12 |y1 |2 + · · · + σn2 |yn |2 ) = σ12 .
kyk=1
σ12 = σ12 kyk2 = σ12 (|y1 |2 + · · · + |yn |2 ) = σ12 |y1 |2 + σ12 |y2 |2 + · · · + σ12 |yn |2
≥ σ12 |y1 |2 + σ22 |y2 |2 + · · · + σn2 |yn |2 ,
donde usamos que los valores singulares de A están ordenados de mayor a menor, entonces
para i = 1, 2, · · · , n. Por lo tanto, σ12 es una cota superior del conjunto en cuestión, es decir
Entonces, encontramos un elemento del conjunto en cuestión que alcanza la cota superior. Por lo
tanto σ12 es el máximo, es decir
Como
máx kAxk2 = máx kΣyk2 = máx (σ12 |y1 |2 + · · · + σn2 |yn |2 ) = σ12 .
kxk=1 kyk=1 kyk=1
máx kAxk = σ1
kxk=1
Veamos que el máximo se alcanza en los vectores x ∈ Sλ1 =σ12 (el autoespacio asociado al mayor
autovalor λ1 = σ12 de A∗ A) tales que kxk = 1. Supongamos que {v1 , v2 , · · · , vt } es una bon de
Sλ1 =σ12 , donde v1 , · · · , vt son tales que
A∗ Avi = σ12 vi
264
5.7. Solución por mínimos cuadrados de norma mínima. Pseudo-inversa de Moore-Penrose
Entonces, máx kAxk = σ1 y el máximo se alcanza en los vectores x ∈ Sλ1 =σ12 (el autoespacio
kxk=1
asociado al mayor autovalor λ1 = σ12 de A∗ A) tal que kxk = 1.
De manera similar, se prueba que:
mı́n kAxk = σn
kxk=1
y el mínimo se alcanza en los vectores x ∈ Sλn =σn2 (el autoespacio asociado al menor
autovalor λn = σn2 de A∗ A) tal que kxk = 1.
1 1
A= 1 3 .
−3 1
Hallar entre todos los x ∈ R2 de norma 1 aquellos que maximizan y minimizan kT (x)k y calcular
dicho máximo y mínimo.
Dem. Tal como vimos en la prueba del Teorema 5.7.1, para resolver el ejercicio, primero hallemos
una DVS de A. Busquemos los autovalores y autovectores de
11 1
A A=
T
.
1 11
De hecho, χAT A (t) = (11 − t)2 − 1. Entonces λ1 = 12 y λ2 = 10 son los autovalores de A ordenados
de mayor a menor y v1 = √12 [1 1]T y v2 = √12 [−1 1]T los autovectores asociados correspondientes.
" #
√ √ √1 − √1
1/2 1/2
Entonces, σ1 = λ1 = 2 3, σ2 = λ2 = 10 y V = [v1 v2 ] = √1
2
√1
2 .
2 2
Por lo tanto, por el Teorema 5.7.1,
√
máx kT (x)k = máx kAxk = σ1 = 2 3
kxk=1 kxk=1
y el máximo se alcanza en x ∈ Sλ1 =σ12 = Sλ1 =12 = gen{v1 } = gen{ √12 [1 1]T } tal que kxk = 1.
Entonces, el vector x realiza el máximo si x = α √12 [1 1]T con α ∈ R y
1 1
1 = kxk = kα √ [1 1]T k = |α|k √ [1 1]T k = |α|.
2 2
Entonces α = ±1 y
1
xmáx = ± √ [1 1]T .
2
265
5. Matrices Unitarias
y el mínimo se alcanza en x ∈ Sλ2 =σ22 = Sλ2 =10 = gen{v2 } = gen{ √12 [−1 1]T } tal que kxk = 1.
Entonces, el vector x realiza el mínimo si x = α √12 [−1 1]T con α ∈ R y
1 1
1 = kxk = kα √ [−1 1]T k = |α|k √ [−1 1]T k = |α|.
2 2
Entonces α = ±1 y
1
xmı́n = ± √ [−1 1]T .
2
Ejercicio 5.16 a). Sea T ∈ L(R2 ) la transformación lineal definida por T (x) := Ax. Hallar la
1 1
imagen por T de la circunferencia unitaria S1 := {x ∈ R : kxk = 1}. Donde A =
2
.
1 1
z ∈ T (S1 ) si y sólo si z = U Σy = σ1 u1 y1 + σ2 u2 y2
con y = [y1 y2 ]T tal que kyk2 = y12 + y22 = 1. Por lo tanto, z ∈ T (S1 ) si y sólo si z = w1 u1 + w2 u2
con w1 = σ1 y1 , w2 = σ2 y2 tal que kyk2 = y12 + y22 = 1.
Ahora calculemos los valores singulares de A y las columnas u1 , u2 de U. Para eso, busquemos
los autovalores y autovectores de
2 2
A A=
T
.
2 2
De hecho χAT A (t) = (2 − t)2 − 4. Entonces, λ1 = 4, λ2 = 0 son los autovalores de AT A ordenados de
mayor a menor y v1 = √12 [1 1]T , v2 = √12 [1 − 1]T son los autovectores asociados correspondientes.
266
5.8. Imagen por una transformación lineal de la circunferencia unitaria
T
1/2 [2 2]
Por lo tanto, σ1 = λ1 = 2, σ2 = 0 y además, u1 = Av σ1 =
1 √1
2 2 = √12 [1 1]T y u2 = √1 [−1
2
1]T
(cualquier vector para completar a una bon de R2 ).
Entonces, como [z]B = [w1 w2 ]T = [σ1 y1 σ2 y2 ]T , despejando tenemos que
w1 w1
y1 = = , w2 = 0.
σ1 2
Entonces,
w12
z ∈ T (S1 ) si y sólo si z = w1 u1 con = y12 ≤ y12 + y22 = 1.
σ12
Entonces, w12 ≤ σ12 , por lo tanto −2 = −σ1 ≤ w1 ≤ σ1 = 2 y w2 = 0. Entonces
T (S1 ) = {z ∈ R2 : z = w1 u1 + w2 u2 , −2 ≤ w1 ≤ 2, w2 = 0} = {z ∈ R2 : z = w1 u1 , −2 ≤ w1 ≤ 2}
1
w1
= {z ∈ R : z = √
2
, −2 ≤ w1 ≤ 2}.
2 1
Entonces
la imagen
por T de la circunferencia unitaria de R es el segmento en R de extremos
2 2
1 1
−2
√ y √22 .
2 1 1
Ejercicio 5.18 b). Sea T ∈ L(R3 ) la transformación lineal definida por T (x) := Ax. Hallar la
2 4 −2
z ∈ T (S2 ) si y sólo si z = U ΣV T x = U Σy = σ1 u1 y1 + σ2 u2 y2 + σ3 u3 y3
con y = [y1 y2 y3 ]T tal que kyk2 = y12 + y22 + y32 = 1. Sea B := {u1 , u2 , u3 } que es una bon de R3 ,
entonces
[z]B = [w1 w2 w3 ]T = [σ1 y1 σ2 y2 σ3 y3 ]T ,
con y = [y1 y2 y3 ]T tal que kyk2 = y12 + y22 + y32 = 1.
Calculemos los valores singulares de A y las columnas u1 , u2 , u3 de la matriz U. Para eso,
busquemos los autovalores y autovectores de
24 48 −24
AT A = 48 116 −8 .
−24 −8 104
De hecho χAT A (t) = −t3 + 244t2 − 14400t. Entonces, λ1 = 144, λ2 = 100, λ3 = 0 son los autovalores
de AT A ordenados de mayor a menor y v1 = √16 [−1 − 2 1]T , v2 = √15 [0 1 2]T y v3 = √130 [5 − 2 1]T
1/2
los autovectores asociados correspondientes. Por lo tanto, σ1 = λ1 = 12, σ2 = 1001/2 = 10, σ3 = 0
[−12 −24 12]T [0 10 20]T
y u1 = Avσ1 =
1 √
6 12
= √16 [−1 − 2 − 1]T , u2 = Av
σ2 =
2 √
5 10
= √15 [0 1 2]T y u3 cualquier
vector para completar a una bon de R . 3
267
5. Matrices Unitarias
w12 w2
T (S1 ) = {z ∈ R3 : z = w1 u1 + w2 u2 + w3 u3 , + 2 ≤ 1, w3 = 0}
144 100
2 2
w w
= {z ∈ R3 : z = w1 u1 + w2 u2 , 1 + 2 ≤ 1}
144 100
1 1 w2 w2
= {z ∈ R : z = w1 √ [−1 − 2 − 1]T + w2 √ [0 1 2]T , 1 + 2 ≤ 1}.
3
6 5 144 100
A = W |A|.
A = U ΣV ∗ = U V ∗ V ΣV ∗ = (U V ∗ )|A|.
268
5.9. Descomposición Polar
Notar que como A ∈ Cn×n podemos calcular su determinante. Además, dado que |A| es
semidefinida positiva, tenemos que todos sus autovalores son no negativos y entonces det(|A|) ≥ 0.
Por otra parte, recordemos que como W es unitaria, vale que | det(W )| = 1. Entonces, tenemos
una fórmula para el módulo del determinante de A :
1
i
Ejercicio 5.C. Hallar una descomposición polar para A = .
i −1
Dem. Siguiendo las ideas de la demostración del Teorema 5.9.1, obtengamos primero una DVS de
A. Busquemos los autovalores y autovectores de
1 −i 1 i 2 2i
A∗ A = = .
−i −1 i −1 −2i 2
y " # " #
√i − √i2 2 0 − √i2 √1 1
i
|A| = V ΣV =
∗ 2 2 = .
√1
2
√1
2
0 0 √i
2
√1
2
−i 1
i−1 1 1
−1 i
A = W |A| = .
2 1 1 −i 1
269
CAPÍTULO 6
Formas Cuadraticas
Q(x) = xT Bx.
Por lo tanto
xT (B + B T )x (B + B T )
Q(x) = = xT x.
2 2
T T T T
En este caso, la matriz B+B
2 es simétrica, pues ( B+B
2 )T = B 2+B = B+B
2 . Entonces, a la función
T
Q(x) = xT Bx con B ∈ Rn×n la pudimos expresar de la forma Q(x) = xT Ax con A := B+B 2
simétrica.
Ejercicio 6.A. Sea Q : R3 → R definida por
Comprobar que Q es una forma cuadrática y expresarla de la forma Q(x) = xT Ax con A ∈ R3×3
simétrica.
Dem. Observar que Q(x) = x21 + 2x22 + 3x33 + 10x1 x2 + 16x2 x3 + 26x1 x2 = x21 + 2x22 + 3x23 + 36x1 x2 +
16x2 x3 = x21 + 2x22 + 3x23 + 2(18x1 x2 + 8x2 x3 ).
Si A ∈ R3×3 es tal que A = AT . Entonces A tiene la siguiente forma
a b c
A = b d e ,
c e f
271
6. Formas Cuadraticas
Entonces Q(x) = x21 + 2x22 + 3x23 + 2(18x1 x2 + 8x2 x3 ) = ax21 + dx22 + f x23 + 2bx1 x2 + 2cx1 x3 + 2ex2 x3 .
Comparando, nos queda que a = 1, d = 2, f = 3, b = 18, c = 0, e = 8. Entonces,
1 18 0
A = 18 2 8
0 8 3
Comprobar que Q es una forma cuadrática y expresarla de la forma Q(x) = xT Ax con A ∈ R2×2
simétrica.
1 2
Dem. La matriz B := no es simétrica. Sin embargo, arriba vimos que si tomamos
3 4
1 2 1 3
+
B + BT 3 4 2 4 1 52
A= = =
2 2 5
2 4
A = P ΛP T .
Con el objetivo de eliminar los términos cruzados de la forma xi xj con i 6= j, vamos a considerar el
cambio de variables
x = P y.
Entonces
Q(x) = xT Ax = (P y)T A(P y) = y T P T AP y = y T Λy =: Q̃(y).
Por lo tanto
0 0
λ1 ···
0 λ2 ··· 0
Q(x) = Q̃(y) = y T .. .. .. .. y = λ1 y12 + λ2 y22 + · · · + λn yn2 .
. . . .
0 0 ··· λn
272
6.2. Eliminación de productos cruzados
Q(x) = x23 + x1 x2 + x1 x3 + x2 x3
0 1 1
2 2
Q(x) = xT 1
2 0 1
2
x
1
2
1
2 1
0 1 1
2 2
con A := 1
2 0 simétrica. Para diagonalizar ortogonalmente A, calculemos su polinomio
1
2
1
2
1
2 1
característico, sus autovalores y obtengamos una bon de autovectores de R3 . De hecho
3t
χA (t) = det(A − tI) = −t3 + t2 + .
4
1 1 1
1
1 2 2 2
nul(A + I) = nul( 1 1 1 = gen{ −1 },
2 2 2 2
1
2
1
2
3
2
0
1
3 1 1
−2
3 2 2
= gen{ 1 },
nul(A − I) = nul( 12 − 32 1
2 2
1
2
1
2 − 12 2
0 1 1
2 2−1
nul(A) = nul( 21 0 = gen{ −1 }.
1
2
1
2
1
2 1 1
1 1
−1
Tenemos que { √12 −1 , √1 1 , √1 −1 } es una bon de autovectores de R3 . Tomemos
0 6 2 3 1
√1 √1 −1
√
2 6 3
−1
P :=
− √12 √1
6
√
3 .
0 √2
6
√1
3
Entonces
− 12 0 0
A=P 0 3
2 0 PT.
0 0 0
1 3
Q(x) = Q̃(y) = y T Λy = − y12 + y22 .
2 2
273
6. Formas Cuadraticas
Q(x) = xT Ax
con A simétrica, entonces recordando lo que vimos en la Proposición 5.4.1, tenemos que:
Proposición 6.3.1. Sea Q una forma cuadrática en Rn donde Q(x) = xT Ax con A ∈ Rn×n
simétrica y sean λ1 , λ2 , · · · , λn ∈ R los autovalores de A. Entonces:
Q(x) = Q̃(y) = y T Λy
Veremos a continuación que el conjunto de nivel Nc (Q) se obtiene rotando el conjunto de nivel
Nc (Q̃) en los ejes principales de A (determinados por las columnas ortonormales de la matriz P ).
En particular, ambos conjuntos de nivel tienen la misma forma geométrica.
274
6.4. Conjuntos de nivel
Ejercicio 6.2 a). Sea Q(x) = 9x21 + 3x22 − 8x1 x2 en R2 . Clasificar dicha forma cuadrática y graficar
sus conjuntos de nivel Nc (Q).
9 −4
Entonces si A = , tenemos que Q(x) = xT Ax con A simétrica.
−4 3
Ahora, diagonalizemos ortogonalmente A. Para eso, calculemos su polinomio característico, sus
autovalores y obtengamos una bon de autovectores de R2 . De hecho
tenemos que
1 0
A=P PT.
0 11
Entonces, como los autovalores de A son ambos positivos, tenemos que A es definida positiva y
por lo tanto Q es definida positiva.
Por otra parte, con el cambio de variables x = P y, tenemos que
Por lo tanto, dado c ∈ R tenemos que las conjuntos de nivel Nc (Q) son todos los x ∈ R2 tales que
Nc (Q) = ∅.
275
6. Formas Cuadraticas
Entonces, los conjuntos de nivel Nc (Q) = {x ∈ R2 : 9x21 + 3x22 − 8x1 x2 = c} (c > 0) son elipses
1
−2
en R2 en los nuevos ejes y1 , y2 determinados por los versores v1 := √15 y v2 := √15
2 1
que son las columnas de P y que son una rotación de un ángulo (positivo) de los ejes originales
x1 , x2 (ver Figura 6.1).
276
6.4. Conjuntos de nivel
Supongamos que A es definida positiva, entonces por un lado tenemos que A = AT y usando
que el producto interno canónico es simétrico, tenemos que
h x, y iA = h Ax, y i = x, AT y = h x, Ay i = h Ay, x i = h y, x iA ,
Recordemos que siempre vale que h Ax, y i = x, AT y . Entoces, usando la ecuación (6.2), tenemos
que
x, AT y = h Ax, y i = h x, Ay i ,
para todo x, y ∈ Rn . Entonces, usando la linealidad del producto interno canónico, tenemos que
para todo y ∈ Rn . Como k · k es la norma inducida del producto interno canónico, se sigue que
h Ax, x i = h x, x iA > 0
para todo x 6= 0. Entonces, como A es simétrica y h Ax, x i > 0 para todo x 6= 0, concluimos que A
es definida positiva.
Ejercicio 6.D (De Final). Determinar los valores de k ∈ R (si existen) para los cuales la forma
cuadrática definida en R2 por
Q(x) = x21 + kx1 x2 + x22 ,
es definida positiva.
k2
χA (t) = (1 − t)2 − .
4
277
6. Formas Cuadraticas
Q(x̂M ) = máx Q(x) = máx Q(x) y Q(x̂m ) = mı́n Q(x) = mı́n Q(x).
x∈S3 kxk=1 x∈S3 kxk=1
Como Q no tiene productos cruzados nos va a resultar sencillo resolver el ejercicio. Luego
veremos cómo vamos a proceder en el caso en que Q tenga productos cruzados.
Dem. a) : Observar que, como −3x22 ≤ 5x22 y 2x23 ≤ 5x23 , tenemos que, para todo x ∈ R4 ,
Q(x) = 5x21 − 3x22 + 2x23 + 5x24 ≤ 5x21 + 5x22 + 5x23 + 5x24 = 5kxk2 .
Por otro lado, como −3x21 ≤ 5x21 , −3x23 ≤ 2x23 y −3x24 ≤ 5x24 , tenemos que, para todo x ∈ R4 ,
−3kxk2 = −3x21 − 3x22 − 3x23 − 3x24 ≤ Q(x) = 5x21 − 3x22 + 2x23 + 5x24 .
Por lo tanto,
−3kxk2 ≤ Q(x) ≤ 5kxk2 para todo x ∈ R4 .
Con lo cual, si x 6= 0, tenemos que
Q(x)
−3 ≤ ≤5 para todo x ∈ R4 \ {0}.
kxk2
Veamos entonces, que el máximo del cociente de Rayleigh es 5 y el mínimo del cociente de
Rayleigh es −3. Como ya vimos que 5 es una cota superior y −3 es una cota inferior del cociente de
278
6.5. Optimización de formas cuadráticas
Q(xM )
Rayleigh, sólo nos resta encontrar algún xM ∈ R4 \ {0} tal que kxM k2 = 5 y algún xm ∈ R4 \ {0}
Q(xm )
tal que kxm k2 = −3.
Q(xM )
Observar que xM := [1 0 0 0]T ∈ R4 \ {0}, Q(xM ) = 5 y kxM k = 1. Entonces kxM k2 =5y
concluimos que
Q(x)
máx = 5.
x6=0 kxk2
Q(xm )
Por otra parte, xm := [0 1 0 0]T ∈ R4 \ {0}, Q(xm ) = −3 y kxm k = 1. Entonces kxm k2 = −3 y
concluimos que
Q(x)
mı́n = −3.
x6=0 kxk2
Q(xM ) Q(x)
b) : Queremos hallar el conjunto de todos los xM ∈ R4 \ {0} tales que kxM k2 = máx 2 = 5.
x6=0 kxk
Planteamos para qué valores de x ∈ R4 tenemos que Q(x) = 5kxk2 y eso vale, si y sólo si,
Q(x) = 5x21 − 3x22 + 2x23 + 5x24 = 5kxk2 = 5x21 + 5x22 + 5x23 + 5x24 .
Entonces,
8x22 + 3x23 = 0.
Por lo tanto, x2 = x3 = 0. Entonces,
Q(xM ) Q(x)
= máx = 5.
kxM k2 x6=0 kxk2
Q(xm ) Q(x)
Para hallar el conjunto de todos los xm ∈ R4 \{0} tales que kxm k2 = mı́n 2 = −3, planteamos
x6=0 kxk
para qué valores de x ∈ R tenemos que Q(x) = −3kxk y eso vale, si y sólo si,
4 2
Q(x) = 5x21 − 3x22 + 2x23 + 5x24 = −3kxk2 = −3x21 − 3x22 − 3x23 − 3x24 .
Entonces,
8x21 + 5x23 + 8x24 = 0.
Por lo tanto, x2 = x3 = x4 = 0. Entonces,
Q(xm ) Q(x)
2
= mı́n = −3.
kxm k x6=0 kxk2
c) : En el item b), vimos que Q(x) = 5kxk2 si y sólo si x ∈ gen{[1 0 0 0]T , [0 0 0 1]T }. Si ahora
imponemos la restricción x ∈ S3 = {x ∈ R4 : kxk = 1}, tenemos que
279
6. Formas Cuadraticas
son los x ∈ gen{[1 0 0 0]T , [0 0 0 1]T } tales que kxk = 1. Entonces, el máximo se alcanza en los
vectores x̂M = α[1 0 0 0]T + β[0 0 0 1]T con α, β ∈ R tales que (aplicando Pitágoras o haciendo la
cuenta)
Entonces, el máximo se alcanza en los vectores x̂M = α[1 0 0 0]T + β[0 0 0 1]T tales que α2 + β 2 = 1.
En el item c), vimos que Q(x) = −3kxk2 si y sólo si x ∈ gen{[0 1 0 0]T }. Si ahora imponemos
la restricción x ∈ S3 = {x ∈ R4 : kxk = 1}, tenemos que
son los x ∈ gen{[0 1 0 0]T } tales que kxk = 1. Entonces, el mínimo se alcanza en los vectores
x̂m = α[0 1 0 0]T con α ∈ R tales que 1 = kxk = kα[0 1 0 0]T k = |α|k[0 1 0 0]T k = |α|. Entonces,
α = ±1 y, el mínimo se alcanza en los vectores x̂m = ±[0 1 0 0]T .
Teorema 6.5.1 (Teorema de Rayleigh). Sea A ∈ Rn×n simétrica y Q(x) = xT Ax. Sean
λM y λm los autovalores máximo y mínimo de A respectivamente y sean SλM y Sλm los
autespacios asociados respectivos. Entonces:
Lo vamos a demostrar de manera sencilla usando las ideas del Ejercicio 6.E.
Dem. Sea A = P ΛP T una descomposición ortogonal de A, que existe pues A es simétrica.
Supongamos que
λM · · · 0
Λ = · · · ... · · · .
0 · · · λm
Donde λM = λ1 = · · · = λr > λr+1 ≥ · · · > λn−k+1 = · · · = λn = λm . Es decir, ordenamos los
autovalores de A de mayor a menor y suponemos que la multiplicidad algebraica (y geométrica) de
λM es r y la multiplicidad algebraica (y geométrica) de λm es k.
Entonces, si P = [v1 v2 · · · vn ], tendremos que
kxk = kP yk = kyk
Entonces, tenemos una expresión sin productos cruzados y podemos usar ideas similares a las del
Ejercicio 6.E. Entonces, para todo y ∈ Rn ,
280
6.5. Optimización de formas cuadráticas
Por otra parte, también usando ideas similares a las del Ejercicio 6.E, tenemos que
A partir del Teorema de Rayleigh que acabamos de probar, es inmediato ver que:
Q(x)
máx = λM y el máximo se alcanza en los x ∈ SλM \ {0}.
x6=0 kxk2
Q(x)
mı́n = λm y el máximo se alcanza en los x ∈ Sλm \ {0}.
x6=0 kxk2
En particular, máx Q(x) = λM y el máximo se alcanza en los x ∈ SλM tales que kxk = 1 y
kxk=1
mı́n Q(x) = λm y el mínimo se alcanza en los x ∈ Sλm tales que kxk = 1.
kxk=1
281
6. Formas Cuadraticas
9 0 0
A = P 0 6 0 PT.
0 0 3
b) : Por el ítem a) tenemos que 3 ≤ Q(x) ≤ 9 para todo x ∈ R3 tal que kxk = 1. Es claro
que si x = 0 entonces 3kxk2 ≤ Q(x) ≤ 9kxk2 (pues todos los términos dan 0). Por otra parte, si
x ∈ R3 \ {0} y tomamos x̂ := kxk
x
vale que kx̂k = k kxk
x
k = 1. Entonces, 3 ≤ Q(x̂) ≤ 9 y usando la
propiedad (6.1), tenemos que Q(x) = Q(x̂kxk) = Q(x̂)kxk2 . Por lo tanto, para todo x ∈ R3 ,
282
6.5. Optimización de formas cuadráticas
en el origen de coordenadas y ejes coincidentes con los ejes y1 , y2 , y3 . Los valores 13 , √16 y √13
son las longitudes de los semiejes del elipsoide respecto de los
ejes y1 , y2 , y3 , respectivamente.
1
3
Por lo tanto, en los nuevos ejes, los puntos ym := ± 0 son los puntos de N1 (Q) más
0
−1
cercanos al origen. En la variable original, estos puntos son xm = P ym = ± 19 2 y el
−2
−1
1
valor de la distancia mínima es kym k = kxm k = k ± 19 2 k = . De manera similar,
3
−2
0
los puntos yM := ± 0 son los puntos de N1 (Q) más alejados al origen. En la variable
√1
3
2
kyM k = kxM k = k ± 1
√ 2 k = √1 .
3 3
1 3
Ejercicio 6.8. Sea Q la forma cuadrática en R2 definida por Q(x) := xT (aI + bA)x, con a, b ∈ R
donde A es la matriz en base canónica de una proyección ortogonal de R2 sobre un subespacio
unidimensional.
b) Para los valores hallados en el inciso anterior, y sabiendo que col(A) = {x ∈ R2 : 3x1 + 4x2 =
0}, graficar el conjunto {x ∈ R2 : Q(x) ≤ 3}.
283
6. Formas Cuadraticas
Caso 1: a = 2 y b = 3. En este caso (6.3), nos queda Q̃(y) = 5y12 + 2y22 ≤ 3. El conjunto de
nivel{x ∈ R2 : Q(x) ≤ 3} es el contorno y el interior
de una elipse
en R en los nuevos ejes
2
4 3
y1 , y2 determinados por los versores v1 := 15 y v2 := 15 que son las columnas
−3 4
de P y que son una rotación de los ejes originales x1 , x2 (ver Figura 6.2).
Caso 2: a = 5 y b = −3. En este caso (6.3), nos queda Q̃(y) = 2y12 + 5y22 ≤ 3. El conjunto de
nivel{x ∈ R2 : Q(x) ≤ 3} es el contorno y el interior
de una elipse
en R en los nuevos ejes
2
4 3
y1 , y2 determinados por los versores v1 := 15 y v2 := 15 que son las columnas
−3 4
de P y que son una rotación de los ejes originales x1 , x2 (ver Figura 6.3).
284
6.5. Optimización de formas cuadráticas
Dem. a) : Observar en primer lugar que AT = A. Además, observar que tr(A) = 2 > 0 y
det(A) = 1 − cos θ2 = sin θ2 > 0. Entonces, si λ1 , λ2 ∈ R son los autovalores de A,
λ1 + λ2 = tr(A) > 0 y λ1 λ2 = det(A) > 0
y deducimos que λ1 > 0 y λ2 > 0. Por lo tanto, A es simétrica y sus autovalores son positivos.
Entonces, por la Proposición 6.3.1, A es definida positiva. Conclusión: por el Ejercicio 6.C, h ·, · iA
efectivamente resulta un producto interno y QA := h x, x iA es una forma cuadrática definida
positiva.
b) : Usando que tr(A) = 2 y det(A) = sin θ2 , haciendo la cuenta, tenemos que el polinomio
característico de A es
χA (t) = det(A − tI) = t2 − tr(A)t + det(A) = t2 − 2t + sin θ2 .
Entonces, como
∆ := tr(A)2 − 4 det(A) = 4 − 4 sin θ2 = 4(1 − sin θ2 ) = 4 cos θ2 > 0.
285
6. Formas Cuadraticas
1 1
−1
formada por los autovectores de A: { √12 ,√ }.
1 2 1
d) : Si hacemos el cambiode variables x = P y, con P definida en el item b), usando que
1 + cos θ 0
A=P P T , tenemos que Q(x) = 1, si y sólo si
0 1 − cos θ
Como θ ∈ (0, π) se ve que 1 + cos θ > 0 y 1 − cos θ > 0 (y ambos autovalores son distintos excepto
en el caso θ = π2 ).
Entonces, si θ ∈ (0, π) y θ =
6 π2 , el conjunto de nivel N1 (Q) = {x ∈ R2 : x21 +x22 +2 cos θx1x2 =1}
1
es una elipse en R2 en los nuevos ejes y1 , y2 determinados por los versores v1 := √12 y
1
−1
v2 := √12 } que son las columnas de P y que son una rotación de un ángulo (positivo) de
1
los ejes originales x1 , x2 (ver Figura 6.4). En el caso θ = π2 , el conjunto de nivel N1 (Q) es una
circunferencia de radio 1.
Vamos a graficar el conjunto de nivel N1 (Q) para 3 valores distintos de θ :
Gráfico 1: θ = π
3 (color verde). En este caso, nos queda el conjunto de nivel x21 + x22 + x1 x2 = 1
y2 y22
(en los ejes x1 , x2 ) ó √ 12 2 + [√2] 2
= 1 (en los ejes y1 , y2 ).
[ 3]
Gráfico 2: θ = π2 (color negro). En este caso, nos queda el conjunto de nivel x21 + x22 = 1 (en
los ejes x1 , x2 ) ó y12 + y22 = 1 (en los ejes y1 , y2 ). Observar que en realidad obtenemos una
circunferencia de radio 1.
286
6.5. Optimización de formas cuadráticas
Gráfico 3: θ = 2π
3 (color azul). En este caso, nos queda el conjunto de nivel x21 + x22 − x1 x2 = 1
y12 y2
(en los ejes x1 , x2 ) ó [√2] 2
+ √ 22 2 = 1 (en los ejes y1 , y2 ).
[ 3]
y2 y2
Q̃(y) = q 1 + q 2 = 1.
[ (1+cos
c
θ) ]
2 [ (1−cos
c
θ) ]
2
Ejercicio 6.9. Sea A ∈ R3×3 la matriz simétrica de traza nula tal que
distancia al subespacio gen{ 1 } es 5, ¿qué valor debe tener la distancia de x0 al nul(A − 2I)
1
para que Q(x0 ) = 14?
287
6. Formas Cuadraticas
1 1
1
2(α2 +β 2 )−14
Entonces, γ 2 = 4 = 2×25−14
4 = 9. Finalmente, notar que
d(x0 , nul(A − 2I)) = d(x0 , Sλ=2 ) = kx0 − PSλ=2 (x0 )k = kγv3 k = |γ|.
Entonces, la distancia de x0 al nul(A − 2I) debe valer
√
d(x0 , nul(A − 2I)) = |γ| = 9 = 3.
Ejercicio 6.G (De Final). Decidir si la siguiente afirmación es verdadera o falsa: sean
2 −1 1 0
Q(x) = x T
x y R(x) = x T
x.
0 1 0 2
Entonces
máx Q(x) = máx R(x).
kxk=1 kxk=1
288
6.5. Optimización de formas cuadráticas
máx R(x) = 2,
kxk=1
1 0
esto es debido a que el máximo autovalor de la matriz simétrica (en particular diagonal) es
0 2
2 −1
2. Por otra parte, si llamamos C := entonces Q(x) = xT Cx. El polinomio característico
0 1
de C es
χC (t) = det(A − tI) = (2 − t)(1 − t).
Por lo tanto, los autovalores de C son λ1 = 2 y λ2 = 1. Sin embargo, como C claramente NO
es simétrica NO podemos aplicar el Teorema de Rayleigh. Para aplicar el Teorema de Rayleigh
necesitamos escribir a Q como Q(x) = xT Ax con A simétrica. Si recordamos lo que hicimos arriba,
vimos que tomando
C + CT 2 − 12
A := =
2 − 21 1
entonces Q(x) = xT Ax y ahora A es simétrica. Ahora sí podemos aplicar el Teorema de Rayleigh.
El polinomio característico de A es
1 7
χA (t) = (2 − t)(1 − t) − = t2 − 3t +
4 4
√ √
y sus raíces son λ1 = 3+ 2
2 y λ2 = Por lo tanto, por el Teorema de Rayleigh,
3− 2
2 .
√
3+ 2
máx Q(x) = 6= 2 = máx R(x)
kxk=1 2 kxk=1
Ejercicio 6.H (De Final). Sea B ∈ R3×3 simétrica con autovalores −2, −1, 1. Hallar todos los r ∈ R
tales que
−2 ≤ xT (B + rI)x ≤ 16 para todo x ∈ R3 tal que kxk = 2.
AT = (B + rI)T = B T + (rI)T = B + rI = A.
y Q(x) = 4λm si y sólo si x ∈ Sλm y kxk = 2 y Q(x) = 4λM si y sólo si x ∈ SλM y kxk = 2. Por lo
tanto,
mı́n Q(x) = 4λm = 4(−2 + r) y máx Q(x) = 4λM = 4(1 + r).
kxk=2 kxk=2
289
6. Formas Cuadraticas
Si Q(x) = xT Ax = xT (B + rI)x ≤ 16 para todo x ∈ R3 tal que kxk = 2, entonces 16 es una cota
superior del conjunto {Q(x) : x ∈ R3 con kxk = 2}. Entonces, el máximo de dicho conjunto es
menor o igual a esa cota superior y por lo tanto,
Si R(x) = xT x = kxk2 , entonces estamos en los casos que ya analizamos y que sabemos resolver
usando el Teorema de Rayleigh. La idea entonces es, a partir de algún cambio de variables
conveniente, trasformar la restricción R(x) = 1 en una restricción de la forma z T z = 1 y luego usar
lo que ya sabemos en las nuevas variables.
Para aplicar la idea anterior B debe ser necesariamente definida positiva. De hecho,
supongamos que existe una matriz inversible F ∈ Rn×n tal que con el cambio de variables
z = F x, transformamos la restricción R(x) = 1 en una restricción de la forma z T z = 1. Entonces,
por un lado x = F −1 z y por el otro lado,
R(x) = xT Bx = z T (F −1 )T BF −1 z.
(F −1 )T BF −1 = I.
Si ahora multiplicamos la ecuación anterior a izquierda por F T y a derecha por F, recordando que
(F −1 )T = (F T )−1 , tenemos que
B = F T [(F −1 )T BF −1 ]F = F T IF = F T F.
h Bx, x i = F T F x, x = h F x, F x i = kF xk2 ≥ 0,
y entonces B tiene que ser semidefinida positiva. Y además, como queremos que F sea inversible,
tenemos que nul(F ) = {0}. Entonces,
h Bx, x i = 0 = kF xk2
290
6.6. Optimización de formas cuadráticas con restricciones definidas positivas
si y sólo si F x = 0 si y sólo si x ∈ nul(F ) = {0}. Por lo tanto, B tiene que ser necesariamente
definida positiva. Si B no cumple esa condición, no tendremos esperanzas de encontrar un cambio
de variables que transforme la restricción R(x) = 1 en una restricción de la forma z T z = 1.
Ahora sí, supongamos que B ∈ Rn×n es definida positiva. Entonces, B es simétrica, sus
autovalores son todos positivos y existe Q ∈ R
n×n
ortogonal, tal que B = QΛQT , donde
µ1 · · · 0
0 ··· µn
Sea
1/2
µ1 ··· 0
F := Q
.. T
··· . ··· Q .
1/2
0 ··· µn
Entonces, esa es una diagonalización ortogonal de F por cómo la definimos. Es más, por definición,
los autovalores de F son la raíz cuadrada de los autovalores de B. Por lo tanto, F es simétrica y
tiene todos autovalores positivos (no nulos). Es decir, F es inversible y definida positiva y además
F2 = FF = FFT = FTF
1/2 1/2
µ ··· 0 µ1 ··· 0
1 . ..
= Q ··· .. · · · · · · Q = QΛQ = B.
T T T
Q Q
··· .
1/2 1/2
0 ··· µn 0 ··· µn
La matriz F es un buen candidato para el cambio de variables que buscamos. Entonces, hagamos
el cambio de variables z = F x, (x = F −1 z). Entonces, como B = F 2 = F T F = F F T , tenemos que
R(x) = xT Bx = xT F T F x = (F x)T (F x) = z T z y
Q(x) = xT Ax = (F −1 z)T A(F −1 z) = z T (F −1 )T AF −1 z = z T (F −1 AF −1 )z.
Entonces, usando el Teorema de Rayleigh, tenemos que
máx Q(x) = máx z T (F −1 AF −1 )z = λM (F −1 AF −1 ),
R(x)=1 z T z=1
Para evitar hacer todas las cuentas que implicaría el cálculo de los autovalores y autoespacios
de la matriz F −1 AF −1 , en lo que sigue veremos una manera simple de hallar λM (F −1 AF −1 ),
λm (F −1 AF −1 ), SλM (F −1 AF −1 ) y Sλm (F −1 AF −1 ) .
291
6. Formas Cuadraticas
F −1 BF −1 = F −1 F F F −1 = I.
Por lo tanto,
F −1 AF −1 − λI = F −1 AF −1 − λF −1 BF −1 = F −1 (A − λB)F −1 .
F −1 Ax = λF −1 F F x = λF x.
Sea z := F x, entonces x = F −1 z y
(F −1 AF −1 )z = F −1 Ax = λF x = λz.
1 1
Dem. a) : Observar que Q(x) = xT Ax, con A = 2 . El polinomio característico de A
1
2 1
es χA (t) = (1 − t)2 − 41 , cuyas raíces son 32 y 12 (ambas positivas). Por lo tanto, A es definida
positiva (también se puede probar que A es definida positiva viendo que el determinante de las
submatrices principales de A
son ambos positivos).Por otra parte, los autoespacios correspondientes
1 1 −1
−1
son Sλ= 32 = gen{ 2
√1
} y Sλ= 12 = gen{ 2
√1
}. Entonces, si P := 2
√1
, tal
1 1 1 1
como vimos arriba, podemos definir
q
3
2 0
G := P q PT.
0 1
2
292
6.6. Optimización de formas cuadráticas con restricciones definidas positivas
9 −4
b) : Observar que R(x) = xT Bx con B = . El polinomio característico de B es
−4 3
χB (t) = (9 − t)(3 − t) − 16, cuyas raíces son λ1 = 11 y λ2 = 1 (ambas positivas). Por lo tanto, B
es definida positiva, entonces la restricción R también es una forma cuadrática definida positiva
y podemos aplicar lo que vimos arriba. Recordar que probamos que si B = F F, con F ∈ R2×2
definida positiva, entonces
1 12 9 −4 1 − 9t 21 + 4t
det(A − tB) = det( 1 −t ) = det( 1 )
2 1 −4 3 2 + 4t 1 − 3t
1 1
= 27t2 − 12t + 1 − ( + 4t)2 = 27t2 − 12t + 1 − 16t2 − − 4t
2 4
3
= 11t − 16t + .
2
4
√ √
Las ráices de det(A − tB) son λ1 = 16+22 223 = λM (F −1 AF −1 ) y λ2 = 16− 223
22 =
λm (F −1 AF −1 ). Entonces,
√ √
16 + 223 16 − 223
máx Q(x) = y mı́n Q(x) = .
R(x)=1 22 R(x)=1 22
b) : Vimos que los x ∈ R2 tales que R(x) = 1 y que maximizan Q son los x = F −1 z con
z ∈ SλM (F −1 AF −1 ) tales que kzk = 1. También vimos que x = F −1 z con z ∈ SλM (F −1 AF −1 ) si y
sólo si x ∈ nul(A − λM (F −1 AF −1 )B). Calculemos
√
16 + 223
nul(A − λM (F AF )B) = nul(A −
−1 −1
B)
22
" √ √ # √
−122−9 223 75+4 223
75 + 4 √223
= 22
√ 22√ = gen{ }.
75+4 223
22
−26−3 223
22
122 + 9 223
Entonces, el conjunto de
√ todos
los x ∈ R tales que R(x) = 1 y que maximizan Q son los
2
√ x de la
75 + 4 √223 75 + 4 √223
forma x = α con α ∈ R tales que R(x) = 1. Llamemos v := ,
122 + 9 223 122 + 9 223
como
tenemos que α = ± R(v)1 1/2 y el conjunto de todos los x ∈ R2 tales que R(x) = 1 y que maximizan
Q, es el conjunto de dos puntos:
1 1
{ 1/2
v, − v}.
R(v) R(v)1/2
293
6. Formas Cuadraticas
c) : Vimos que los x ∈ R2 tales que R(x) = 1 y que minimizan Q son los x = F −1 z con
z ∈ Sλm (F −1 AF −1 ) tales que kzk = 1. También vimos que x = F −1 z con z ∈ Sλm (F −1 AF −1 ) si y
sólo si x ∈ nul(A − λm (F −1 AF −1 )B). Calculemos
√
16 − 223
nul(A − λm (F AF )B) = nul(A −
−1 −1
B)
22
" √ √ # √
−122+9 223 75−4 223
75 − 4 √223
= 22
√ 22√ = gen{ }.
75−4 223
22
−26+3 223
22
122 − 9 223
Entonces el conjunto de
√ todos los x ∈ R tales que R(x) = 1 y que minimizanQ son los
2
√ x de la
75 − 4 √223 75 − 4 √223
forma x = α con α ∈ R tales que R(x) = 1. Llamemos w := ,
122 − 9 223 122 − 9 223
como
2 3
Dem. Observar que Q2 (x) = x Bx, con B :=
T
. El polinomio característico de B es
3 −6
Lo mismo podremos pensar para los puntos más alejados del origen y el máximo que nos interesa.
Entonces, para graficar el conjunto de nivel Q2 (x) = 1, diagonalizemos ortogonalmente a la
matriz B. Ya vimos que λ1 = 3 y λ2 = −7 son sus autovalores y los autoespacios asociados son:
−1 3 3
nul(B − 3I) = nul( ) = gen{ },
3 −9 1
294
6.6. Optimización de formas cuadráticas con restricciones definidas positivas
9 3
−1
nul(B + 7I) = nul( ) = gen{ }.
3 1 3
" #
3 1 √3 − √110
−1
Entonces, { √110 ,√ } es una bon de R y si tomamos P =
2 10 ,
1 10 3 √1
10
√3
10
entonces det(P ) = 1 y una diagonalización ortogonal de B es
3 0
B=P PT.
0 −7
Por lo tanto, con el cambio de variables x = P y, nos queda Q(x) = Q̃(y) = 3y12 − 7y22 . Entonces
Q2 (x) = 1 si y sólo 3y12 − 7y22 = 1, ó equivalentemente,
y12 y22
− = 1.
[ √13 ]2 [ √17 ]2
Por lo tanto el conjunto de nivel Q2 (x)= 1 es una hipérbola en R2 en los nuevos ejes y1 , y2
3
−1
determinados por los versores v1 := √110 y v2 := √110 que son las columnas de P y
1 3
que son una rotación de un ángulo (positivo) de los ejes originales x1 , x2 . Ver Figura 6.5.
Como se puede observar, los puntos del conjunto de nivel Q2 (x) = 1 (queson los puntos de la
√1 √1
hipérbola de color verde) más cercanos al origen, son los puntos ym1 = 3 e ym2 = − 3
0 0
(en los ejes y1 , y2 ). Por lo tanto, usando el cambio de variables x = P y, tenemos que, los puntos
más cercanos al origen son
" # " # " #
√3 √1 √3 −3
− √1
√
xm1 = P ym1 = √1
10
√3
10 3 = 30
√1
y xm2 = P ym2 = −1
30 .
10 10
0 30
√
30
295
6. Formas Cuadraticas
Entonces
1 1
mı́n Q1 (x) = mı́n kxk2 = ( mı́n kxk)2 = kxm k2 = kym k2 = ( √ )2 =
Q2 (x)=1 Q2 (x)=1 Q2 (x)=1 3 3
" # " #
√3 −3
√
y dicho mínimo, como acabamos de ver, se alcanza en los puntos xm1 = 30
√1
y xm2 = −1
√
30 .
30 30
Por último, es claro que no existe el máximo de kxk2 restringido a Q2 (x) = 1.
Tal como hicimos en el Ejercicio 6.I, podemos determinar gráficamente (si existen)
mı́n Q1 (x) y máx Q1 (x) y los puntos donde se alcanzan esos extremos, para cualquier
Q2 (x)=1 Q2 (x)=1
forma cuadrática Q2 (sin importar si es definida positiva) pero cuando Q1 es una forma
cuadrática muy particular, por ejemplo Q1 (x) = kxk2 o formas cuadráticas similares.
Lo mismo podremos pensar para los puntos más alejados del origen y el máximo que nos interesa.
Por lo tanto, operando de manera similar al Ejercicio 6.I, tenemos que
1 5
mı́n Q1 (x) = mı́n 5kxk2 = 5( mı́n kxk)2 = 5kxm k2 = 5kym k2 = 5( √ )2 =
Q2 (x)=1 Q2 (x)=1 Q2 (x)=1 3 3
" # " #
√3 −3
√
y dicho mínimo, se alcanza en los puntos xm1 = 30
√1
y xm2 = −1
√
30 .
30 30
Por último, es claro que no existe el máximo de 5kxk2 restringido a Q2 (x) = 1.
Ejercicio 6.13. Sea Q : R2 → R la forma cuadrática definida por Q(x) := ax21 + ax22 + 2bx1 x2 ,
donde a, b ∈ R.
a) Hallar y graficar el conjunto de todos los pares (a, b) para los cuales Q es definida positiva.
b) Hallar y graficar el conjunto de todos los pares (a, b) para los cuales
c) Determinar los valores de a y b para los cuales existe un cambio de variables ortogonal x = P y
tal que Q̃(y) := Q(P y) = 4y12 + 9y22 .
d) Para a = 52 y b = 32 hallar los puntos de la curva de nivel Q(x) = 1 más cercanos al origen.
¿Qué puede decirse de los más lejanos?
e) Para a = 32 y b = 52 hallar los puntos de la curva de nivel Q(x) = 1 más cercanos al origen.
¿Qué puede decirse de los más lejanos?
296
6.6. Optimización de formas cuadráticas con restricciones definidas positivas
a b
Dem. a) : Notar que Q(x) = x Ax, con A := T
. Por lo tanto, tal como vimos en el
b a
Teorema 5.4.2, A es definida positiva si y sólo si el determinate de todas sus submatrices principales
es positivo. En este caso, tenemos dos submatrices principales: A(1) = [a] cuyo determinante es
det(A(1) ) = a y A(2) = A cuyo determinante es det(A(2) ) = det(A) = a2 − b2 . Entonces A es
definida positiva, si y sólo si a > 0 y a2 > b2 . Entonces, tomando raíz en la última desigualdad y
usando que a > 0, tenemos que |a| = a > |b|. Por lo tanto, A es definida positiva, si y sólo a > 0 y
−a < b < a.
b) : El polinomio característico de A es χA (t) = (a − t)2 − b2 , cuyas raíces son λ1 = a + b y
λ2 = a − b. Veamos distintos casos:
Conclusión mı́n
2
Q(x) = 0 y máx
2
Q(x) = 4 si y sólo si (a, b) ∈ {(2, 2), (2, −2)}.
kxk =1 kxk =1
c) : Notar que existe un cambio de variables ortogonal x = P y tal que Q̃(y) := Q(P y) = 4y12 +9y22
si y sólo si
4 0
Q(P y) = y T
y = Q(x) = y T P T AP y.
0 9
Entonces
4 0 4 0
y (
T
− P AP )y =
T
y, ( − P AP )y
T
=0
0 9 0 9
4 0 4 0
para todo y ∈ R . Por lo tanto P AP =
2 T
o lo que es equivalente, A = P PT.
0 9 0 9
Es decir, los autovalores de A son λ1 = 4 y λ2 = 9. Entonces, tal como hicimos en b) tenemos que
analizar 3 casos recordando que los autovalores de A son a + b y a − b. Entonces:
297
6. Formas Cuadraticas
Conclusión, existe un cambio de variables ortogonal x = P y tal que Q̃(y) := Q(P y) = 4y12 + 9y22 si
y sólo si (a, b) ∈ {( 13
2 , 2 ), ( 2 , 2 )}.
5 13 −5
1 −1
autoespacios asociados son SλM = nul(A−4I) = gen{ } y Sλm = nul(A−I) = gen{ }.
1 1
1 1 1 −1
−1
Entonces { √12 ,√ } es una bon de R2 . Si tomamos P = √12 tenemos
1 2 1 1 1
4 0
que det(P ) = 1 y A = P P T . En este caso, con el cambio de variables x = P y, vale que
0 1
y12
1 = Q(x) = Q̃(y) = 4y12 + 1y22 = + y22 .
( 12 )2
1
En los nuevos ejes rotados y1 , y2 determinados por los versores de R2 : v1 := √12 y
1
−1
v2 := √12 el conjunto de nivel N1 (Q) = {x ∈ R2 : Q(x) = 1} es una elipse con centro en el
1
origen de coordenadas 1 y ejes coincidentes con los ejes y1 , y2 , ver Figura 6.6. En los nuevos ejes, los
puntos ym := ± 2 son los puntos de N1 (Q) más cercanos al origen. En la variable original,
0
1
estos puntos son xm = P ym = ± 2√ 1
y el valor de la distancia mínima es kym k = kxm k =
2 1
1 1 0
k ± 2√1
k = . De manera similar, los puntos y := ± son los puntos de N1 (Q) más
2 1 2
M
1
−1
alejados del origen. En la variable original, estos puntos son xM = P yM = ± 2 √1
y el valor
1
−1
de la distancia máxima es kym k = kxm k = k ± √12 k = 1.
1
e) : Si a = 32 y b = 52 entonces los autovalores de A son λM = a + b = 4 y λm = a − b = −1 y los
1 −1
autoespacios asociados son SλM = nul(A−4I) = gen{ } y Sλm = nul(A+I) = gen{ }.
1 1
1 1 1 −1
−1
Entonces { √12 ,√ } es una bon de R2 . Si tomamos P = √12 tenemos
1 2 1 1 1
4 0
que det(P ) = 1 y A = P P T . En este caso, con el cambio de variables x = P y, vale que
0 −1
y12
1 = Q(x) = Q̃(y) = 4y12 − 1y22 = − y22 .
( 12 )2
1
En los nuevos ejes rotados y1 , y2 determinados por los versores de R : v1 := 2
y
√1
2 1
−1
v2 := √12 el conjunto de nivel N1 (Q) = {x ∈ R2 : Q(x) = 1} es una hipérbola, ver
1
1
Figura 6.7. Por lo tanto, en los nuevos ejes, los puntos ym := ± 2 son los puntos de N1 (Q)
0
1
más cercanos al origen. En la variable original, estos puntos son xm = P ym = ± 2√1
y el
2 1
1 1
valor de la distancia mínima es kym k = kxm k = k ± 2√1
k = . Cómo se puede observar en
2 1 2
la Figura 6.7, el conjunto no posee máximo (no está acotado superiormente).
298
6.6. Optimización de formas cuadráticas con restricciones definidas positivas
299
Bibliografía
[1] Grossman S., Álgebra lineal con aplicaciones, Mac Graw-Hill, 3era. Edición, 1990.
[2] Hoffman K., Kunze R., Álgebra Lineal, Prentice Hall, 1984.
[3] Jeronimo G., Sabia J., Tesauri S., Álgebra Lineal, Departamento de Matemática -
FCEyN - Universidad de Buenos Aires, 2008.
[4] Maltsev A.I., Fundamentos de Álgebra Lineal, MIR, 1978.
[5] Mancilla Aguilar J.L., Apuntes sobre Álgebra Lineal, Departamento de Matemática -
FIUBA - Universidad de Buenos Aires.
301